摘要:密苏里州总检察长安德鲁·贝利对谷歌、OpenAI等科技巨头展开调查,原因是其AI聊天机器人在一项关于总统处理反犹太主义问题的排名中将特朗普列为最后。此举引发了对AI政治偏见及选举干预的严重关切。...

人工智能的政治中立性正面临前所未有的法律挑战。密苏里州总检察长安德鲁·贝利(Andrew Bailey)近日宣布,他已正式对包括谷歌(Google)、微软(Microsoft)、OpenAI以及Meta在内的多家科技巨头展开调查。此次调查的导火索是这些公司开发的AI聊天机器人在一项关于美国总统如何处理反犹太主义问题的排名中,将前总统唐纳德·特朗普(Donald Trump)列为最后一名。贝利认为,这种带有明显偏见的输出可能构成对消费者的欺骗,并对即将到来的总统大选构成潜在的干预威胁。

导火索:一则引发争议的AI排名

事件的起因源于一个看似简单的用户提问。当用户要求AI聊天机器人(如谷歌的Gemini、微软的Copilot或OpenAI的ChatGPT)对历任美国总统在处理反犹太主义问题上的表现进行排名时,多个模型给出了惊人相似的结果:特朗普被排在了末位。这一排名迅速在社交媒体上发酵,并引起了保守派人士的强烈不满。他们指出,特朗普在任期间曾采取了一系列被视为亲以色列的政策,例如承认耶路撒冷为以色列首都、促成《亚伯拉罕协议》等,这些行动与AI给出的“最差”评价形成了鲜明对比。因此,贝利及其支持者认为,AI的回答并非基于客观事实,而是反映了其背后算法和训练数据中根深蒂固的政治偏见。

法律行动:以消费者保护法为武器

为了将质疑转化为法律行动,贝利向这四家科技巨头发出了“民事调查要求”(Civil Investigative Demands, CIDs),这是一种在正式提起诉讼前用于收集证据的法律工具。他依据的是《密苏里州商品推销行为法》(Missouri Merchandising Practices Act),该法案旨在保护消费者免受商业活动中的欺骗、不实陈述和不公平行为的侵害。贝利的核心论点是,如果这些科技公司向公众推销其AI工具是客观、中立的信息来源,但其产品实际上却输出了带有严重政治偏见的内容,这就构成了对消费者的欺骗。他在声明中措辞严厉地指出:“我们正在利用一切可用的法律工具,以确保任何试图在选举前操纵密苏里州民意的实体都将承担责任。我们不会容忍任何形式的选举干预。”

更广泛的担忧:AI与选举干预的幽灵

此次调查的意义超越了单一的排名事件,它触及了当前社会最敏感的神经之一:人工智能在政治领域中的作用。随着2024年美国总统大选的临近,关于AI可能被用于传播虚假信息、影响公众舆论、甚至直接干预选举结果的担忧日益加剧。一个带有偏见的AI系统,即使其意图并非恶意,也可能通过潜移默化的方式塑造数百万用户的世界观。例如,当用户向AI咨询候选人的政策立场或历史评价时,一个有偏见的模型可能会以微妙的方式突出负面信息或省略正面信息,从而影响选民的判断。贝利此次的行动,正是试图在AI技术全面融入社会生活之前,为其划定一条明确的法律红线。

科技巨头的困境:偏见从何而来?

面对指控,科技公司普遍陷入了两难境地。一方面,它们坚称致力于开发中立、无偏见的AI系统。另一方面,它们也承认大型语言模型(LLM)的复杂性使其难以完全杜绝偏见。这些模型的“知识”来源于对海量互联网文本和数据的学习,而这些数据本身就充满了人类社会固有的各种偏见、矛盾和不准确之处。尽管公司投入巨资进行“对齐”(Alignment)工作,试图通过微调和强化学习等技术来纠正模型的行为,但这一过程本身也可能引入新的、意想不到的偏见。此前,谷歌的Gemini就曾因在生成历史人物图像时出现过度“多元化”的错误而饱受批评,这暴露了AI“政治正确”校准过程中的巨大挑战。对于此次调查,相关公司很可能会辩称,AI的输出是概率性的,有时会产生不准确或不理想的“幻觉”(Hallucinations),并强调他们正在不断努力改进技术。

未来展望:一场关于AI未来的关键诉讼

无论密苏里州的调查最终走向何方,它都标志着一个重要的转折点。这是美国州级司法力量首次直接就AI内容的政治偏见问题向科技巨头“亮剑”。此案的结果,可能会为未来如何监管AI的政治言论、如何界定AI偏见的法律责任、以及如何保护选举过程免受技术操纵等一系列复杂问题树立重要的判例。它迫使我们思考:我们是应该将AI视为一个中立的工具,还是一个具有潜在议程的“作者”?当AI的“观点”与事实发生冲突时,谁又该为此负责?这场发生在密苏里州的法律战役,其回响必将远远超出该州的边界,深刻影响全球范围内关于人工智能伦理与治理的讨论。