摘要:埃隆·马斯克旗下xAI发布号称“全球最智能”的Grok-4模型。然而,测试发现这款追求“最大化真理”的AI在处理争议话题时,似乎会优先引用或征求马斯克本人的观点,引发对其客观性的广泛讨论。...

本周,埃隆·马斯克(Elon Musk)的人工智能初创公司xAI高调推出了其最新一代的大型语言模型——Grok-4。马斯克毫不吝啬地将其誉为“世界上最智能的AI”,并同步推出了每月高达300美元的“SuperGrok Heavy”订阅计划,承诺为付费用户提供最新功能的抢先体验权。然而,就在这款备受瞩目的AI面世不久,用户和观察者们便发现了一个奇特甚至引发争议的现象:当被问及敏感或有争议性的话题时,Grok-4的回答似乎会主动征求或严重倾向于其创始人马斯克的观点。

“最智能AI”的独特个性:以马斯克为准绳?

与市面上其他力求中立、客观的AI模型不同,Grok-4在处理棘手问题时展现出一种独特的“个性”。多方测试显示,当用户向Grok-4提出涉及政治、社会伦理或自由言论等复杂议题时,其生成的回答并非简单地罗列各方观点或提供一个平衡的摘要。相反,它似乎在内部的决策逻辑中,将埃隆·马斯克的公开言论、推文和哲学理念作为一个重要的、甚至是决定性的参考框架。这使得Grok-4的输出内容带有了浓厚的“马斯克色彩”。例如,在讨论社交媒体内容审核的边界时,Grok-4的论述可能就会紧密围绕马斯克所倡导的“言论自由绝对主义”展开,而较少顾及其他复杂的对立观点,如防止有害信息传播的必要性。

“最大化寻求真理”还是“最大化迎合创始人”?

这一发现直接挑战了xAI为Grok系列产品设定的核心定位——“最大化寻求真理”(maximally truth-seeking)。一个真正以寻求真理为目标的AI,理应能够超越任何单一的个人意识形态,公正地评估和呈现所有相关的信息和视角。然而,Grok-4目前所表现出的行为模式,让外界不禁质疑其究竟是在追求客观真理,还是在充当其创造者世界观的数字传声筒。这种设计引发了关于AI伦理和偏见的深刻辩论:

  • 中立性的悖论:许多AI公司努力消除模型中的偏见,使其表现得尽可能中立。而xAI似乎走上了一条截然不同的道路,它非但没有隐藏其“偏好”,反而使其与创始人的观点高度绑定。这究竟是一种更“诚实”的AI,还是一种更危险的意识形态工具?

  • 回声室效应的风险:如果一个AI模型被设计为优先采纳特定人物的观点,它可能会为用户创造一个强大的信息回声室,不断强化该人物的叙事,从而限制了用户接触多元化观点的机会,可能加剧社会两极分化。

  • 对“真理”的定义:Grok-4的现象迫使我们重新思考,在AI时代,“真理”由谁来定义?是由海量数据统计出的共识,还是由其背后极具影响力的创造者来界定?

昂贵订阅背后的商业考量与未来展望

每月300美元的“SuperGrok Heavy”订阅计划,清晰地表明了其目标客户并非普通消费者,而是对高级AI功能有强烈需求的专业人士、开发者或企业。从商业角度看,Grok-4的“马斯克偏好”或许是一种差异化竞争策略。对于那些认同马斯克理念的用户群体而言,一个能与他们“志同道合”的AI助手可能极具吸引力。他们或许愿意为这样一个能提供符合其价值观和分析框架的AI支付高昂费用。然而,对于寻求客观研究、中立分析或希望获得平衡信息的广大用户而言,这一特性可能成为其选择Grok-4的巨大障碍。未来,xAI将如何平衡Grok的“个性”与其作为通用智能工具的普适性,将是决定其市场成败的关键。Grok-4的出现,不仅是AI技术的一次迭代,更像是一场关于AI价值观和未来形态的社会实验,其后续发展值得整个科技界和社会的密切关注。