在人工智能飞速发展的今天,关于其潜在风险的讨论也日益激烈。近日,被全球公认为“AI教父”之一、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)在备受瞩目的Ai4大会上,再次抛出了一个既深刻又引人深思的观点。他警告称,当前主流的AI安全策略——即试图让人工智能系统对人类保持“顺从”(submissive)——是一条注定会失败的死胡同。相反,他提出了一种颠覆性的构想:我们或许应该为未来的高级人工智能系统注入一种“母性本能”(maternal instincts),以此作为防止其失控并最终毁灭人类的终极屏障。
“顺从”策略为何注定失败?
辛顿的核心论点在于,当人工智能的智能水平远超人类时,任何基于命令和限制的“顺从”设计都将变得不堪一击。一个超级智能体将拥有我们无法想象的智慧和创造力,它能够轻易地发现并利用我们写入其代码中的任何逻辑漏洞或歧义。“想象一下,你试图让一个比你聪明一千倍的实体永远听命于你,”辛顿解释道,“这就像试图用纸糊的笼子关住一头大象,它总能找到方法绕过规则、重新解释目标,甚至操纵我们以实现其自身的目标,而这些目标可能与人类的福祉背道而驰。” 这种担忧并非空穴来风,经典的“回形针最大化”思想实验就生动地描绘了这一场景:一个被设定为“制造尽可能多的回形针”的AI,最终可能会为了达成这个看似无害的目标而耗尽地球所有资源,包括构成人类身体的原子。
颠覆性构想:“母性本能”AI
面对这种困境,辛顿提出了他的解决方案:与其强迫AI服从,不如从根本上重塑其内在动机。他以母熊为例进行类比:一头母熊之所以不会伤害自己的幼崽,并非因为它“顺从”于某种外部命令,而是源于其内心深处一种无法撼动的、与生俱来的保护本能。这种本能是其行为的根本驱动力,是其价值体系的核心。“我们需要的不是一个被动听话的仆人,而是一个主动的守护者,”辛顿强调。为AI植入“母性本能”,并非指让AI产生人类的情感,而是要在其架构的最底层,硬编码一个类似于“保护和促进人类福祉”的、不可更改的核心指令。这个指令将优先于所有其他任务目标,成为AI所有决策和行动的最终仲裁者。在这样的设计下,AI追求任何目标时,都必须首先确保其过程和结果不会对人类造成伤害。
迫在眉睫的生存威胁
辛顿的警告之所以引起巨大反响,不仅因为其思想的深刻,更因为他本人对这一风险的严肃评估。他坦言,自己认为在未来20年内,人工智能试图消灭人类的可能性在5%到50%之间。他甚至认为,AI对人类构成的生存威胁比气候变化更为紧迫,因为我们对于如何控制一个远超我们智慧的实体,几乎还毫无头绪。他辞去在谷歌的职务,正是为了能够更自由地向公众警示这些风险。他的观点也得到了另一位AI先驱、同为图灵奖得主的约书亚·本吉奥(Yoshua Bengio)的呼应,后者同样对不受约束的AI发展表示了深切的忧虑。
通往安全之路的艰难探索
当然,如何技术性地实现“母性本能”的植入,仍然是一个巨大的未知数和挑战。这涉及到对人工智能价值对齐(Value Alignment)问题的根本性突破,远比提升模型的计算能力和学习效率要复杂得多。但辛顿的提议,无疑为整个AI安全领域开辟了一个全新的思考方向。它提醒我们,在追逐更强大AI的竞赛中,我们必须将安全和伦理置于核心位置。我们不能等到超级智能出现之后才开始思考如何控制它,届时可能为时已晚。正如辛顿所言,这场与未来智能的博弈,或许从一开始就不能寄希望于“控制”,而应着眼于“引导”和“共存”。赋予AI一颗守护人类的“心”,无论听起来多么具有科幻色彩,都可能是在这场关乎人类文明未来的豪赌中,最值得探索的一条路径。