摘要:一份来自大西洋理事会的最新报告指出,政策制定者在为民用AI制定规则时,必须警惕其对国防部门的潜在负面影响。报告认为,为商业AI设计的监管豁免或特殊条款,在实践中可能难以有效保护国家安全领域的AI创新。...
华盛顿知名智库大西洋理事会(Atlantic Council)于2025年6月30日发布了一份具有重要影响力的报告,指出当前全球范围内针对民用人工智能(AI)的监管浪潮,可能对国家安全和国防能力构成意想不到的威胁。
该报告题为《民用人工智能监管对国防的二阶效应:为何国家安全界必须参与其中》,其核心论点是,看似与军事无关的商业AI法规,实际上可能通过多种方式,间接削弱一个国家的国防AI生态系统。
报告指出的主要风险(“二阶效应”)
限制技术获取: 许多尖端的AI技术都源于商业领域。如果民用法规对AI的开发、数据使用或模型透明度施加过于严格的限制,可能会导致国防部门无法及时获取和改造最先进的AI技术,从而在与对手的军事技术竞赛中落后。
削弱创新生态: 严苛的监管可能增加AI初创公司和研究机构的合规成本和法律风险,扼杀创新活力。这将导致整个国家的AI人才和技术基础变得薄弱,军方可以依赖的本土技术供应商也会随之减少。
“监管豁免”的无效性: 报告认为,仅仅在民用AI法案中为国防和国家安全领域设置“豁免条款”是远远不够的。因为国防AI供应链深度依赖于商业市场,如果上游的民用技术供应商因监管而衰落,国防豁免将形同虚设。
政策建议
大西洋理事会敦促,国家安全和国防领域的专家必须立即并深入地参与到关于AI监管的立法和政策讨论中。政策制定者需要寻求一种精妙的平衡,既要通过监管解决AI在社会层面带来的风险,又要确保这种监管不会“误伤”对于维持国家军事优势至关重要的技术创新和产业基础。
这份报告的出台,正值美国、欧盟等主要经济体加速推进AI立法之际,其提出的观点预计将引发关于AI治理路径的更深层次辩论。