经过长达数年的立法长跑,欧盟(EU)各成员国部长于近期正式批准了《人工智能法案》(AI Act)。这一历史性的决策标志着全球首个针对人工智能技术的全面、具有约束力的法律框架正式诞生。该法案旨在为AI技术的研发和应用设立明确的规则,以确保其安全、透明并尊重基本人权,同时促进欧洲内部的AI创新。
核心框架:基于风险的分级管理
《AI法案》最核心的监管理念是采取“基于风险”的方法,将不同的AI应用根据其可能对社会和个人造成的风险水平进行分类管理。这种差异化的监管方式旨在实现精准治理,避免对低风险创新活动造成不必要的阻碍。法案将AI系统分为四个等级:不可接受风险、高风险、有限风险和最小风险。
风险等级的具体划分如下:
不可接受风险: 此类AI应用将被完全禁止。例如,利用人类弱点进行潜意识操控的系统、政府主导的社会评分系统,以及在公共场所进行无差别的实时远程生物识别(执法等特定豁免情况除外)。
高风险: 涉及关键基础设施、教育、就业、执法、司法和民主程序等领域的AI系统被归为高风险类别。这些系统在进入市场前必须经过严格的合规性评估,并满足数据质量、透明度、人类监督和网络安全等方面的要求。
有限风险: 对于像聊天机器人(Chatbots)这样可能让用户误以为在与真人互动的AI系统,法案要求其必须尽到透明度义务,明确告知用户正在与AI进行交互。
最小风险: 绝大多数AI应用,如AI驱动的视频游戏或垃圾邮件过滤器,被归为最小风险类别,法案对此类应用不施加额外的法律义务。
全球影响与“布鲁塞尔效应”
作为全球范围内首个系统性的AI监管法规,欧盟《AI法案》的实施预计将产生深远的全球影响。类似于其在数据隐私领域的《通用数据保护条例》(GDPR),《AI法案》很可能通过所谓的“布鲁塞尔效应”,成为事实上的全球行业标准。任何希望在拥有4.5亿消费者的欧盟市场运营的科技公司,无论其总部设在何处,都必须遵守该法案的规定。这不仅为全球AI治理提供了重要的范本,也迫使全球科技巨头重新审视其AI产品的设计、开发和部署流程,将安全与伦理置于更核心的位置。