摘要:全球首个针对人工智能的全面性法律框架——欧盟《AI法案》现已生效。该法案采用基于风险的方法,对不同风险级别的AI应用提出了不同的要求,特别是对高风险系统和通用AI模型(GPAI)的开发者规定了严格的义...
比利时布鲁塞尔 - 备受全球关注的欧盟《人工智能法案》(EU AI Act)在欧盟官方公报上公布后,于今日正式生效,开启了全球范围内对人工智能进行全面监管的新篇章。
分阶段实施的监管框架
《AI法案》的条款将不会立即全部适用,而是采用分阶段实施的方式,给予企业和机构一定的过渡期来适应新的规则:
6个月后(2024年底): 禁止使用不可接受风险的AI系统,例如社会评分系统。
12个月后(2025年中): 针对通用AI模型(GPAI)的规则将开始适用。
24个月后(2026年中): 所有规则将全面生效,包括对高风险AI系统的严格要求。
基于风险的核心监管理念
该法案的核心是采取“基于风险”的方法,将AI系统分为四类:
1. 不可接受的风险: 此类AI系统将被完全禁止,包括利用人的潜意识弱点、对特定群体进行歧视性评价以及由公共机构使用的社会评分系统。
2. 高风险: 涵盖了关键基础设施、教育、就业、执法、司法和民主程序等领域的AI系统。这些系统在进入市场前必须经过严格的合规性评估,并满足透明度、数据治理和人类监督等方面的要求。
3. 有限风险: 如聊天机器人,必须明确告知用户正在与AI进行交互。
4. 最低风险: 大多数AI应用属于此类,如垃圾邮件过滤器,不受额外法律义务的约束。
对全球科技公司的影响
《AI法案》具有“域外效力”,这意味着任何向欧盟市场提供AI系统或其输出在欧盟境内使用的公司,无论其总部设在哪里,都必须遵守该法规。这迫使全球的AI开发者,包括来自美国和中国的科技巨头,都必须审视并调整其产品和业务流程以满足欧盟的合规要求。违反该法案的公司可能面临高达其全球年营业额7%的巨额罚款。