5月21日,欧洲理事会最终批准了《人工智能法案》,这是一项旨在协调整个欧盟人工智能规则的开创性立法。该法采用基于风险的方法,即对社会的潜在危害就越大,法规就越严格。作为全球首部全面的人工智能法规,它为人工智能治理设定了新标准。
相关背景
主要内容
一、按风险对人工智能系统进行分类
《人工智能法案》根据风险程度对人工智能系统进行分类。低风险的人工智能系统将面临最低的透明度要求,而高风险的人工智能系统则必须满足严格的标准才能获准在欧盟使用。某些人工智能应用,如认知行为操纵和社交评分,因其不可接受的风险而被直接禁止。立法还禁止将人工智能用于基于种族的预测性警务,以及根据种族、宗教或性取向等生物特征数据对个人进行分类的系统。
二、通用人工智能模型
该法规还涉及通用人工智能(GPAI)模型。不构成系统性风险的GPAI模型将遵守有限的透明度要求。但是,那些被认为有系统性风险的模型必须遵守更严格的规定。
三、治理与执行
为确保有效实施,《人工智能法案》设立了多个管理机构:
-
欧盟委员会内部的人工智能办公室,负责执行相关规则。
-
一个由独立专家组成的科学小组,为执法活动提供支持。
-
由成员国代表组成的人工智能委员会,就人工智能法案的一致应用提供建议。
-
利益相关者咨询论坛,提供技术专业知识。
四、违规处罚
违反《人工智能法案》的行为将被处以罚款,罚款额度为违规公司上一财政年度全球年营业额的一定百分比或预先确定的金额,以较高者为准。中小型企业 (SME) 和初创企业将面临相应比例的行政罚款。
五、透明度和基本权利保护
在公共服务部门部署高风险人工智能系统之前,各实体必须评估其对基本权利的影响。该条例要求提高高风险人工智能系统开发和使用的透明度。这些系统以及使用它们的某些公共实体必须在欧盟高风险人工智能系统数据库中注册。情绪识别系统的用户必须在使用此类系统时告知个人。
前景展望
-
禁止行为将在生效六个月后适用; -
实践准则将在生效九个月后实施; -
通用人工智能的规则和管理将在生效十二个月后生效; -
高风险系统的义务将在生效三十六个月后执行。
(来源:赛博研究院)