(相关资料图)
2023年5月11日,欧盟内部市场委员会(Internal Market Committee)和公民自由委员会(Civil Liberties Committee)以84票赞成、7票反对和12票弃权,通过了有史以来首个人工智能规则的谈判授权草案。在他们对委员会提案的修正案中,欧洲议会议员旨在确保人工智能系统受到监督,保证其安全透明、可追溯、非歧视和环境友好。他们还希望为人工智能设计一个统一的定义,使其技术中立,从而可以应用于目前和未来的人工智能系统。
这些规则遵循基于风险的方法,并根据人工智能可能产生的风险水平,为提供商和用户明确义务。对人的安全具有不可接受的风险水平的人工智能系统将被严格禁止,包括部署潜意识或故意操纵技术、利用人的脆弱性或用于社会评分(根据社会行为、社会经济地位、个人特征对人进行分类)的系统。
欧洲议会议员对该清单进行了实质性修改,包括禁止侵入性和歧视性使用人工智能系统,例如:
公共场所的“实时”远程生物识别系统;“后”远程生物特征识别系统,唯一的例外是用于起诉严重犯罪的执法,并且必须经过司法授权;使用敏感特征(如性别、种族、民族、公民身份、宗教)的生物识别分类系统;(基于特征分析、位置或过去的犯罪行为的)预测性警务系统;执法、边境管理、工作场所和教育机构中的情感识别系统;和不分青红皂白地从社交媒体或闭路电视镜头中抓取生物特征数据,以创建面部识别数据库(侵犯人权和隐私权)。欧洲议会议员扩大了高风险区域的分类,包括对人民健康、安全、基本权利或环境的损害。他们还将影响政治活动选民和社交媒体平台(数字服务法案下有超过4500万用户)推荐系统的人工智能系统添加到高风险列表中。
欧洲议会议员还指出,基础模型提供者必须保证对基本权利、健康和安全以及环境、民主和法治的有力保护。他们需要评估和减轻风险,遵守设计、信息和环境要求,并在欧盟数据库中注册。
像GPT这样的生成式基础模型,必须遵守额外的透明度要求,比如披露内容是由人工智能生成的,设计模型以防止其生成非法内容,以及发布用于训练的版权数据的摘要。
为了促进人工智能创新,欧洲议会增加了对研究活动和在开源许可证下提供的人工智能组件的豁免。新法律促进了监管沙箱或受控环境的发展,这些沙箱或受控环境是由公共当局建立的,用于在人工智能部署之前对其进行测试。
欧洲议会议员希望提高公民对人工智能系统提出投诉的权利,并获得对基于高风险人工智能系统的决定的解释,这些决定会严重影响他们的权利。欧洲议会议员还改革了欧盟人工智能办公室的角色,该办公室将负责监督人工智能规则手册的实施情况。
在与议会就该法律的最终形式开始谈判之前,这一谈判授权草案需要得到整个议会的认可,预计将在6月12日至15日的会议期间进行表决。