EU人工智慧法案或成为下一个GDPR——欧洲议会重视强有力的隐私保护
发布于2023年6月21日,由撰写
在中,欧洲议会已就即将到来的EU人工智慧(AI)法案确定了谈判立场。该包含多项重要的隐私保护措施,包括对以下事项的禁止:
- 在公共可及场所使用“实时”远程生物识别识别系统
- 对捕获数据进行生物识别识别后处理,只有在检察官针对重大犯罪案件并获得法官批准的情况下才例外
- 使用性别、种族、民族、宗教和政治观点等敏感特征的生物识别分类系统
- 基于轮廓、位置或过去犯罪行为的预测性警务系统
- 在执法、边境管理、工作场所和教育机构中使用的情感识别系统——不过,企业可以在消费者身上使用此技术
- 从互联网或闭路电视中随意抓取人脸图像以建立面部识别数据库,如Clearview AI,此事在我们的博客中。
这些提议的保护措施对隐私而言是一个重大胜利。正如我们在2021年报导的那样,有人对其是否会被纳入法案表示怀疑,而这些措施最终进入法案,至少部分反映出人们越来越意识到,日益强大的AI系统对每个人的隐私构成威胁。
大多数大型语言模型不符合EU人工智慧法案
最新的生成式AI系统是。幸运的是,欧洲议会的文本现在包括了防范这种危险的措施。:
基础模型的供应商,这是AI领域中一个新兴且快速发展的领域,必须评估和减轻可能的风险(对健康、安全、基本权利、环境、民主和法治)并在其投放EU市场之前在EU数据库中注册其模型。基于这些模型的生成式AI系统,如ChatGPT,必须遵守透明度要求(包括披露内容是由AI生成的,并协助区分所谓的深度伪造图像和真实图像)并确保对生成非法内容的防范措施。
由斯坦福大学基础模型研究中心进行的分析发现,大多数大型语言模型在目前形式下不符合EU的AI法案。研究人员指出,开放模型的表现优于限制性或封闭模型。欧洲议会的文本为开放方法提供了重要支持,增加了对研究活动和基于开源许可的AI组件的豁免,这一点得到了的欢迎。
EU人工智慧法案的核心是一种“”方法。被认为对安全、生活和人权构成“明确威胁”的人工智慧系统将被禁止。所谓的“高风险”AI系统在投入市场之前将须遵守多项义务,包括:
- 风险评估
- 高品质数据集
- 活动日志记录
- 详细文档
- 人类监督
- 高水平的稳健性、安全性和准确性
欧洲议会列出的一系列高风险AI还包括用于影响选民及选举结果的系统,以及社交媒体平台上使用的推荐系统(用户超过4500万)。
使用AI的企业可以自我监管
尽管有诸多好消息,欧洲消费者组织BEUC指出,目前的文本使企业可以自行决定其AI系统是否应被视为高风险,这就创造了一个相当。
欧洲数位权利组织EDRi对于其所称的“”感到高兴。然而,它批评法案未能引入保护移民权益的条款,随著基于AI的监视技术日益被用于追踪、控制和监控移民。
理论上,缺失的部分可在目前进行的“”中由欧洲议会、欧洲委员会和欧洲联盟理事会增加。然而,更有可能的是,欧洲委员会和理事会会试图削弱欧洲议会文本中的某些隐私保护措施。这意味著,在即将到来的AI系统世界中,保护隐私的努力远未结束。
这场战役至关重要,因为EU的AI法案是迄今为止最先进、最具雄心的立法框架,用于监管AI技术。在这方面,它的影响潜力与EU于2016年通过的通用数据保护条例(GDPR)不相上下。正如所验证的,GDPR毫无疑问地在全球发挥了影响力,成为类似隐私法律在EU以外的重要范本,也迫使许多美国最大的互联网公司调整其商业实践以遵守GDPR。
美国开发技术,欧盟进行监管
假设三方会谈不会彻底破坏目前欧洲议会提议文本中的保护措施,EUAI法案似乎将成为此领域立法动作的标准。例如,最近《科学》杂志的一篇社论将草案版本称为“”,并表明AI法案“提供了一瞥未来人工智慧治理的可能性”。
在这样的背景下,最近美国发起的“”的倡议,以及提议的新“蓝丝带”委员会旨在制定,让人觉得稍有失望。再次,似乎美国将主导许多最新的AI技术,但将由EU来制定其使用的法律规范。
图片由提供。
评论已关闭。
2 条评论
谢谢。
一年前
- David E Williams
内容深入且及时的帖子。期待您在法律推行过程中的报导。
一年前