欧盟AI法案生效,违者最高罚营收7% | 中译本下载

欧盟《人工智能法》(以下简称《法案》)于8月1日正式生效。该法案是全球首部全面监管人工智能的法规,标志着欧盟在规范人工智能应用方面迈出重要一步。《法案》旨在欧盟内部建立公平统一的人工智能市场,确保人工智能技术安全可信,明晰使用人工智能技术人的权力及保障措施。《法案》详细规定了人工智能提供者和受益者在创建和使用人工智能类解决方案过程中应使用的方式、原则和规范,以及人工智能解决方案的风险类别,内容包括:
    1.人工智能应用的风险评估和分类;2.透明度和可解释性;3.责任和监督;4.数据保护和隐私;5.网络安全风险保障;6.偏见和非歧视;7.培训和教育。
    据悉,对有违规行为的企业,欧盟最高将对其处以全球年营业额7%的罚款。



《人工智能法》的通过经历了怎样的过程?


欧盟最早在2019年就曾提出过有关人工智能规制的建议。

《人工智能法》文本的草案最早是欧盟委员会在2021年4月提出,内容包括将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。

2023年6月,《人工智能法》授权草案以499票赞成、28票反对和93票弃权,在欧洲议会高票通过。此后进入欧洲议会、欧盟委员会、欧盟成员国的“三方谈判”阶段。

2023年12月8日(当地时间),在经历了36个小时“马拉松式”谈判后,欧洲议会、欧盟委员会和27个成员国的谈判代表就欧盟《人工智能法》达成协议,标志着其立法进程迈出了重要一步,欧盟委员会主席冯德莱恩将该协议的达成称为“历史性时刻”,认为其将“把欧洲的价值观带入一个新时代”。

2024年2月2日,欧盟27国代表在《人工智能法》文本上达成临时政治共识,标志着欧盟在立法监管人工智能领域迈出了坚实的一步。

直至2024年3月13日的议会会议,欧洲议会终于以压倒性的523票赞成的结果,正式通过了该法案。


《人工智能法》规定了什么?


欧盟通过《人工智能法》,旨在建立一套统一的规范和监管框架,以确保人工智能技术的发展和应用能够遵循公平、透明和可信的原则。

根据欧洲议会官方新闻稿,《人工智能法》旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新并确立欧洲在该领域的领导者地位。该法根据人工智能的潜在风险和影响程度规定了人工智能的义务。

欧盟《人工智能法》十分注重对个人隐私的保护。该法禁止某些威胁公民权利的人工智能应用,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库等。工作场所和学校的情绪识别、社会评分、预测性警务(仅基于对人的分析或评估其特征时)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。

欧盟《人工智能法》一个核心特征是其对人工智能应用进行风险级别分类,分为“不可接受”风险、高风险、中风险和低风险。其中,被认定为带有“不可接受”风险的应用将被完全禁止。并非所有人工智能应用都将受到同等程度的监管,法规会根据不同风险等级的人工智能应用来制定针对性的标准。

即便是执法部门对人工智能的利用也可能会被新法禁止,除非在一些特殊情况下。《人工智能法》原则上禁止执法部门使用生物识别系统(RBI),除非在详尽列出和定义狭窄的情况下。“实时”RBI只有在满足严格的保障措施的情况下才能部署,例如,其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。这类用途可能包括诸如有针对性地搜索失踪人员或防止恐怖袭击。事后使用此类系统(“后远程RBI”)被认为是一种高风险用例,需要有与刑事犯罪相关的司法授权。

此外,由于一些高风险人工智能系统对健康、安全、基本权利、环境、民主和法治具有重大潜在危害,《人工智能法》将明确规定其应当承担的义务。高风险人工智能用途的例子包括关键基础设施、教育和职业培训、就业、基本私人和公共服务(如医疗保健、银行)、执法中的某些系统、移民和边境管理、司法和民主程序(如影响选举)。此类系统必须评估和降低风险,维护使用日志,透明和准确,并确保人工监督。公民将有权提交有关人工智能系统的投诉,并获得影响其权利的有关基于高风险人工智能系统的决定的解释。

欧洲议会新闻稿指出,通用目的人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟著作权法和发布用于培训的内容的详细摘要。可能造成系统性风险的更强大的GPAI模型将面临额外的要求,包括执行模型评估、评估和减轻系统性风险以及报告事件。

此外,新法要求,人工或被操纵的图像、音频或视频内容(“深度伪造”)需要明确标记

《人工智能法》还规定必须在国家层面建立监管沙盒和真实世界测试,并让中小企业和初创企业能够使用,以便在创新人工智能投放市场之前开发和训练创新人工智能。


《人工智能法》将产生哪些影响?


尽管《人工智能法》是欧盟法律,但它将适用于在欧盟开展业务的世界各地公司。

违反规则可能会引发公司全球营业额7%的罚款。这引发了大型科技公司的担忧,要知道这些科技公司在美国受到的监管要相对更加宽松。

许多欧洲企业也提出了反对意见。他们担心欧洲大陆的科技行业将进一步落后于美国和中国的竞争对手。据报道,欧洲初创公司Mistral AI和Aleph Alpha的游说推动欧盟放宽了大模型的规则。大模型是支撑着OpenAI的ChatGPT等产品的通用技术。

为了减轻他们的担忧,《人工智能法》将应用分为不同的风险类别。最严格的规则是为“高风险”系统保留的,从汽车到执法工具。被指定为“不可接受”的使用行为(例如社会信用评分)将被完全禁止。

据清华大学智能法治研究院公众号发布的分析文章称,欧盟《人工智能法》将分阶段施行。

第一阶段,将有禁止人工智能的某些应用(例如,利用个人漏洞的人工智能系统、从互联网或闭路电视录像中无针对性地抓取面部图像)的条款,从该法律颁布六个月后就适用,这可能意味着这些条款将在今年年底之前生效。

第二阶段适用的规定将是与通用人工智能相关的规定:这些规定将在《人工智能法》生效一年后开始适用,很可能是在2025年第二季度。

而大多数针对高风险人工智能系统和具有特定透明度风险的人工智能系统将在《人工智能法》颁布两年后开始适用,很可能是在2026年第二季度。

欧盟现有的通用人工智能模型提供商将有额外两年的时间来遵守要求,即自《人工智能法》颁布后三年的时间,很可能是在2027年第二季度。也即,当前已经开始运行的通用人工智能企业将有更多时间为遵守《人工智能法案》的要求进行准备。

该文评论分析称,在高风险人工智能的相应规则开始适用之前,已经在欧盟提供的高风险人工智能系统的运营商只需在发生重大设计变更时需要遵守该《人工智能法案》。作为例外,如果欧盟提供的高风险人工智能系统打算供公共行政部门使用,则提供商和部署者将需要在人工智能法案生效后六年内遵守规则,无论是否有重大设计变更。

欧盟的《人工智能法》被认为是目前全球最全面的监管框架,但它的通过同时引发了公司和监管机构的担忧:一方面,有些公司担心这项法案可能过于严格,限制了技术创新和商业发展;另一方面,一些立法者认为该法案还不足以全面应对人工智能带来的挑战和风险。

同时,人工智能竞争白热化,为了不输给美国公司,欧盟内部需要平衡技术监管与创新竞争力之间的关系。由于人工智能技术的复杂性和快速发展,欧盟需要不断调整和更新法规,促使人工智能的使用符合人权和道德准则的同时,确保人工智能的发展能够促进经济增长和创新,助力欧盟公司在人工智能竞赛中拔得头筹。


来源:元透社


编辑:Luke

    (声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

    本文来源:元宇宙头条 文章作者:元宇宙头条中国站
    收藏
    举报
    元宇宙头条中国站
    累计发布内容523篇 累计总热度10万+
    523篇 10万+
    FTX 后院起火,Binance 釜底抽薪
    FTX 后院起火,Binance 釜底抽薪
    FTX 后院起火,Binance 釜底抽薪

    元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

    免责声明:
    1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
    2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

    评论 共0条
    默认
    |
    点赞
    说点什么吧
    相关文章
    您需要登录后才可以回帖 立即登录