全球人工智能立法进程显着加快,世界各地的法规正在追赶人工智能的发展。
当地时间6月14日,欧洲议会以499票赞成、28票反对、93票弃权,通过了《人工智能法案》(AI Act)谈判授权草案。 根据欧盟立法程序,欧洲议会、欧盟成员国和欧盟委员会将启动“三方谈判”,以确定该法案的最终条款。
欧洲议会表示,它已“准备好进行谈判”,以颁布有史以来第一个人工智能法案。 美国总统拜登释放了控制人工智能的信号,美国国会部分议员提交了人工智能监管立法提案。 美国参议院民主党领袖查克·舒默公布了他的“人工智能安全创新框架”,并计划在“几个月”内颁布联邦人工智能法案。
我国的相关立法也已提上议程,人工智能法草案将于今年内提交全国人大常委会审议。 6月20日,国内第一批深度合成服务算法备案名单也出炉,百度、阿里巴巴、腾讯等26家企业、共计41个算法上榜。
尽管中国、美国、欧盟都倡导准确性、安全性、透明性等原则性人工智能监管理念,但具体理念和方式存在诸多差异。 全面的人工智能法律的出台背后是自身规则的输出,想要掌握规则的优势。
国内一些专家呼吁尽快制定人工智能法律法规,但当前的现实问题也不容忽视。 此外,还有一个重要的考虑:监管还是发展。 这不是一个二元选择,但在数字领域,平衡两者并不容易。
图/视觉中国
欧盟冲刺,中美加速
如果一切顺利,欧洲议会通过的人工智能法案预计将在今年年底获得批准。 全球首部全面的人工智能监管法很可能落地欧盟。
“这个草案会影响其他持观望态度的国家加速立法。长期以来,人工智能技术是否应该纳入法律监管范围一直存在争议。现在来看,《人工智能法案》出台后“实施后,相关网络平台,如业务内容、用户信息生成等重点平台,势必承担更高的审核义务。” 北京航空航天大学法学院副教授赵景武告诉《中国新闻周刊》。
作为数字战略的一部分,欧盟希望通过《人工智能法案》全面规范人工智能,其背后的战略布局也已摆上桌面。
北京万商天勤(杭州)律师事务所执行主任彭晓燕向《中国新闻周刊》表示,《人工智能法案》不仅适用于欧盟,也对位于欧盟以外但其系统输出数据用于欧盟以外的系统提供商进行监管。欧盟。 或用户。 该法案的管辖范围和适用范围大大扩展,也可以窥见数据要素抢占管辖权的蛛丝马迹。
中国国际问题研究院欧洲研究所副所长、研究员金凌也在《世界首部人工智能立法:创新与监管之间的艰难平衡》一文中写道,《人工智能法案》凸显道德道德欧盟人工智能治理优势,是欧盟充分发挥规范力量、通过规则优势弥补技术短板的又一尝试。 体现了欧盟在人工智能领域抢占道德制高点的战略意图。
《人工智能法案》的制定已历时两年。 2021年4月,欧盟委员会提出了基于“风险分类”框架的人工智能立法提案,并经过多轮讨论和修订。 生成式人工智能流行后,欧盟立法者紧急添加“补丁”。
一个新的变化是,最新的《人工智能法案》草案加强了对通用人工智能(AI)的透明度要求。 例如,基于基础模型的生成式AI必须对生成的内容进行标记,帮助用户区分深度造假和真实信息,并确保防止非法内容生成。 等基础模型的提供者,如果在模型训练过程中使用了版权数据生活网消息,也需要公开训练数据的详细信息。
此外,公共场所实时远程生物识别技术已从“高风险”级别调整为“禁止”级别,即欧盟国家不得在公共场所使用AI技术进行人脸识别。
最新草案还进一步提高了违规处罚金额,将侵权公司上一财年全球营业额的最高3000万欧元或全球营业额的6%改为最高4000万欧元或全球年度营业额的7%。侵权公司上一年度的营业额。 这明显高于欧洲标志性数据安全法《通用数据保护条例》,该法可处以最高相当于全球收入 4% 的罚款,即 2000 万欧元。
彭晓燕对《中国新闻周刊》表示,处罚金额的增加体现了欧盟当局监管人工智能的决心和力度。 对于谷歌、微软、苹果等收入数千亿美元的科技巨头来说,如果违反《人工智能法案》的规定,罚款可能达到数百亿美元。
在大洋彼岸的美国,当华盛顿忙于回应马斯克等人加强人工智能控制的呼吁时,6月20日,美国总统拜登在旧金山会见了一批人工智能专家和研究人员,讨论如何管理这项新技术的风险。 风险。 拜登当时表示,在抓住人工智能巨大潜力的同时,有必要管理它对社会、经济和国家安全带来的风险。
风险管控成为人工智能热门话题的背景是,美国尚未对人工智能技术采取严格的反垄断措施,联邦层面尚未出台全面的人工智能监管法律。
美国联邦政府首次正式涉足人工智能监管领域是在2020年1月,当时发布了《人工智能应用监管指南》,为新兴人工智能问题的监管和非监管措施提供指导。 2021年出台的《国家人工智能倡议法案2020》更多的是人工智能领域的政策布局,离人工智能治理和强有力的监管还有一定距离。 一年后,白宫于2022年10月发布的《人工智能权利法案蓝图》(“蓝图”)为人工智能治理提供了支撑框架,但它不是美国官方政策,不具有约束力。
美国人工智能立法进展甚微,引发不少不满。 很多人批评美国在制定数字经济规则方面落后于欧盟和中国。 不过,或许是眼见欧盟《人工智能法案》即将迈过最后一道“坎”,美国国会近期却出现了加速立法的迹象。
在拜登人工智能会议当天,民主党众议员 Ted W. Lieu 和 Anna Eshoo 以及共和党众议员 Ken Buck 提交了《国家人工智能委员会法案》。 “提案。与此同时,民主党参议员 Brian 将在参议院提出针对人工智能监管的配套立法。
根据法案内容,人工智能委员会将由来自政府、行业、民间社会和计算机科学领域的20名专家组成。 他们将审视美国现行的人工智能监管方式,共同制定全面的监管框架。
“人工智能正在社会上做出惊人的事情。如果不加以控制和监管,它可能会造成重大伤害。国会绝不能袖手旁观,”特德刘在一份声明中说。
一天后,即6月21日,参议院民主党领袖查克·舒默(Chuck )在战略与国际研究中心(CSIS)发表演讲,透露了他的“人工智能安全创新框架”(简称“AI框架”)——鼓励创新,同时提高安全性、问责制、基础性和可解释性,这与蓝图所包含的宏伟愿景相呼应。 他在四月份提出了这个框架,但当时没有透露太多细节。
AI框架的背后是查克·舒默的立法策略。 在这次演讲中,他表示联邦人工智能法案将在“几个月”内颁布。 然而,美国的立法程序却十分繁琐。 不仅需要参众两院表决,还需要经过多轮听证会,耗时较长。
为了加快进度,作为AI框架的一部分,查克·舒默计划从今年9月起举办一系列人工智能洞察论坛,涵盖创新、知识产权、国家安全和隐私等10个主题。 他告诉外界,洞察论坛不会取代国会有关人工智能的听证会,而是会并行举行,以便立法机关可以在几个月而不是几年内推出有关该技术的政策。 他预测,美国人工智能立法可能要到秋天才能“开始看到一些具体的东西”。
虽然进度没有赶上欧盟,但我国相关立法也已提上议程。 6月初,国务院办公厅印发《2023年国务院立法工作计划》,其中提到人工智能法草案准备提请全国人大常委会审议。
根据我国《立法法》规定,国务院向全国人民代表大会常务委员会提出法律草案后,由委员长会议决定列入常务委员会会议议程,或者首先提交提请有关专门委员会审议并提出报告,然后决定列入常务委员会会议议程,一般需经过三轮审议后进行表决。
今年以来,多国加速人工智能立法。 彭晓燕认为,这是竞争和技术发展共同作用的结果。
“数据要素日益成为国家战略要素,各国也希望通过立法确立管辖权,抢占人工智能的话语权。同时,人工智能技术的迭代更新让社会看到了新的希望。”新技术的发展必然会带来新的社会问题和社会矛盾,需要监管的干预和调整,而技术的发展在一定程度上推动了立法的更新。 彭晓燕说道。
分歧多于趋同
中国、美国、欧盟是全球人工智能发展的主要推动力,但三者之间的人工智能立法也存在一定差异。
欧盟《人工智能法案》从使用和功能角度将人工智能应用的风险分为四个级别。 无论草案经过多少轮修改,“风险分级”仍然是欧盟人工智能治理的核心理念。
金字塔的顶端应该对人类安全构成“不可接受的”风险。 例如,根据社会行为或个人特征等对人进行分类的评分系统将被完全禁止。
在最新的草案中,欧洲议会扩大了“不可接受的风险”清单,以防止侵入性和歧视性的人工智能系统。 公共场所的生物特征识别、情绪识别、预测性警务(基于分析、位置或过去的犯罪行为)以及从互联网上随机抓取面部图像等六种人工智能系统被完全禁止。
第二类是对人类安全或基本权利产生负面影响并被视为“高风险”的人工智能系统。 例如,航空、汽车、医疗设备等产品中使用的人工智能系统,以及必须在欧盟数据库中注册的八个特定领域,涵盖关键基础设施、教育、培训、执法等。 根据人工智能法规和事先合格评定,各种“高风险”人工智能系统将被授权进入欧盟市场,并遵守一系列要求和义务。
此外,影响选民和选举结果的人工智能系统,以及根据欧盟数字服务法拥有超过4500万用户的社交媒体平台使用的推荐系统也将被列入高风险清单,例如, , 和 。
位于金字塔底部的是风险有限、风险很小或没有风险的人工智能系统。 前者有具体的透明度义务,需要告知用户正在与AI系统交互,而后者没有强制性规定,基本不受监管,比如垃圾邮件过滤器等应用。
由于其严格的监管规定,《人工智能法案》被不少业内人士视为多了锋利的“牙齿”。 然而,该法案也试图在强有力的监管和创新之间取得平衡。
例如,最新草案要求成员国建立至少一个可供中小企业和初创企业免费使用的“监管沙箱”,在有监督、安全可控的场景下,测试创新的人工智能技术。智能系统在投入使用之前,直到满足合规性要求。 欧盟普遍认为,该提案不仅能让当局实时关注技术变化,还能帮助AI企业持续创新,同时减轻监管压力。
金凌在前述文章中表示,一方面,欧盟的上游治理方式要求企业承担更多的前期成本,另一方面,风险评估的不确定性也影响了企业的投资积极性。 因此,尽管欧盟委员会一再强调人工智能立法将支持欧洲数字经济的创新和增长,但现实的经济分析似乎并不支持这一结论。 该法案反映了欧盟促进创新与保护权利之间难以有效平衡的固有矛盾。
与欧盟和中国一样,美国支持基于风险的人工智能监管方法,主张准确性、安全性和透明度。 不过,在赵景武看来,美国的监管思路更侧重于利用AI推动AI产业的创新发展,最终保持美国的领先地位和竞争力。
“与中国和欧盟所持的‘风险防范和技术安全’监管理念不同,美国注重商业发展。中国和欧盟都注重人工智能技术应用的安全,防止人工智能技术被滥用。”以免侵犯个人权利,而美国则重点关注产业发展才是监管的重点。” 赵敬武说道。
研究发现,美国国会的立法主要侧重于鼓励和引导政府使用人工智能。 例如,美国参议院在2021年推出了人工智能创新法案,要求美国国防部实施试点计划,以确保其能够获得最好的人工智能和机器学习软件能力。
在上述演讲中,查克·舒默将创新视为北极星,他的AI框架就是要释放人工智能的巨大潜力,支持美国主导的人工智能技术创新。 《人工智能应用监管指导意见》伊始就明确,要持续推动技术进步和创新。 2020年国家人工智能倡议法案的最终目标也是通过增加研究投入和建立劳动力体系来确保美国在全球人工智能技术领域保持领先地位。
彭晓燕表示,从指导性规范设计来看,美国人工智能的发展在立法和制度层面仍处于监管薄弱的状态,社会积极鼓励人工智能技术的创新和拓展,开放的态度。
与欧盟的调查权更明确、监管范围更全面相比,美国对人工智能监管采取的是去中心化的方式,部分国家和机构对人工智能治理的推进力度较小。 因此,国家人工智能监管举措非常广泛且有原则性。
例如,《蓝图》是美国人工智能治理政策中的里程碑事件。 制定了系统安全有效、防止算法歧视、保护数据隐私、告知解释、人类参与决策等五项基本原则。 没有更详细的规定。
彭晓燕认为,《蓝图》并未制定具体实施措施,而是原则性地构建了人工智能发展的基本框架,旨在指导人工智能系统的设计、使用和部署。
“这样的标准并不是强制性的,这是因为美国考虑支持人工智能产业的发展。目前,人工智能还处于新兴发展阶段,高强度的监管势必会限制产业发展和发展。” “在一定程度上是创新。因此,美国在立法上保持着相对温和的态度。”彭晓燕说。
“如果没有法律赋予各机构新的权力,他们只能根据已有的权力来规范人工智能的使用。 另一方面,与人工智能相关的道德原则仍然受到较少监管,各机构可以决定如何自行监管。 使用哪些权利。” 卡内基分析师哈德良·皮尤( Pugh)认为,这使得以白宫为首的联邦机构既受到限制又自由。
以利用和创新为主的人工智能治理理念,注定不会对美国的“拳头”太狠。 美国著名智库布鲁金斯学会研究员亚历克斯·恩格勒指出,欧盟和美国正在对教育、金融、就业等具有社会影响的人工智能采取不同的监管方式。
在具体的AI应用方面,欧盟《人工智能法案》对聊天机器人有透明度要求,而美国则没有联邦法规。 面部识别被欧盟认为是“不可接受的风险”,美国通过美国国家标准与技术研究院(NIST)面部识别供应商测试计划提供公开信息,但没有强制规定规则。
“欧盟的监管范围不仅涵盖了更广泛的应用,而且还为这些人工智能应用制定了更多规则。而美国的做法更狭隘地局限于调整现有的机构监管机构来尝试治理人工智能,人工智能的范围也更广泛。”更有限。” 亚历克斯·恩格勒(Alex )表示,尽管人工智能风险管理的原则大致相同,但分歧远多于趋同。
赵景武总结了中国、欧盟、美国的人工智能监管模式,发现中国仅限于人工智能技术的应用场景,针对人脸识别技术等应用场景制定了专门的监管规则、深度综合、自动推荐。 欧盟以风险水平为指导,取决于人工智能应用的风险水平是否为可接受的水平。 美国在现有传统法律体系框架内判断人工智能技术应用的合法性。
此外,美国也更加重视人工智能研究,投入更多资金。 就在5月初,白宫宣布投资约1.4亿美元,新建7个国家人工智能研究所。 有研究人员认为,美国此举希望更好地理解人工智能,从而缓解监管过程中产生的担忧。
彭小燕表示,我国采取措施鼓励人工智能技术发展,同时有限度规范相关领域管理,以协调一致的政策和管理要求引导人工智能技术发展。
我国立法面临诸多现实困难
欧盟正在加速实施全球首个人工智能监管法案。 赵景武告诉《中国新闻周刊》,欧盟的“风险等级制”人工智能监管措施、《人工智能法案》中提出的“通用模式”监管理念,以及针对此类生成的具体规则、披露义务和数据人工智能应用的著作权合规义务对于我国人工智能立法具有参考价值。
事实上,我国关于人工智能的立法已经启动。 2017年,国务院印发《新一代人工智能发展规划》,提出到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和政策。 控制能力。
当地,2022年,深圳市颁布了《深圳经济特区人工智能产业促进条例》,被视为我国首个针对人工智能产业的专项立法。 《条例》提到,完善人工智能领域监管机制,防范人工智能产品和服务可能出现的伦理安全风险和合规风险。
目前,我国人工智能监管主要由几大部委联合推动,推动人工智能在不同领域的监管和发展。 《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成人工智能服务管理办法(征求意见稿)》等规范性文件也已出台已发出。
“从历史管理规范来看,我国对人工智能领域的法规采取了区分业务领域和技术方向的措施,管理规范趋于分散化。规范出台时往往具有及时性的特点特定技术出现后,制定专门的管理规定。该规定由行政部门颁布,以监管为主,并没有升级为监管层面的法律。” 彭晓燕说道。
值得注意的是,6月20日,国内第一批深度合成服务算法备案名单出炉。 百度、阿里巴巴、腾讯、字节跳动、美团点评等26家公司、41种算法上榜。
随着人工智能立法热度不断升温,国内专家开始呼吁尽快制定人工智能法律法规。 不过,在赵景武看来,我国针对人工智能的专项立法是可行的,但也面临不少现实问题。
“首先是立法文件之间的制度衔接问题。人工智能专项立法与其他规范性文件的适用关系尚未解决,特别是专项立法与现行立法的内容重叠亟待解决。二是人工智能技术更新迭代速度加快,难以保证法律与技术同步发展;三是人工智能监管规则缺乏完整性,三大核心要素的监管规则缺乏完整性。数据、算法、算力等方面还处于探索阶段;第四,人工智能立法的重点是应该放在安全风险管理上,还是放在产业发展上,争议比较大。”赵景武说。
无论是欧盟的《人工智能法案》,还是中国、美国等国家针对人工智能的法规、倡议和计划,都在试图构建一个全面的监管框架,既能确保安全,又能创造为人工智能创造更好的条件。
基于这种普遍性原则,彭小燕对《中国新闻周刊》表示,我国人工智能法律的建立首先应该以积极鼓励发展和创新为基础,让人工智能在相对开放的空间得到规范和发展。 发展红线。
“此外,现在大家关心的人工智能领域的法律问题需要解决,包括但不限于禁止人工智能中的非法内容、保护人工智能数据安全、保护人工智能道德与安全、防止知识产权侵权等。”彭晓燕说。
赵景武认为,我国应建立以产业发展保护为导向的人工智能法。
“从一定程度上来说,现行立法基本能够满足人工智能技术应用监管的需要。防范技术风险、保障技术安全只是治理过程,其最终目标还是要回归到人工智能的发展层面。”毕竟,人工智能法律不是限制产业发展,而是引导和保障相关产业良性发展。” 赵敬武说道。
本网站转载其他媒体之作品,意在为公众提供免费服务。如权利所有人拒绝在本网站发布其作品,可与本网站联系,本网站将视情况予以撤除。