Insights and Analysis

欧盟议会针对人工智能的立法方案可能成为全球性立法标杆

欧盟议会在2020年10月20日批准了三份有关人工智能立法项目的立法建议报告。三份报告获得了绝大多数不同党派议员的同意,预示着该法案可能在欧盟立法计划中成为重点任务,这也将使欧盟议会成为“首批就人工智能规则涉及的伦理、民事责任和知识产权问题提出建议的机构”。鉴于欧盟一些其他法律制度(比如通用数据保护条例和反垄断法领域)对全球其他司法辖区立法趋势的影响力,欧盟本次拟针对人工智能制定的新规则很有可能也会在未来成为全球性的立法模式标杆。

背景

如何保护欧盟公民的个人数据是欧盟议员重点关心的问题。欧盟议会通过《通用数据保护条例》(GDPR)制定了非常高的保护标准,并且这一标准对全世界的数据隐私规则都产生了影响。在欧盟,越来越多的人认为,由于机器的学习能力和其他能力可能对人类行为进行预测,或实施基于性别、种族或其他标准的歧视,所以人工智能可能会对个人数据隐私而言是一大隐患。因此,欧盟议会本次立法的主要目标之一就是确保能够对《通用数据保护条例》中确立的个人信息隐私保护的高标准进行适当修改以使该等标准能够适用于人工智能。同时,随着人工智能在全新领域不断取得突破性进展,欧盟议会认为,也有必要针对人工智能制定新的规则。

除了对数据隐私的担忧之外,欧盟议会(以及欧盟委员会在今年2月发布的《人工智能白皮书》中)明确指出,通过人工智能相关新立法的计划也是基于促进该行业发展的考虑。商业方面的主要驱动力来自两个方面,一是为人工智能解决方案开发者和部署者提供确定性,从而提高商业可预测性并促进投资;二是在全球范围内创建公平的监管竞争环境,促进行业发展。尽管欧盟议会并未明言,但其意图很可能是创建一个可以被其他国家借鉴甚至成为全球性立法标案的法律框架,这将可以使欧盟的人工智能开发者和部署者受益。

在2020年2月发布的《人工智能白皮书》中,欧盟委员会承认,“欧洲公司目前在消费者应用程序和在线平台上的地位较弱,这在数据访问方面造成了竞争劣势”(而数据访问正是发展人工智能的关键),但是认为欧洲在工业流程和应用以及量子计算等研发领域有着领先地位。从某种意义上来说,欧盟计划针对人工智能立法,也是为了抢占未来竞争的先机,并弥补其在一些领域的不足。

10月20日,欧盟议会全体会议批准了有关人工智能、机器人以及相关技术的三个立法项目,该等项目涉及(一)伦理;(二)民事责任规则;(三)知识产权三个方面。立法项目的主要特征如下。

关于伦理框架的立法建议

建立人工智能伦理框架的立法建议报告由一份具体的欧盟条例草案以及相应的解释说明组成[1]

该立法建议涉及与人工智能、机器人以及相关技术(包括人工智能使用或生成的软件、算法和数据)有关的一系列伦理原则。除了安全性、透明性和问责制方面的义务外,还就不偏颇、不歧视、尊重隐私以及保护个人数据等方面的义务作出了规定。

该立法建议的中心思想是识别“高风险”的人工智能技术,并针对此类人工智能采用严格的伦理规范标准。相反,不属于高风险类别的人工智能则适用相对宽松的标准。

其中,该立法建议就如何识别“高风险”人工智能制定了一系列客观标准,主要包括:开发、部署或使用人工智能的领域;具体用途或目的;以及违反基本权利和安全规则可能对个人和社会造成的伤害或损害的严重程度。同时,该立法建议还建议详尽地罗列高风险领域,以及可能导致违反基本权利和安全规则的高风险用途或目的,并作为附件纳入未来出台的条例。

值得注意的是,伦理框架的立法建议在附录中列出了高风险领域和高风险用途或目的:

 

高风险领域
  • 劳动就业
  • 教育
  • 医疗
  • 交通运输
  • 能源
  • 公共部门(庇护、移民、边境控制、司法与社会保障服务)
  • 国防与安全
  • 金融、银行业、保险
高风险用途或目的
  • 招聘
  • 教学评分与测评
  • 公款划拨
  • 贷款审批
  • 贸易、经纪服务、税收等
  • 医学治疗与手术
  • 选举程序和政治竞选
  • 对自然人或法人的权利义务有重大和直接影响的公共决策
  • 自动驾驶
  • 交通管理
  • 自动化军事系统
  • 能源生产与分配
  • 废弃物管理
  • 排放物控制

 

对于高风险人工智能,关键原则是保证时刻有人类监督。一旦发生违反伦理原则且可能造成危险的情况,需要能够“恢复”全人类控制并关闭人工智能的自学功能。

欧盟成员国的相关监管机构将评估高风险人工智能是否符合伦理准则并负责监督后续获得是否符合伦理。如果某一人工智能项目通过了合伦理评估,相关监管机关将向相应的运营者签发“欧盟伦理合规认证”。非高风险人工智能项目也可以自愿申请伦理合规认证。

关于民事责任的立法建议

与伦理框架的立法建议类似,人工智能相关民事责任的立法建议也由一份具体的欧盟条例草案和相应的解释说明组成[2]。该立法建议试图针对人工智能可能造成的对自然人生命、健康或身体完整性的损害,对自然人或法人财产的损害,以及可证实的经济损失的重大精神损害构建民事责任框架。

虽然欧盟有大量的产品安全与责任法规,但有观点认为这些法规不足以涵盖人工智能可能产生的全部民事责任问题。例如,现有法规的主要关注点在于产品在市场上推出时存在的安全风险,而人工智能产品的形成就需要一定的时间(如通过机器学习)——这恰恰是界定人工智能的因素之一。此外,考虑到人工智能及其支持技术的不透明性,人工智能产品供应链中的责任分配(尤其是人工智能开发者和部署者之间)往往也具有不确定性。

与伦理框架的立法建议类似,民事责任的立法建议也区分了高风险和非高风险人工智能(虽然高风险的定义与伦理框架立法建议中的定义略有不同)。民事责任立法建议中,最核心的内容是,高风险人工智能应适用严格责任原则——这意味着在追究高风险人工智能运营者的责任时无需证明其存在过错。反之,对于非高风险人工智能,责任的承担仍以存在过错为前提。

该立法建议还提出在造成损害的情况下可以要求的具体赔偿金额,但其建议的赔偿金额似乎相对较低(例如在造成死亡的情况下赔偿金额为200万欧元)。此外,该金额在同一行为造成数人受到损害的情况下还要按比例减少。

另外值得注意的一点是,欧盟议会还讨论了是否需要推动覆盖人工智能相关责任的保险产品,但考虑到保险产品需要基于数据(尤其是以往出险事件的发生概率)定价,这更像是对未来发展趋势的一种预测。

关于人工智能相关知识产权问题的立法建议

与伦理框架立法建议和民事责任立法建议不同,知识产权立法建议不是一份具体的立法草案,而是列出了未来相关立法的一些重要原则[3]

知识产权立法建议中强调了区分人工智能辅助下创作的人类作品与人工智能生成的作品的必要性。衍生开来,该立法原则可能对未来规则产生的影响是,人工智能不应具有法律人格,因此,与人工智能有关的一切知识产权的所有权都应归属于人类。

知识产权建议还提出了一些值得探讨的观点,例如:“鉴于原创性原则是与自然人紧密相关的,并且‘智力创作’的概念也强调了作者的人格权,为了遵守原创性原则,人工智能主体和机器人自主制作的作品可能不能获得著作权保护。“

结论

总体而言,欧盟上述立法建议中提出的基本思路是,需要识别“高风险”人工智能,并使其在伦理义务和民事责任规则等方面受到更严格标准的规制(如对民事损害承担严格责任)。本次立法建议和先前欧盟委员会《人工智能白皮书》中还提到,与生物识别相关的人工智能(尤其是面部识别技术)可能需要受到特别严格的审查。

上述欧盟的最新立法动态对涉足人工智能、物联网以及相关领域的中国公司而言非常重要,因为欧盟议会是全球首批针对人工智能制定全面法律框架的机构之一。鉴于欧盟一些其他法律制度(比如通用数据保护条例和反垄断法领域)对全球其他司法辖区立法趋势的影响力,欧盟本次拟针对人工智能制定的新规则很有可能也会在未来成为全球性的立法模式标杆。欧盟议会和欧盟委员会也指出,新的法律框架旨在避免欧洲在人工智能开发、部署和使用方面落后其他国家/地区,并希望通过制定新的规则保持欧盟在这一领域的领先地位。

除了欧盟规则的“输出”外,欧盟的立法进展对中国人工智能公司也很重要,因为未来的欧盟规则很可能直接对其适用。关于伦理框架和民事责任制度的法律草案中指出,其规定适用于在欧盟开发、部署或使用的所有人工智能技术,“而不论该等技术所使用或产生的软件、算法或数据是位于[欧盟]境外还是并无特定的地理位置。”

接下来,欧盟委员会作为负责提出上述立法建议的主要机构,将起草一份具体的立法提案。欧盟议会称其预计将在2021年初收到欧盟委员会的立法提案。

 

 

[1]   建立人工智能伦理框架的立法建议报告的链接请见:https://bit.ly/3jQnqF4

[2]   人工智能相关民事责任的立法建议的链接请见:https://bit.ly/3jMNAbx

[3]   知识产权立法建议的链接请见:https://bit.ly/3oOdnE9

Search

Register now to receive personalized content and more!