1. 首页
  2. 人工智能
  3. 正文

欧盟委员会发布《可信人工智能伦理指南草案》(附全文)

 2021-12-14 10:03:38  来源:互联网 

欧盟委员会人工智能高级专家组于 2018 年 12 月发布了《可信人工智能伦理指南草案》。该指南提出了可信的人工智能框架,强调伦理的规范性和技术的稳健性,共提出了 10 项要求。可信人工智能和实现可信人工智能的12种技术和非技术方法。同时,设计了一套评估清单,方便企业和监管机构进行比较。目前,我国也在大力发展人工智能产业。从长远来看,技术的安全性和符合人类社会的道德规范非常重要。所以,此次欧盟发布的指南草案对我国制定相关标准具有一定的参考意义。同时,试图进入欧盟市场的国内人工智能企业应密切关注欧盟相关监管要求,并为此做好准备。

1 可信人工智能伦理指南概述

早在2018年4月25日,欧盟委员会就制定了欧盟人工智能(AI)愿景,并成立了人工智能高级别专家组(AI HLEG)。目前,专家组由52人组成。专家组成。AIHLEG于2018年12月18日发布了《可信人工智能伦理指南草案》,目前处于公众咨询阶段,预计2019年3月发布正式版。

AI HLEG认为,过去十年,由于数据的出现、强大的计算架构以及机器学习等人工智能技术的发展,人类社会取得了诸多进步。同时,人工智能技术的应用也带来一些风险,应妥善处理。

在开发和使用人工智能时,在坚持利益最大化和风险最小化原则的同时,也必须贯彻以人为本的理念人工智能伦理问题,以提高人类福祉为目标。

欧盟的《可信人工智能伦理指南草案》为可信人工智能制定了一个框架,它由两部分组成:(1)道德:应尊重的基本人权、适用法规、核心原则和价值观;(1)2)技术要强大、可靠,草案分三章(见图1):第一章定义了人工智能应该遵循的基本权利、原则和价值观;人工智能的伦理目标;第 2 章为可信 AI 的实现提供指导,列举了可信 AI 的要求,并概述了可用于其实现的技术和非技术方法,同时兼顾伦理准则和技术稳健性;第 3 章提供了清单可信的人工智能评估。与其他关于伦理人工智能的宣言相比,欧盟指南并没有重新开始,制定另一份人工智能应用的核心价值观和原则清单,而是希望为人工智能系统的具体实施和运行提供实践指导。

图 1:欧盟可信 AI 框架

2 可信人工智能伦理指南草案的背景

2.1 欧盟人工智能愿景

欧盟委员会于 2018 年 4 月提出了“欧洲制造的先进人工智能”愿景,重点关注人工智能技术的安全和伦理,并提出了实现这一愿景的三个支点:(1)增加公共和私人人工智能投资促进其发展;(2)为社会和经济变化做好准备;(3)通过道德和法律框架加强欧盟价值观。道德框架是第三个支点的一部分。

2.2 欧盟人工智能伦理的来源

AI HLEG认为,AI的伦理必须以欧盟宪法和人权宪章中对人权的承诺为基石,肯定抽象的伦理规范,在AI的背景下将伦理和价值观具体化而形成AI道德守则,此守则必须尊重基本人权、原则、价值观和尊严。

2.3 欧盟人工智能伦理五项原则及相关价值观

AI HLEG在设定伦理准则后,列出了确保以人为本的AI发展模式必须遵循的五项原则和相关价值观。还建议设立内外部(伦理)专家参与人工智能的设计、开发和部署过程,以防止人工智能可能带来的未知或意外后果。这五个原则是:

(1)幸福原则:“向善”

人工智能系统应该用于改善个人和集体的福祉。AI系统通过创造繁荣、实现价值、最大化财富和可持续发展为人类谋求福祉。因此,一个好的人工智能系统可以通过寻求实现一个公平、包容、和平的社会,帮助增强公民的心理自决能力,以及平等分享经济、社会和政治机会来促进福祉。作为一种工具,人工智能可以为世界带来利益,帮助应对世界上最大的挑战。

(2)不作恶的原则:“无害”

人工智能系统不应该伤害人类。从设计开始,人工智能系统就应该保护人类在社会和工作中的尊严、完整性、自由、隐私和安全。AI系统的设计不应该增加现有的危害或给个人带来新的危害。人工智能的危害主要来自于个体数据处理(即如何收集、存储和使用数据等)导致的歧视、操纵或负面分析,以及人工智能系统的意识形态和开发过程中的算法决定论。为了提高人工智能系统的实用性,应考虑包容性和多样性。环保人工智能也是“无害”原则的一部分,应避免对环境和动物造成伤害。

相关标签
人工智能

相关文章

热门排行

编辑推荐

扫一扫关注最新创业资讯