欧盟委员会于本月8日发布了正式版的人工智能道德准则《ETHICS GUIDELINES FOR TRUSTWORTHY AI》(可信赖AI的伦理准则),提出了实现可信赖人工智能全生命周期的框架。
该准则由欧洲人工智能高级别专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG)起草。AI HLEG由欧盟委员会2018年4月任命的专门负责撰写人工智能道德准则并为欧盟提供政策和投资建议的小组,包括52位代表学术界、工业界和民间社会的独立专家。
-1-
三个基本条件
准则的目标是推进可信赖AI(Trustworthy AI)的发展。可信赖AI在系统的全生命周期中需要满足三个条件:
合法的(lawful)。系统应该遵守所有适用的法律法规;
合伦理的(ethical)。系统应该与伦理准则和价值观相一致;
鲁棒的(robust)。不管从技术还是社会的角度来看,AI系统都可能会造成伤害。所以系统中的每个组件都应该满足可信赖AI的要求。
-2-
可信赖AI的基础:四条伦理准则
人类的基本权利
根据国际人权法律、欧盟条约和欧盟宪章,专家组提出了AI系统应该涵盖的基本权利,其中有些权利在欧盟是法律强制执行的,因此保证这些权利也是法律的基本要求,包括:尊重人的尊严(Respect for human dignity),个人自由(Freedom of the individual),尊重民主、正义和法律规范(Respect for democracy, justice and the rule of law),平等、不歧视和团结(Equality, non-discrimination and solidarity)、公民权利(Citizens’ rights)。
4条伦理准则
包括:尊重人的自主性(respect for human autonomy)、预防伤害(prevention of harm)、公平性(fairness)和可解释性(explicability)。
伦理准则1:尊重人的自主性。AI系统不应该、胁迫、欺骗、操纵人类。相反,AI系统的设计应该以增强、补充人类的认知、社会和文化技能为目的。人类和AI系统之间的功能分配应遵循以人为中心的设计原则,而且AI系统的工作过程中要确保人的监督。AI系统也可能从根本上改变工作领域。它应该在工作环境中支持人类,并致力于创造有意义的工作。
伦理准则2:预防伤害。AI系统不应该引发、加重伤害,或对人类产生不好的影响。因此需要保护人类的尊严和身心健康。AI系统和运行的环境必须是安全的(safe and secure)。因此要求技术上必须是鲁棒的,而且要确保AI技术不会被恶意使用。尤其要注意可能会恶意使用该技术的人和可能会造成不良影响的应用场景。
伦理准则3:公平性。AI系统的开发、实现和应用必须是公平的。虽然对公平性可能会有不同的解读,但是应当确保个人和组织不会受到不公平的偏见、歧视等。如果AI系统可以避免不公平的偏见,就可以增加社会公平性。为此,AI系统做出的决策以及做决策的过程应该是可解释的。
伦理准则4:可解释性。可解释性对构建用户对AI系统的信任是非常关键的。也就是说整个决策的过程、输入和输出的关系都应该是可解释的。但目前的人工智能算法和模型都是以黑盒(black box)的形式运行的。
-3-
可信赖AI的实现:七个关键要素
专家组提出了AI系统应该满足的7个关键要素以达到可信赖的要求,分别是:人的能动性和监督(Human agency and oversight),技术鲁棒性和安全性(technical robustness and safety),隐私和数据管理(privacy and data governance),透明性(transparency),多样性、非歧视性和公平性(diversity, non-discrimination and fairness),社会和环境福祉(societal and environmental wellbeing),问责(accountability)。