欧盟已经发布了关于发展道德人工智能的新指南
欧盟今天发布了一套关于公司和政府应如何开发人工智能道德应用的指导方针。
这些规则与艾萨克·阿西莫夫的“机器人三定律”不同。他们没有提供一个有助于我们控制杀人机器人的活泼,道德的框架。相反,它们解决了影响社会的模糊和分散的问题,因为我们将人工智能整合到医疗保健,教育和消费者技术等领域。
因此,例如,如果AI系统在未来的某个时间诊断您患有癌症,欧盟的指导方针将要确保发生一些事情:软件没有因您的种族或性别而受到偏见,它没有不要超越人类医生的反对意见,而是让患者可以选择向他们解释他们的诊断。
所以,是的,这些指导方针是关于阻止人工智能运行,但在管理和官僚程度,而不是阿西莫夫式的谋杀之谜。
为了实现这一目标,欧盟召集了一个由52位专家组成的小组,他们提出了他们认为未来AI系统应该满足的七项要求。它们如下:
人道机构和监督 - 人工智能不应该践踏人类自治。人们不应该被人工智能系统操纵或胁迫,人类应该能够干预或监督软件做出的每一个决定。
技术稳健性和安全性 - AI应该是安全和准确的。它不应该容易受到外部攻击(例如对抗性示例)的影响,并且它应该是相当可靠的。
隐私和数据治理 - AI系统收集的个人数据应该是安全和私密的。任何人都不应该访问它,它不应该被轻易窃取。
透明度 - 用于创建AI系统的数据和算法应该是可访问的,软件做出的决策应该“被人类理解和追踪”。换句话说,运营商应该能够解释他们的AI系统做出的决策。
多元化,非歧视和公平 - 人工智能提供的服务应该适用于所有人,无论年龄,性别,种族或其他特征如何。同样,系统也不应该偏向于这些界限。
环境和社会福祉 - 人工智能系统应该是可持续的(即,他们应该对生态负责)和“增强积极的社会变革”
问责制 - 人工智能系统应该是可审计的,并由公司举报人的现有保护措施涵盖。系统的负面影响应该事先得到承认和报告。
您会注意到其中一些要求非常抽象,难以从客观意义上进行评估。(例如,“积极的社会变革”的定义因人而异,国家之间存在巨大差异。)但其他人则更为直截了当,可以通过政府监督进行检验。例如,共享用于训练政府AI系统的数据可能是对抗偏见算法的好方法。
这些准则没有法律约束力,但它们可能影响欧盟起草的任何未来立法。欧盟一再表示希望成为道德AI的领导者,并且已经向GDPR表明它愿意制定保护数字权利的深远法律。
但这种作用在一定程度上是由环境强加给欧盟的。在涉及投资和尖端研究时,它无法与美国和中国 - 世界人工智能的领导者 - 竞争,因此选择道德是塑造技术未来的最佳选择。
作为这项工作的一部分,今天的报告包括所谓的“值得信赖的AI评估列表” - 一系列问题,可帮助专家找出AI软件中任何潜在的弱点或危险。此列表包含的问题包括“您是否验证了系统在意外情况和环境中的行为?”和“您是否评估了数据集中数据的类型和范围?”
这些评估清单只是初步的,但欧盟将在未来几年收集公司的反馈意见,并在2020年提交有关其效用的最终报告。
数字版权组织Access Now的政策经理FannyHidvégi和帮助编写今天指南的专家表示,评估列表是报告中最重要的部分。Hidvégi告诉The Verge,“它为如何减轻人工智能的潜在危害提供了一个实用的,前瞻性的视角” 。
“我们认为,欧盟有潜力和责任成为这项工作的重中之重,”Hidvégi说。“但我们确实认为欧盟不应该停留在道德准则上......它只能在合法合规的基础上发挥作用。”
其他人怀疑欧盟试图通过伦理研究来塑造全球人工智能的发展方式会产生很大的影响。
“我们对所采取的方法持怀疑态度,认为通过为道德人工智能创建一个黄金标准,它将确认欧盟在全球人工智能开发中的地位,”数据创新智库中心的高级政策分析师Eline Chivot告诉他们边缘。“要成为道德人工智能领域的领导者,首先必须引领 人工智能本身。”