欧盟的AI伦理指导方针需要可信赖的数据

博客等级说明

上周,欧盟公布了一系列新的AI伦理准则。这些指南是非常有趣的,他们说的伦理关系和人工智能(AI),平衡数据和人类尤其发人深省。这里有一些东西站在我的指导方针,包括如何与数据管理。

建立可信赖的人工智能

道德准则,值得信赖的人工智能是一个更大的一部分关注欧盟内部AI。2018年4月,欧盟委员会(European Commission)发表人工智能在欧洲渴望开发一个独特。欧洲的人工智能方法,包括一个适当的伦理和法律框架。

在总体计划,欧盟创建了一个高级人工智能专家小组2018年6月,由52个专家来自一个广泛的背景。这个小组撰写新的AI伦理准则。集团提出的草案指南2018年12月,和磋商结束2019年2月,和更多比500条评论收到。

作为欧洲独特的人工智能方法在最后的文档,欧盟锚对AI的伦理法律框架欧盟基本权利宪章》的欧盟。AI伦理准则讨论需要人工智能系统”以人为中心,放在他们的使用在服务人类的共同利益,提高人类福利的目标和自由。”

从这个概念“诚信是人与社会发展的先决条件,部署和使用的人工智能系统。没有人工智能系统和背后的人类被证明值得信任,不受欢迎的后果可能确保及其可能阻碍吸收,防止潜在的实现可以带来巨大的社会效益和经济效益。帮助欧洲实现这些利益,我们的愿景是确保和规模可信赖的人工智能。“根据指导方针,值得信赖的人工智能有三个组件:

  1. 它应该是合法的,符合所有适用的法律法规
  2. 它应该是道德,确保遵守道德原则和价值观
  3. 应该是健壮的,从技术和社会视角

文档然后继续讨论元素的基本权利宪章》的上下文中可以人工智能,它吸引了广泛的在许多不同的元素特许发展道德框架。相比之下,例如,GDPR只指第八条。对于这些AI的指导方针,这是四个关键的结果伦理原则:

  1. 尊重人的自治- AI系统不应“无理地下属、强迫、欺骗、操作条件或群人类。”
  2. 预防伤害- AI系统不应“引起或加剧伤害或影响人类。”
  3. 公平——开发、部署和使用的人工智能系统必须公平。
  4. Explicability——流程需要透明,AI系统的功能和目的公开沟通,和决策可辩解的直接和间接影响。

集团视这些为“道德责任”,在那些使用人工智能”应该努力坚持。”

需要隐私和数据治理

在文档的第二部分,欧盟的专家团队试图翻译这些原则的人工智能问题。明确,这包括隐私和数据治理的具体要求可信赖的人工智能。有三个关键问题,该集团已经确定:

  • 隐私和数据保护-在沙地上一行是声明,“人工智能系统必须保证隐私和数据保护系统的整个生命周期。“两个通用数据保护监管(GDPR)和即将到来的ePrivacy监管在一个脚注引用。
  • 数据的质量和完整性该小组要求数据没有偏见,不准确,错误和错误。必须保证数据的完整性。
  • 对数据的访问——协议控制谁有权访问的数据应在的地方。

隐式数据也谈到了在整个文档的第二部分。

例子包括:

  • 透明度——数据集和过程产生AI的决定,其中包括数据采集和数据标签,应记录,以便追溯和透明度。
  • 可审核性——算法、数据和设计过程都应该被评估。人工智能系统应该独立审计。
  • 技术的鲁棒性和安全性——有足够的安全以防止数据损坏,损坏,或被盗。确保AI能够做出正确的决定基于它使用的数据。

文档还包括一个飞行员版本的值得信赖的人工智能评估清单,其中包括问题业务以及风险,合规和审计可以问关于人工智能系统。

简而言之,欧盟的道德指南可信赖的AI只是许多法规的最新数据管理的核心方法。的信息是明确的——组织想要被视为值得信赖和伦理AI时需要确保他们有数据政策、流程、资源和文化来实现这一目标。狗万新闻c

更多的故事

2023年6月21日-5最小值

AI治理:是什么,为什么需要它,为什么它是重要的对你的AI……

阅读更多
箭头
2023年2月27日—4最小值

AI治理:所有数据科学家的圣杯吗?

阅读更多
箭头
2022年7月27日—4最小值

人工智能驾驶数据智能的未来

阅读更多
箭头