上周,欧盟公布了一系列新的AI伦理准则。这些指南是非常有趣的,他们说的伦理关系和人工智能(AI),平衡数据和人类尤其发人深省。这里有一些东西站在我的指导方针,包括如何与数据管理。
建立可信赖的人工智能
新道德准则,值得信赖的人工智能是一个更大的一部分关注欧盟内部AI。2018年4月,欧盟委员会(European Commission)发表人工智能在欧洲渴望开发一个独特。欧洲的人工智能方法,包括一个适当的伦理和法律框架。
在总体计划,欧盟创建了一个高级人工智能专家小组2018年6月,由52个专家来自一个广泛的背景。这个小组撰写新的AI伦理准则。集团提出的草案指南2018年12月,和磋商结束2019年2月,和更多比500条评论收到。
作为欧洲独特的人工智能方法在最后的文档,欧盟锚对AI的伦理法律框架欧盟基本权利宪章》的欧盟。AI伦理准则讨论需要人工智能系统”以人为中心,放在他们的使用在服务人类的共同利益,提高人类福利的目标和自由。”
从这个概念“诚信是人与社会发展的先决条件,部署和使用的人工智能系统。没有人工智能系统和背后的人类被证明值得信任,不受欢迎的后果可能确保及其可能阻碍吸收,防止潜在的实现可以带来巨大的社会效益和经济效益。帮助欧洲实现这些利益,我们的愿景是确保和规模可信赖的人工智能。“根据指导方针,值得信赖的人工智能有三个组件:
- 它应该是合法的,符合所有适用的法律法规
- 它应该是道德,确保遵守道德原则和价值观
- 应该是健壮的,从技术和社会视角
文档然后继续讨论元素的基本权利宪章》的上下文中可以人工智能,它吸引了广泛的在许多不同的元素特许发展道德框架。相比之下,例如,GDPR只指第八条。对于这些AI的指导方针,这是四个关键的结果伦理原则:
- 尊重人的自治- AI系统不应“无理地下属、强迫、欺骗、操作条件或群人类。”
- 预防伤害- AI系统不应“引起或加剧伤害或影响人类。”
- 公平——开发、部署和使用的人工智能系统必须公平。
- Explicability——流程需要透明,AI系统的功能和目的公开沟通,和决策可辩解的直接和间接影响。
集团视这些为“道德责任”,在那些使用人工智能”应该努力坚持。”
需要隐私和数据治理
在文档的第二部分,欧盟的专家团队试图翻译这些原则的人工智能问题。明确,这包括隐私和数据治理的具体要求可信赖的人工智能。有三个关键问题,该集团已经确定:
- 隐私和数据保护-在沙地上一行是声明,“人工智能系统必须保证隐私和数据保护系统的整个生命周期。“两个通用数据保护监管(GDPR)和即将到来的ePrivacy监管在一个脚注引用。
- 数据的质量和完整性该小组要求数据没有偏见,不准确,错误和错误。必须保证数据的完整性。
- 对数据的访问——协议控制谁有权访问的数据应在的地方。
隐式数据也谈到了在整个文档的第二部分。
例子包括:
- 透明度——数据集和过程产生AI的决定,其中包括数据采集和数据标签,应记录,以便追溯和透明度。
- 可审核性——算法、数据和设计过程都应该被评估。人工智能系统应该独立审计。
- 技术的鲁棒性和安全性——有足够的安全以防止数据损坏,损坏,或被盗。确保AI能够做出正确的决定基于它使用的数据。
文档还包括一个飞行员版本的值得信赖的人工智能评估清单,其中包括问题业务以及风险,合规和审计可以问关于人工智能系统。
简而言之,欧盟的道德指南可信赖的AI只是许多法规的最新数据管理的核心方法。的信息是明确的——组织想要被视为值得信赖和伦理AI时需要确保他们有数据政策、流程、资源和文化来实现这一目标。狗万新闻c