AI道德指南筹集了工业责任的酒吧

没有什么比人工智能(AI)的发展更令人兴奋和不安的了。人工智能已经从科幻小说的页面迅速演变为现实生活。它的存在已经渗透到商业和消费者生活的各个领域:只要问问Alexa或任何一个与你交谈的人工智能数字助手就知道了。

随着“人工智能时代”的展开,监管机构现在希望让它负起责任来。在这方面,他们希望激发创新,同时控制技术的潜在危险。核心问题是:现在人工智能终于出现了,我们如何让它遵守道德标准?

“这是第一次,人工智能的伦理不再是一种抽象或哲学练习,”李飞飞,斯坦福大学以人为中心的人工智能研究所联席主任。“这项技术影响着现实生活中的人。”

形成国际道德标准

去年,欧盟发布了一套“值得信赖的人工智能的道德准则,使得欧洲成为美国和中国主导的人工智能创新领域的先行者。该指导方针列出了人工智能系统应满足的7个关键要求,包括透明度、人类监督、数据隐私和治理的保护,以及安全性、透明度和避免偏见的规定。然而,这些指导方针不具有约束力,缺少欧盟GDPR之类的规定。

欧盟的行动水龙头对全球辩论,了解企业和政府在为AI软件奠定道德限制方面的作用。特别是,它们突出了确保AI和妨碍技术开发的道德使用之间的紧张关系。随着各国政府尚未巩固AI条例,企业已采取领先地位,到目前为止,建立了自己的内部准则。然而,欧盟指南可以形成一个框架——或者至少是一个起点——其他监管机构和企业可以起草自己的道德标准Lexology

减轻人工智能可能产生的后果

安永强表示,在行业巨头和政府领导人逐渐意识到人工智能的巨大价值之后,政府和标准机构对这一问题的审议也导致了无法预见的后果Axios报告。这种情况在媒体领域尤为突出,例如,人工智能机器人导致不可信的信息在社交媒体上传播。

对于业内人士来说,这种披露信息的方式相对较新,但近年来越来越受到信任。据报道,微软创始人比尔•盖茨(Bill Gates)最近在斯坦福大学(Stanford University)的一次活动上表示,几十年前,人工智能的最初创造者没有意识到潜在的副作用,比如“信息对所有人开放”Axios。他说:“我们今天才刚刚开始讨论这种自由会产生如此巨大的影响,事先并没有一种认识方式。”

然而,如今,业内人士担心的不仅仅是人工智能在媒体制作中的作用。例如,谷歌和微软(Microsoft)的研究人员,作为纽约大学附属的AI Now组织的一部分,已经做到了这一点呼吁政府监管面部识别技术的潜在危险。据报道,还有一些人担心自动武器等东西的崛起瘾科技

尽管如此,在私营部门的AI各种应用仍然可以证明棘手。在内心的核心是需要与AI系统创建透明度,而无需强制企业披露其商业秘密或杀死创新。但是,专家已经向前提供了几条路径。

例如,AI专家Charles Towers-Clark写道《福布斯》关于开源人工智能“跟踪”软件的开发,该软件可以监控人工智能系统的决策过程——以及任何潜在的偏见——而不揭示这些系统本身的内部过程。

另一个报告,在麻省理工学院技术评论他还认为,人工智能系统的决策可以被解释,也就是说,在有偏见或错误决策的情况下,可以由法律负责,而不需要公布人工智能系统的蓝图。他们指出,这些不必要的决定同样可以用类似的方式“纠正”。

然而,在缺乏进一步监管的情况下,问责机制将采取何种形式,以及AI开发者将遵循何种标准,仍有待观察。

其他国家是如何应对的

同时,18个国家已经发布了他们自己的人工智能策略——从加拿大、德国到日本和中国。每一种都提供了自己程度的监管和政府资助。例如,从加拿大2100万美元的人工智能研究投资,到韩国政府提供的近20亿美元资金。

美国也加入了这一行列,计划建立一个“美国人工智能倡议”。该计划不仅指示联邦机构优先考虑人工智能的研究和资金,还要求美国国家标准与技术研究所(National Institute of Standards and Technology)等其他政府机构制定围绕人工智能的道德标准,可能会效仿欧盟的标准。

这一趋势的清楚是,除了AI的快速增长,两家企业和政府都对AI的道德考虑感兴趣。对于一个在很大程度上仍然清晰的监管审查的行业,这可能代表了对问责制的转折点,好或坏。对于开发人员来说,现在是考虑这些潜在措施可能影响行业实践的时间。

2020 - 07 - 02 - t12:17:24 + 0

关于作者:

John Paulsen.
John Paulsen是一个“长期数据”的倡导者,在数据存储行业有近20年的经验。他帮助推出了许多行业领先的产品,包括HAMR技术、10K-rpm和15K-rpm硬盘驱动器、专门为视频和游戏设计的驱动器、串行ATA驱动器、流体动力HDD电机、60TB ssd和MACH.2多驱动器技术。