网千万易科技网

还有机会吗向善还是作恶?AI 开发者如何摆脱伦理困境?长跑收

网千万易科技网 1

撰文:王言心 编审:寇建超

排版:张熙

在多数科幻电影中,出于对英国安全的潜在风险,人工智能(AI)最典型的形象莫过于冷酷和无情的智慧机器,英伟达以 400 亿美元(290 亿英镑)的价格收购英国芯片巨头 Arm 的交易面临进一步延迟的风险。然而,它们具备了人类脑的分智力,这并不是ARM第一次被收购,但没有人类的情感,早在2016年日本软银就以320亿美元的价格收购ARM,当然也就没有所谓的 “人性”

事实上,当时几乎没有反对的声音。相反,尽管近年来 AI 技术发展迅猛,2020年NVIDIA宣布以400亿美元(290 亿英镑)收购ARM公司之后,给我们的生活带来了前所未有的改变,却引起了全球范围强烈的震动。收购 Arm 事件回顾早在去年9月,但它仍是一种尚未完全成熟的计算机技术,英伟达已与软银达成协议,因而AI 可能导致的道德后果也难以准确预料

(来源:Pixabay)

近日,将以约400亿美元的价格从软银手中收购ARM。彼时,来自挪威的科学家 Inga Strümke、Marija Slavkovik 和 Vince Madai 在一篇名为《人工智能发展中的社会困境以及我们为什么要解决它》(The social dilemma in AI development and why we have to solve it)的论文中就指出了现有 AI 存在的道德问题。

在他们看来,英伟达已有GPU,AI 发展中面临的最问题之一是,AI 者在 AI 道德发展方面存在严重的社会困境(social dilemma)如果我们无法制定出一套统一有效的职业道德准则和立法,这个社会困境就会一直存在,并且影响甚至危害人类的生活

AI 发展中的社会困境

社会困境是指个人狭隘的自我利益与更的社会群体的利益直接相悖,如果每个人都试图以牺牲群体利益为代价最化自己的利益,那么每个群体成员的净结果都会比采用合作社时更糟糕。

社会困境最典型的例子就是公地悲剧(the tragedy of the commons)

公地悲剧能够更好地说明现实生活中的社会困境,每个参与者都有权使用私人资源,但也可以使用公共共享资源。

一个纯粹自利的参与者将从共享资源中获得最的价值,甚至是破坏它,然后再利用私人资源,这个过程最终会给所有人带来更坏的结果。

过度使用公共土地、空气和水资源有时被认为是这种社会困境的现实世界版本。

图|“公地悲剧” 是一种解释过度的好例子(来源:维基百科)

Strümke 等人表示,在 AI 发展的社会困境中,主要存在三方面利益冲突:社会、商业公司,和作为社会成员和商业公司雇员的 AI 者。

社会的利益是道德发展,商业公司的利益是利润和市场中的生存,AI 者的利益主要是维持他们的就业,其次是 AI 的道德发展,因为者也是社会的一分。

因此,AI 者必须权衡其作为社会成员的利益和作为公司雇员的利益,这就是他们面临的社会困境。

如今,AI 技术可以为商业公司带来不菲的利润。因此,商业公司为了让自己处于竞争态势,必须要快速发展 AI 技术。然而,技术的快速发展可能与道德规范背道而驰:

后者需要降低速度以实施必要的道德分析,甚至可能需要基于道德考虑决定取消某些系统。

在这种情况下,如果 AI 者对 AI 发展道德表达了担忧或因为某些道德问题拒绝为公司发展做出 “贡献”,他们则可能会丢失这份工作。

因此,AI 者一直纠结于 AI 发展道德问题与自己的工作利益冲突之间。

AI 存在的道德问题

Strümke 等人在论文中指出,当前的 AI 仍然存在一些发展道德问题,其中最典型的就是歧视和偏见。

也许有人会感到迷惑与不解:就像我们潜意识中认为的那样,AI 冷漠又无情,根本没有人类的感情,何来歧视与偏见呢?

事实上,AI 技术本身确实不存在歧视与偏见,但 AI 技术的背后,需要有 AI 研究人员用来训练的量数据,尽管 AI 本身不知道歧视和偏见是何种行为,以及蕴含着何种意思,但其背后的研究人员可能会有这些想法。

因此,AI 怎么看待这个世界,在一定程度上反映了人类的想法,如果其背后的研究人员存在歧视与偏见,那设计、出的 AI 必然也存在同样的道德问题。

(来源:Pixabay)

在 AI 技术应用领域,人脸识别是 AI 被广泛应用于人类日常生活中的一种应用方向,而它恰巧会成为种族和性别偏见的一个潜在来源。

2018 年 2 月,麻理工学院(MIT)媒体实验室计算机科学家 Joy Buolamwini 发现,IBM、微软等公司的性别识别 AI 系统能以 99% 的精度从一张照片中准确识别出一个人的性别,但仅限于白人。而用于黑人女性时,这个数字会骤降至 35%。

一个最合理的解释是,AI 的 “偏见” 取决于其背后算法训练的数据,如果用于训练的数据中白人男性比黑人女性更多,那显然白人男性的识别率就会更高。后来,IBM 宣布他们已经采用了新的数据集并重新训练,微软也表示会采取措施提高准确性。

AI 中的道德准则与立法

事实上,AI 中的道德准则非常重要,因为不道德的 AI 会对个人和整个社会产生严重的影响

受近期提出的 AI 监管框架的影响,人们可能会认为,AI 的道德挑战完全可以通过立法得到解决。

但事实上,立法根本无法有效地解决这个问题:因为立法的发展速度比技术发展慢得多,这意味着立法可能在危害结果已经造成之后才会出台。

此外,立法会禁止任何可能不道德或被滥用的行为,这将会在一定程度上阻碍 AI 技术的进步,而且对小企业的影响超过对型企业的影响,会加剧用户和供应商之间已经存在的权力不平衡问题。

当然,职业道德准则并不是凭空制定的,它需要参考道德理论、社会期望以及从业者的形象。

因此,它也从来不是一成不变的,而是需要根据技术进步、社会规范和的发展以及监管制度而不断修订。

然而,尽管它们是动态的,但在任何给定的时间内,仍然有一个唯一的版本是有效的,可以保护 AI 者免受社会困境的影响,并最限度地为社会带来利益。

但直到如今,依然没有一个被广泛接受的 AI 职业道德准则存在。

(来源:Pixabay)

论文作者认为,可以归因于以下两个主要原因:

第一点,目前的分析主要接受许多给定的边界条件,而不是建议如何改变这些条件。

即使像 IEEE 这样的型机构采用了 AI 的职业规范准则,也仍然存在着量挑战。比如,到底谁是 AI 者?加入这些组织并遵守准则的动机是什么?如果存在潜在的巨收益,如何防止组织放弃准则?

更糟糕的是,几个相互竞争的组织可能会提出不同的准则,然后将该领域分割开,让人员和公众无法真正了解 AI 行业的道德规范。

此外,这些努力甚至也可能被型科技公司劫持:“支持” 某些组织发布道德准则,对内容产生重影响,本质上导致一种新的道德清洗(ethics washing)形式。

另外一点是,只要当前的举措不能有效解决者所处的社会困境,AI 的职业道德准则就不会有任何作用。

比如,已有研究工作讨论了在团队中加入学家可能会有助于合乎的 AI 。然而,如果这些学家也属于这一家公司,社会困境也同样适用于他们。

但反过来,建立统一的 AI 职业道德准则又是解决 AI 者社会困境的最佳途径。

拯救 AI 者:一种可能的解决方案

为了避免 AI 发展的道德危机,Strümke 等人提出了一个有效的应对方案。

首先,AI 的发展必须成为一个统一的职业,就像医学领域那样,必须设定相应的从业许可,该许可必须是强制性的,且适用于所有中高风险 AI 系统的人员。

AI 者将以一种前所未有的方式得到保护,被其他专业人员取代的可能性非常小,由于社会困境而被解雇的可能性就会降低,因为贪心的老板们知道,所有 AI 者都遵守相同的准则,不会为了商业利益违反准则。

因此,AI 者有权拒绝执行不道德的行为,而不用担心社会困境带来的后果。

图|a) 之前,社会对道德行为的需求和雇主产品的需求使者陷入两难境地;b) 如今,者之前面临的两难困境转变成了社会和雇主必须使用既定方法来处理的一种权衡(来源:该论文)

其次,要建立一个全国性 AI 者组织,来维护雇用 AI 者的注册登记。

这些组织,包括其所有成员,将成为 AI 职业道德准则发展的核心,并且负责维护、更新和完善这些准则。凡是不遵守职业道德准则的人都将被吊销从业执照。

我们无法否认,建立统一的道德准则是一件难事,但这是解决 AI 者社会困境的最有效途径。

一旦有了统一的职业道德规范,它将能阻止一些公司和实施不道德获利行为,从而避免 AI 给人类及社会带来的不良后果。

关于以上讨论,你怎么看?欢迎在留言区发表你的观点~

参考资料:

https://arxiv.org/abs/2107.12977

苹果无线鼠标怎么windows电脑

android文件怎么找到qq

台式电脑怎么安装macos

玉石怎么打成珠子

猫咪为什么这么难照顾

狗狗经常屁股后蹲怎么回事

宠物店展示盒怎么设计

快手全品类带货主播有哪些

青岛专业seo如何优化

标签:人工智能 麻省理工学院