请选择 进入手机版 | 继续访问电脑版
搜索
设为首页收藏本站在线充值
 找回密码
 立即注册

本文来自

0891新闻

0891新闻

订阅|关注

请添加对本版块的简短描述

精选帖子

从“不作恶”到“门就在那边”,谷歌AI伦理史

[复制链接]

280

主题

280

帖子

880

积分

高级会员

Rank: 4

积分
880
6880 ヅ彩虹鱼ヅ 发表于 2021-5-29 20:11:24
作者 | Blake Lemoine
译者 | 弯月 责编 | 欧阳姝黎
过去的六年,我有幸一直在 Google 工作。在这期间,最令我印象深刻的一件事情是,一位女性经过四年的努力,从无到有建立了 AI 伦理团队。在 Google 工作期间,我在 AI 伦理团队遇到了 Meg Mitchell(现已离职,原谷歌伦理 AI 团队负责人)。她花费了数年的时间组织和招募人员,并为 Google 在全世界树立了良好的道德形象。" 不作恶 "(Don't be evil)一直是 Google 行为准则的一部分,然而曾经有一段时间,这个口号更像是一种讽刺,但 Meg 所到之处都会将这一思想贯彻到底。


最近媒体上有很多 Google 的 AI 伦理团队的负面新闻,但我觉得这个团队的诞生以及发展都被很多人忽略了。

2015 年 2 月 2 日,我正式加入了 Google。当时还没有 AI 伦理团队。我们在构建 AI 时几乎没有任何道德上的顾虑。后来,我按照 Google 的规定,拿出 20% 的工作时间加入了 Yuliya Zabiyaka 的项目,负责检测文本中的性别偏见,在这期间内我开始接触 API 的伦理。经过一年半的工作后,我们在实习生 Brian Zhang 的帮助下,开发出了一种系统,可以消除单词嵌入中的一部分性别偏见。Brian 提醒我,当时正在举行一场 "AI 伦理马拉松 ",我们可以参加。我征求了经理的意见,并得到了批准,于是我们参加了大赛。在大赛期间,我们认识了一些斯坦福大学的学生,而且我们意识到 Google 需要一些 AI 伦理方面的专家。此外,我们还认识了 Meg Mitchell。
我本人是一名软件工程师和系统设计师。我的实习生是一名数学天才。我们俩都不是最前沿的科学家。Meg 看到了我们的计划,并同意帮助我们实现这些想法。在接下来的几周中,她告诉我们应该使用哪些数据集,以及应该尝试哪些实验。每一次,我们都会根据她的指导调整系统。短短一个月内,我们的系统从杂乱无章的代码变成了真正的科学。最后,她还帮助我们撰写了论文,并在 AI 伦理与社会大会上发表了。
通过这些工作,我意识到是 Meg 帮助我们参加了整场黑客马拉松。后来,她应邀从微软研究院转到 Google 工作,并开始开拓创新。她有一个清晰的愿景,而且很清楚自己需要完成的工作。
最终,我们去新奥尔良展示我们的发现,Meg 担任组长,带领我们走向成功。我们是一群孤零零的工程师,我们只喜欢与自己圈子的人打交道,但 Meg 会帮助我们扩大圈子。
后来,我才幡然醒悟,从那时她就开始组建 AI 伦理团队了。Meg 不仅在公司内部建立了关系,而且还与其他公司有往来。最终,我们的算法甚至包含到了 IBM 的 AI 360 工具包中。Meg 花了几个月的时间为我们团队奠定了基础。她在 Google 内部建立了一个安全的空间,我们可以从 AI 伦理的角度提出真正的挑战,而且研究人员可以提出棘手的问题。虽然这些工作很难量化,但从性质的角度来看,我不得不说这些工作非常伟大。
那次大会之后的一年内,Meg 从无到有组建了一个 AI 伦理团队。她为团队打下了坚实的基础,每个人都可以提出棘手的问题,她发现 Google 内部有一些人对这些问题很感兴趣,然后她就帮助我们每个人朝着这个方向发展。即便我只有 20% 的工作时间投入了 AI 伦理,她也花了很多时间来指导。通过 Meg 的努力和勤奋,我们终于吸引到了该领域的其顶尖人才,比如 Timnit Gebru(谷歌原 AI 资深研究员)等。
Meg 的贡献不仅限于研发。过去,Google 员工会在每周一次的 " TGIF" 会议上向公司创始人提问。我只见过 Meg 发过一次言。在 Maven 项目失败后,她曾提问:" 我们中的一些人以前就在与美国国防部合作的公司工作,后来我们跳槽来了 Google,因为我们不希望沦为战争的机器。现在您突然让我们的工作转向武器研发,这是不是有点欺骗我们的感情?" 可惜,她得到的答复是:" 如果你不喜欢,门就在那边。"
很遗憾,每当有人提出有关道德的问题时,Google 总是给出类似的答复。Google 的口号从 " 不作恶 " 变成了 " 如果你不喜欢,门就在那边 "。Meredith 是 AI 伦理学领域的顶级研究科学家,她也得到了同样的答复。Claire 曾是 Google 内部的发言代表,也遭遇了同等对待。商业利益不断与道德价值观发生冲突,一次又一次,每当有人讲真话,就会吃到闭门羹。直到 Larry 和 Sergey 亲自出面解决 Andy Rubin 的丑闻之前((Andriod 操作系统创始人、谷歌前高管安迪 · 鲁宾 ( Andy Rubin ) 曾是谷歌性骚扰丑闻的核心人物)),Google 内部一直是言路闭塞。

2019 年,我非常荣幸地在 Google 的 ML 论坛上,与 Timnit Gebru 进行了一场激烈的辩论。当时,AI 伦理团队赢得了 Google 一些团队的尊敬,但有些人则仍然持嘲笑的态度。我们双方在一个重要主题上持完全相反的立场:是不是每位 AI 研究人员和从业人员都应该承担起高水准的 AI 道德操守?当时我持否定立场。我的观点是,道德本身就是一门学科,要求每位 AI 从业人员都必须遵守道德,无异于要求业余爱好者从事专家工作。Timnit 的立场是,每一位部署 AI 系统的工作人员都应对其部署承担起道德上的责任。我们来回较量了几个回合,两人都言之有据,直到我说我们不能让情商不够的人员来担当 AI 伦理的工作。她的回答是:" 所以,你的意思是说应该由黑人妇女对此负责。"(因为 AI 领域的主导者大多是情商不够成熟的白人和亚裔男人。)
当时,我知道她是对的,而我是错的。如果你对人类的互动没有丝毫兴趣,只想专心研究微积分,那么恭喜,你可以成为 AI 领域的后起之秀。你的主要工作就是超越各种基准,并提出高难的公式,你可以做得非常出色。Timnit 的话引起了我的共鸣,因为我曾与 Meg 参加过一次会议,我观看了一位工程师在警察档案系统的一些发现。加州大学洛杉矶分校的一位研究人员展示了一个系统,该系统可以确定某次是否行动是否与 " 黑帮有关 ",而警察局可以据此派遣 " 适当的武装力量 "。有几个人询问了有关他的系统所用数据集的偏见,而他的回答完全是套路。于是我问他:" 暂时抛开刚才的那些问题,假设你的系统可以完美地预测出某次任务是否与黑帮有关。那么,你是否担心你提供给警察的信息优势会导致黑帮加强警戒和武装力量,从而让情况变得更糟?" 他的回答是:" 老兄,我只是一名工程师。" 我只希望他不要成为重蹈 Werner von Braun 的覆辙(Werner von Braun:德国 / 美国火箭专家,二十世纪航天事业的先驱之一,曾是纳粹德国著名的 V2 火箭的总设计师)。
Timit 通过 Werner von Braun 的事迹说服了我,我发现自己错了。我所做的只是给工程师通行证。"Werner von Braun 曾说过,当火箭升起时,谁知道它们会落到哪里?那不是我的管辖领域。"
她说服了我,通往 AI 伦理的最佳途径是教会该领域的白人和亚裔男人提高情商。确保 AI 伦理不只是少数人(大多数是女性和有色人种)的工作。这种模式只会导致一小撮人辛苦地努力为其他人善后。
打从那时开始,我终于明白了 Meg 与 AI 伦理团队的意义。我与他们进行了互动,就好像他们是一群提供咨询服务的专家。实际上,Meg 构建的模型应该普及到每一个 AI 团队,而且这种道德观应该成为技术发展的重心。不幸的是,许多人都知道,这个故事并没有一个圆满的结局。

其实,论文 " 随机鹦鹉 "(原标题:On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)并没有什么特别,论文本身很好,而且各个方面都很普通。只不过,该论文研究了一项新兴技术,并针对违反 AI 伦理的主要问题进行了风险分析。他们的论文通过了 Google 内部审核流程,后来又通过了必要的外部审核程序才发布了。但是,Google 要求他们撤回文件,或者删除他们的名字。实际上,这种情况并不少见,我本人也有非常相似的经历。
2018 年,我撰写了一篇有关 AI 监管的论文。很幸运,我与一位在 AIES 会议上遇到的律师一起撰写了全文。我们进行了内部审核,得到了批准,然后将论文提交给了大会,但 Google 要求我们撤回论文,或从中删除 Google 员工的姓名,这与 Meg 和 Timnit 遇到的情况几乎相同。然而,之后事情的发展就完全不同了。当时,我问了原因,他们派了一个特定的人员与我会面,向我解释了为什么他们认为这篇论文不妥,并给我提供了一些为社区做贡献的其他方法。我感觉自己得到了尊重,有人肯听而且很重视我的意见。于是,我撤回了论文,并且按照他们的指导提交了联合白皮书。
然而,Timnit 遭到了无情地拒绝。她也提出了与我类似的请求,但只得到一个答复:" 不行 "。她说自己遭到了不公正的待遇,而且她根本没有得到机会与制止这项研究的 Google 高管讨论此事。后来,她发邮件希望他们停止 DEI 项目相关工作,然后就被当场解雇了。我相信,坚持撤稿的人确实有理由相信这篇论文 " 不可发表 ",除非其中引用了可以降低风险的技术。关于此次高管的审查,仍然有很多疑问。不过,我们都明白了一件事,坚持要求退稿的人不是 AI 伦理专家。
从那以后,AI 伦理团队的成员就像多米诺骨牌一样纷纷离职了。Meg 是 Timnit 聘请来的,她见证了每一个歧视。她曾试图收集证据,但后来也因此被开除了。在 Timnit 和 Meg 被解雇之后,其他几位伦理专家也都纷纷辞职了。剩下的人都陷入了沉默,因为他们担心如果支持 Timnit 和 Meg 的话,自己也会被开除。
在 Meg Mitchell 加入 Google 之前,Google 还没有 AI 伦理团队。当时只有一小撮人关心 AI 伦理,还有一群低情商的人,他们都不想因此而阻碍了 AI 的前进之路。Meg 建立了一个 AI 伦理团队,并招募了该领域最优秀的人才。她说服了其他人,Google 可以成为从事此类工作的避风港。她还与 Google 内部的多个产品团队建立了信任,证明了她和她的同事可以为他们的产品增加价值。然而,在一天之内,Google 决定冒险摧毁一切努力。

希望有一天,Google 的 AI 伦理团队能够像 Meg 建立的那般强大。不幸的是,如今我们的心仍在流血,因为我们无法再信任 Google 的领导团队能够做出正确的决定。我已经与多位 AI 伦理研究人员和工程师针对他们的去留进行了反复的交谈。许多人仍在考虑之中,包括我自己在内。我们所有人留下来的原因都一样:如果我们辞职,那么 Meg 的一切努力都将付之东流。如果我们所有人都走了,谁来做这项工作?
也许 Google 将继续创建能够改变这个世界的 AI,但是没有道德专业知识的约束,无法避免将来可能出现的巨大伤害。如今情况已有所不同,但希望过去四年我们苦心建立的联系和专业知识足以抵御这场风暴。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则





0891拉萨网X

0511.net镇江网 分享生活 温暖你我

0511.net镇江网|镇江大小事,尽在镇江网! 镇江网由镇江亿速网络科技有限公司组建。镇江网汇集了镇江本地新闻信息,视频专题、国内外新闻、民生资讯、社会新闻、镇江论坛等。镇江网是镇江地区最具影响力的综合性门户网站,是镇江人浏览本地新闻的首选网站。...

点击查看详情 
快速回复 返回顶部 返回列表
友情链接