大型科技公司一直在裁减致力于评估部署AI相关伦理问题的团队员工,这使人们对这项新技术的安全性更加担忧。
近日,据媒体报道,微软、Meta、谷歌、亚马逊和推特等公司都裁减了其“负责任的人工智能团队”(Responsible AI)的成员,这些团队负责为使用AI的消费产品提供安全建议。
被裁减的员工大概有几十人,在因整个科技行业低迷而被裁掉的数万名员工中,这只是冰山一角。但是在AI高速发展的当下,这么多相关员工被解雇依然令业内人士感到震惊和不解。
(相关资料图)
这些公司表示,他们将继续致力于推出安全的AI产品。但专家认为,裁员仍令人担忧,因为就在全球开始测试大型AI工具之际,对这项技术的潜在滥用也在渐渐暴露出来。随着OpenAI推出的聊天机器人ChatGPT在全球大热,他们的担忧也越来越强烈。
Alphabet 旗下 DeepMind 的前伦理和政策研究员、研究机构 Ada Lovelace Institute 副主任 Andrew Strait 向媒体表示:
微软、推特、亚马逊等公司相继行动令人震惊的是,在比以往任何时候都需要这样的团队的时候,有这么多相关员工被解雇。
今年1月,在微软的万人级别大裁员行动中,该公司解散了其所有的伦理道德与社会团队。微软表示,此次裁员不到10个人,仍有数百人在AI办公室工作。
微软首席负责人工智能官 Natasha Crampton 称:
我们已经大大增加了我们负责的AI工作,并努力在全公司范围内将其制度化。
在马斯克的领导下,推特裁掉了超过一半的员工,其中包括一个小型的道德AI团队。该团队过去的工作包括修正推特算法中的偏差,例如该算法在选择裁剪社交网络上的图像时似乎更倾向于留下白人的面孔。
据媒体援引知情人士透露,亚马逊旗下的流媒体平台 Twitch 上周也裁减了其道德AI团队,要求所有从事AI产品开发的团队都要对与AI偏见相关的问题负责。
今年9月,Meta解散了其创新团队,该团队由约20名工程师和伦理学家组成,负责评估 Instagram 和 Facebook 上的公民权利和道德规范。Facebook前AI伦理研究员 Josh Simons 向媒体表示:
AI团队是大型科技公司唯一的内部堡垒,必须确保构建AI系统的工程师考虑到受AI系统影响的人和社区。
它们被废除的速度让大型科技公司的算法受制于广告需求,损害了儿童、弱势群体和我们民主的福祉。
另据知情人士透露,作为 Alphabet 整体裁员计划的一部分,谷歌一些负责AI道德监管的员工也被解雇了。谷歌没有具体说明有多少员工被削减,但表示AI仍是公司的首要任务,“我们将继续投资于这些团队”。
此前,谷歌内部已经出现过关于AI技术的发展、影响和安全性之间的紧张关系。两位AI伦理研究负责人 Timnit Gebru 和 Margaret Mitchell 在与该公司爆发了一场激烈争吵后,分别于2020年和2021年离职。
Strait 表示:
邪恶的AI?当负责任的人工智能实践在竞争或推动市场时,却被排除在外,这是有问题的。
而不幸的是,我现在看到的正是这种情况。
一个重要担忧是,ChatGPT等聊天机器人的大型语言模型会“创造幻觉”,即它们会做出虚假陈述并将其包装成事实,可用于传播虚假信息和考试作弊等目的。另外,AI自身潜在的高速进化也让企业家和科学家们“警铃大作”。
华尔街见闻此前提及,3月22日,生命未来研究所向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。
而截止目前,图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。
伦敦国王学院AI研究所主任 Michael Luck 向媒体表示:
我们开始看到的是,我们无法完全预测这些新技术将会发生的所有事情,关键是我们要对它们给予一定的关注。
AI内部伦理团队的角色也受到了审查,因为有议论称,人类对算法的任何干预是否应该增加透明度,听取公众和监管机构的意见。
2020年,Meta旗下的 Instagram 成立了一个团队“IG Equity”,以解决其平台上的算法正义问题。该团队希望对 Instagram 的算法进行调整,以加强对种族的讨论,突出边缘化人群的形象。
Simons 认为,相关工程师们能够干预并改变这些制度和偏见,并探索能够促进公平的技术干预措施,但他们不应该决定社会应该如何被塑造。
关键词: