《时代》人工智能百人榜(三):塑造者

OB电竞·(中国)app下载/ios/安卓/手机版(OB SPORTS)

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:人工智能的独特之处既最令人恐惧也最值得庆祝——一些技能堪比我们人类,然后还能更进一步,做到人类做不到的事情。模仿人类行为已成为人工智能的决定性特征。然而,机器学习和大语言模型的每一次进步背后实际上都是人——这里面既有经常被忽视的,让大语言模型使用起来更安全的人类劳动,又有就在什么时候以及如何最好地使用这项技术方面做出关键决定的个人。本文综合了各方推荐和建议,将数百项提名汇总到一起,最终形成了这份百人榜名单。从很多方面来说,这 100 人构成了推动人工智能发展的关系网络与权力中心。他们是竞争对手、监管者、科学家、艺术家、倡导者、以及高管——属于既互相竞争又共同合作的人类,他们的洞察力、欲望与缺陷将塑造一项影响力与日俱增的技术的发展方向。文章来自编译,篇幅关系,我们分四部分刊出,此为第三部分。

当拜登政府去年被赋予应对快速发展的生成式人工智能的任务时,阿隆德拉·尼尔森(Alondra Nelson)率先采取了行动。去年10月发布的《人工智能权利法案蓝图》(AI Bill of Rights)就是在身为白宫科技政策办公室主任的尼尔森的管理下出台的。这项法案没有法律约束力,也缺乏强制执行手段,但它为人工智能开发者以及政策制定者确立了一个框架,她希望两者都能遵循这个框架,从而确保人工智能成为造福公众的力量。法案写道:“在美国创新力量的推动下,这些工具具备重塑社会方方面面,并让每个人的生活变得更美好的的潜力”。尼尔森希望通过这个框架能促使美国国会尽快起草和通过人工智能立法。

尼尔森还希望这份73页的文件能促使国会尽快起草和通过人工智能立法。她说:“情况已经非常紧迫。不久前,因为没能及时采取行动,社交媒体的监管已经给过我们警示。”她希望美国国会能吸取教训,在人工智能监管的问题上不要再重蹈覆辙。

进入白宫前的尼尔森拥有一份出色的履历:哥伦比亚大学及耶鲁大学教授、非营利性的社会科学研究委员会(Social Science Research Council)主席兼首席执行官,多本关于遗传学、种族与医疗歧视的书籍作者。她对这份人工智能蓝图同样严谨,十分注重细节,她和她的团队在一年的时间里曾与行业参与者、学者、高中生以及教师进行过广泛交谈。通过这些广泛的对话,她为行业参与者确定了一系列最佳实践,包括红队演练(red teaming,在公开部署人工智能系统之前对其进行压力测试)以及持续审计等。尼尔森说,这些最佳实践都是为了确保人工智能真正为公众服务,而不仅仅是为饥渴的科技行业带来福音。

好莱坞最近正在发起罢工,部分是因为人工智能将来有可能取代编剧与演员在电影制作当中所扮演的角色。类似的斗争可能还会在许多行业展开。但尼尔森警告说,大家对机器会抢走人类工作的那些最严重的担忧往往被夸大了。她以放射学为例,2016 年,人工智能先驱杰弗里·辛顿( Geoffrey Hinton )曾预测放射科会在五年内被人工智能取代。但现在,世界各地都存在放射科的劳动力短缺问题。

尼尔森说:“每每出现这类宣言,就是需要思考我们想要什么样的社会的时候。我经常反对用既成事实的方法来思考工作和人工智能之间的关系。我们是可以采取一些措施来降低其破坏性的。”

尼尔森已于今年二月离开白宫,但仍担任多个有影响力的职位。作为美国进步中心(Center for American Progress)的研究员,她为美国各州议员和国会议员提供有关人工智能政策的建议。作为高等研究院(Institute for Advanced Study)人工智能工作组的成员,她在行业、政策制定者和民间社会之间发挥联络作用。

尼尔森表示,鉴于欧美等地区即将举行选举,人工智能的监管问题变得更加紧迫。人工智能已经被用来针对政客的深度伪造视频,并且被游说团体当作武器更大规模地传播谎言。她警告说: “虚假信息与错误信息会会变得更加严重。我们必须系好安全带,尽量减轻其中的一些问题。”

作为一名前科技企业家与投资者,伊恩·霍加斯 (Ian Hogarth) 靠押注机器学习公司发家致富。他投资了 50 多家人工智能公司,并在过去六年每年都会与人合作发布“人工智能现状”报告。 “我与建立人工智能公司的人呆在一起让我逐渐了解了世界的发展方向,但公众却不太知情。”

今年 4 月,霍加斯为《金融时报》撰写的一篇文章广为流传。他在文中指出,企业竞相开发“上帝般的”人工智能会带来风险,在最坏的情况下,“可能会导致人类被淘汰或毁灭”。两个月后,英国政府宣布任命这位 41 岁的英国人为英国新的人工智能安全计划(现在叫做前沿人工智能工作组)的负责人。霍加斯表示,这项对人工智能安全的 1 亿英镑投资是英国更广泛计划的一部分,旨在将自己打造成全球人工智能使用规范以及人工智能系统监管的领导者。今年 11 月,该国将举办首届人工智能峰会。届时国际政策的制定者、顶级企业的首席执行官以及安全研究人员将济济一堂。

霍加斯指导下的英国人工智能特别工作组的目标是在应该政府内部建立起目前只能在产业界进行的安全研究能力。霍加斯表示,该工作组是“全球范围内在国家层面解决人工智能安全问题最重要的努力。”

霍加斯表示,该工作组将优先考虑近期风险的安全研究。 他举例说:“大家投入了大量的资本和精力来制造更强大的编码工具。这些工具会增强开发出各种网络攻击的潜力。这个问题的风险正日益增加,也是我们要研究的问题。”它还表示,考虑到人工智能让设计和合成危险病原体变得更容易的风险,生物安全是另一个重点领域。

虽然 1 亿英镑听起来不少,但与领先的人工智能公司的预算相比,还是小巫见大巫。 今年4月,OpenAI 在最新一轮融资中又筹集了 3 亿美元,令其总估值达到 287 亿美元。 2022 年,谷歌在研发上的支出为 395 亿美元。全球领先的机器学习研究人员的年薪可达数百万美元。霍加斯承认,在训练“基础”人工智能模型的能力方面,英国不可能与科技巨头竞争——“光是一次训练就得花费 1 亿美元”——但他相信,这样一笔政府预算仍有可能给安全研究做出有意义的贡献, 因为这类研究的“资本密集程度要低得多”。

安全研究仍然主要在人工智能公司内部进行的另一个原因,是人工智能实验室往往会保护其最强大模型的机密“权重”与训练数据集,部分是因为这些属于很容易复制的商业秘密,但也是因为确实担心扩散造成的危险。为了开展与行业研究人员相同的水准的安全工作,霍加斯的工作组需要确保能安全访问那些数据。但目前还不清楚该工作组能否拿到。今年 6 月,英国首相里希·苏纳克宣布, OpenAI、谷歌 DeepMind 以及 Anthropic这三家全球领先的人工智能实验室已承诺让英国“尽早或优先访问”其模型,以用于安全研究目的。但两个月后霍加斯在接受采访时拒绝透露英国政府已获得了何种类型的访问权限(如果有的话)的详细信息。

不过,霍加斯表示,在吸引人才方面,预算以及大型科技公司的竞争都不是障碍。 他说:“有一个研究人员群体一直在等待提供此类公共服务的机会”。值得注意的是,霍加斯承担这项工作是不领薪水的,因为他认为这是一项“重要的公共服务”。霍加斯表示,较低的工资并没有阻止许多出色的机器学习研究人员加入工作组。

大多数人把这波人工智能炒作周期的开始日期定为 2022 年底,那是 OpenAI 发布 ChatGPT 的日子。但在梅雷迪思·惠特克 (Meredith Whittaker) 看了,这一切要从 2013 年左右开始算起。那时候,她还在谷歌工作,得以从内部见证了公司将重心转向机器学习、收购 DeepMind 并为工程师提供重新培训的课程。惠特克控制着一大笔钱,有人向建议她建立一个机器学习系统来预测未来的种族灭绝。就在那一刻,她得到了一个启示: “我当时在想,你该怎么定义种族灭绝?你该怎么告诉系统种族灭绝是什么样的?”她想象用草率的数据喂给这样一个所谓的“智能”人工智能可能会带来的危害。 “我当时想,一旦系统产生影响时会发生什么?”

那时候正值爱德华·斯诺登(Edward Snowden)披露美国政府在收集新兴的科技公司产生的大量互联网使用数据,这让惠特克掉进了一个兔子洞。她开始学习人工智能,并很快意识到这个东西依赖于海量的数据和计算能力,这些只有最富有的科技公司才能获得。她说:“在某一刻我认识到,监控商业模式的赢家通过资源整合,把数据密集型、计算密集型的技术重新包装成‘智能’,这样他们就可以进入任何想进入的市场”。

在谷歌 13 年职业生涯即将结束时,惠特克帮助领导了大规模的内部抗议活动,反对涉嫌工作场所性骚扰,以及谷歌为美国军方提供的人工智能工作。尽管谷歌在这两个问题上都同意了员工的要求,但惠特克还是在 2019 年辞职了,她说该公司对她的行动主义进行了报复,并迫使她放弃与人工智能道德相关的责任。她后来到美国联邦贸易委员会任职,为主席莉娜·汗(Lina Khan)就企业权力集中与人工智能危害之间的联系提供咨询。 2022 年,她成为了负责监管加密的私密聊天应用 Signal的基金会主席。

这项工作不是你想象的那个样子,其实它与人工智能世界关系很大。科技公司(通常在未经其创建者同意的情况下)从互联网上抓取数十亿张图像和文本,靠收集的大量数据来训练自己的人工智能系统。这可能包括你的个人资料图片、餐厅评论、推文或对的编辑。还包括数千名出版作家的书籍以及无数专业与业余艺术家的作品。 惠特克说:“数亿人的意义建构、创造性的劳动与工作被剥夺、聚合,并用来创建破坏了我们生计以及我们为彼此建立的相互理解的生态体系的系统,这根本是不道德的”。她补充道,今天的人工智能“依赖于各种免费的公共劳动力,数十亿小时的时间现在集中在少数公司手中,然后这些公司又以某种方式将其洗白为‘智能’,这进一步加剧了信息和权力的不对称。”

Signal 的加密聊天服务可以防止文本和数据被预期接收者以外的任何人拦截,这是朝着替代系统迈出的一小步,但具有象征意义。惠特克表示:“隐私问题与人工智能问题的维恩图是一个圆圈。Signal 正在科技行业生态体系内反对这个体系。它试图做出某个破坏数据管道的东西。”

像谷歌负责研究、技术与社会的高级副总裁詹姆斯·马尼卡(James Manyika)那样拥有广泛的人脉网络或人工智能经验的人工智能领导者很少。这位牛津大学人工智能博士曾担任奥巴马政府的技术顾问,并且是美国宇航局喷气推进实验室的访问科学家,麦肯锡的顾问。现在,58 岁的马尼卡还担任着负责制定美国人工智能监管战略的美国国家人工智能咨询委员会(National AI Advisory Committee)的副主席。

马尼卡表示:“我的职业生涯以及我所做的各种不同的事情有一条主题线,一方面是如何利用技术的可能性来造福世界各地从东帕洛阿尔托到津巴布韦的人们,但同时,也要认真思考这些技术对社会的影响如何。”

在谷歌,马尼卡对公司的人工智能研究和产品拥有广泛权限,涉及到气候变化、医疗保健、娱乐等领域。其中一个人工智能项目是追踪从美国加州到澳大利亚的野火。另一个预测脆弱地区洪水风险的Flood Hub,今年该项目已扩大到为80个国家和数亿人提供服务。

尽管马尼卡对人工智能的能力充满热情,但他也对存在的风险提出了警告。今年5月,人工智能安全中心(Center for AI Safety)就人工智能的风险发明了声明,称人类存在“因人工智能而灭绝”的可能性。马尼卡也签署了这项声明,他表示,自己在罗德西亚(现在的津巴布韦)类似种族隔离的制度下长大的经历对他如何对待人工智能以及确定应该防止哪些情况产生了“深远的影响”。

马尼卡表示,他的首要任务是发展产品的安全性,并对其局限性保持透明——即即便这意味着谷歌有时候会落后于其他人工智能竞争对手。 他说:“有人走得早一点,有人走得晚一点,有人会走得快一点。但对我来说,唯一要比的是把事情做对。”

今年夏天,杰克·克拉克 (Jack Clark) 在Anthropic 的几位同事的陪同下,前往旧金山的一家电影院观看《奥本海默》。 “在他们谈论是否要用炸弹点燃气氛的场景中,有很多我称之为紧张的笑声,”克拉克说。

克拉克是这家全球领先的人工智能实验室之一的联合创始人,同时也是公司政策的负责人,他正在努力解决人工智能会如何颠覆地缘政治力量和人类机构以及如何应对的问题。在联合国安理会的演讲以及与全球领导人的讨论中,克拉克主张各国政府应剥夺目前人工智能公司手上拥有的大部分决策权,并交到最终对政府负责的机构手中。他说,之前的努力(比如 Meta 的 Facebook 监督委员会)因为缺乏行动力而失败了。 “在我看来,感觉就像你需要的[监督机构]是你害怕的东西。基本上,这意味着你需要让政府形成真正的硬能力。”

克里斯托弗·诺兰 (Christopher Nolan) 的那部传记电影讲述了自身存在缺陷的制造者罗伯特·奥本海默 (J. Robert Oppenheimer)。战后他对军备控制方面付出的努力以失败告终,这一点引起了克拉克的共鸣。他说: “《奥本海默》这部电影我真正喜欢的地方在于它揭示了政治内斗的规模之庞大。技术专家花了很多时间去思考这个东西的设计和开发,之后大家之所以愿意听你的,是因为你是建造者。但《奥本海默》给人的其中一个教训是:你是可以造出,但你可能会输掉更大的政治游戏。其后果可能是别人会以你未必喜欢的疯狂方式使用。”

未来几年,不管全球各地出现什么样的人工智能监管政策,安娜·马坎朱 (Anna Makanju) 很有可能都会在其中留下自己的印记。 47 岁的马坎朱是 OpenAI 负责全球事务副总裁。这家公司已经是人工智能领域的领导者,并自我定位为业界善意监管的最重要推动者之一。在过去一年的时间里,马坎朱与 OpenAI 首席执行官山姆·阿尔特曼(Sam Altman)一直在世界各地旅行,与领导人会面,并就如何应对这项新兴技术提供建议。马坎朱说:“既要确保创新仍然可行,又要有确保创新顺利进行所需的护栏,每个人都在努力实现这种平衡。”

2021 年 9 月加入 OpenAI的马坎朱拥有丰富的政策经验可供借鉴。她曾在奥巴马政府期间担任副总统乔·拜登的政策顾问,还曾在联合国、北约和 Facebook 工作过。尽管 OpenAI 声称支持给人工智能领域的护栏,但关于 OpenAI 对监管的遵从意愿如何的问题仍然存在。马坎朱在接受采访时回应了这些批评,并谈到了前进的道路。

马坎朱:其实大家对这个问题的想法很相似,这一点很令人吃惊。基本上大家对人工智能带来的社会利益最大化并确保有护栏都感到十分兴奋。不过对于这意味着什么或应该怎么做大家有不同的看法。

科技与加密货币领域的很多领导者都在努力讨好政府,好让他们基本上能够进行自我监管。为什么我们应该相信 OpenAI 与阿尔特曼呼吁进行监管是出于真心的?

让监管确保这项技术真正惠及每个人是我们履行使命的重要组成部分。我们的做法,以及我在约两年前接受这份工作时的想法,就是尽可能地开展协作。

山姆·阿尔特曼向国会作证也许是最明显的例子,但我们从一开始就是这样做的。我们一直在向监管机构与政策制定者表示:“这就是我们所认为的技术的发展方向。我们真心希望成为帮助你尽可能了解这项技术的合作伙伴,从而帮助为这项技术建立规则和基础设施,确保人工智能让所有人都能受益。”

对于整个行业的许多特定风险以及常见的安全干预措施,目前我们甚至还缺乏共同语言。所有的实验室都在做这方面事情。对于安全最佳实践,政策制定者要求我们采用行业级的做法,而我们确实在利用最好的技术专业知识来确定什么是最佳方法。

2017 年,奥马尔·阿尔·奥拉马 (Omar Al Olama) 走马上任,成为全球第一位负责人工智能的部长。这位33 岁的阿联酋人工智能国务大臣表示:“得有人从整体得视角去审视人工智能及其在政府的应用,并确保不同机构之间至少存在某种形式的协调。”

这个领域最有影响力的玩家——美国、欧盟和中国——尚未注意到这个来自海湾地区得榜样。人工智能通常属于数字或科技部长的职权范围(欧盟就是这样),到目前为止,全球关于人工智能及其监管的对话一直都是支离破碎的。尽管阿尔·奥拉马表示,采用不同的做法对于避免陷入群体思维是“健康的”,但各国必须愿意在一个包容性的多边论坛同努力。

奥拉马:据我们所知,这不是什么新技术,它已经有 50 多年的历史。但社交媒体、自动驾驶汽车的出现,以及能够完成曾经看似不可能的事情,这些向我们展示了这项技术的发展轨迹。阿联酋的领导层相信,我们不需要等着这项技术作为其他人决策的副产品来到我们身边,然后对本质上陌生的东西做出反应,而是可以成为准备最充分的国家,去迎接人工智能的积极面与消极面。这就是设立这个角色的原因。

一开始我认为阿联酋可以做很多事情,而且可以自己做。不过,时至今日,我 100% 确定你没法在孤岛上管理这项技术。你不能自己一个人做。你必须跟其他人一起做。我们必须用一种非政治性的、真正全球性的方式来做这件事。因此,需要签署一项把所有人纳入在内的全球条约。

人工智能的主要参与者在监管方面采取了不同的方法。你对此有何看法?你认为阿联酋扮演了什么样的角色?

事实上,我认为大家采取不同做法是非常健康的。欧盟走自己的路,中国走自己的路,美国走自己路,这是非常健康的。因为我觉得没人第一次就能做对。但是,如果我们有不同的模式,我们可以从中抽取一些元素并模仿有效的做法,同时确保我们可以研究所有不同的模式,而不是陷入到群体思维,朝着一个方向发展。

阿联酋处理和管理人工智能的模式也很有趣:我们知道自己的独特性。我们是一个中等规模的国家;我们投资人工智能已经有好几年了。所以我们在这个领域比很多其他国家是领先的。我们没法跟中国和美国竞争;我认为我们永远都不会有跟别人争的想法。我们的工作首先是成为人工智能的推动者,并利用我们的优势来支持所有参与者。因此,当我们的政策制定以及政府很灵活并且能够迅速采取行动时,我们希望确保这一点,也就是只要有人想在监管环境下部署人工智能时,都能先想到阿联酋,之后,我们还可以将自己的发现输出到全世界的其他地方。因此,从这个意义上说,我们在这项技术方面与那些大玩家形成了互补。

人工智能不是一种技术,每种技术都有不同的用途。自动驾驶汽车与大语言模型有很大不同。在治理人工智能或展望人工智能的未来时,第一个问题是大家实际上把它们全部看作了一项技术,并认为我们对所有问题的答案都是一样的。

我们需要确定的第二样东西是人工智能的颠覆能力——不管是积极的还是消极的。这种能力因国家而异。比方说,阿联酋推自动驾驶汽车会带来积极影响而不是消极影响,因为我们的基础设施非常先进而且是新的。相比之下,比方说,一个拥有超过 100 万卡车司机且基础设施尚未准备好承载此类技术的国家的情况则不一样。

与此同时,对于即将举行选举的国家来说,传播虚假信息的大语言模型和技术会是我们首先组要解决的问题。第一,我们需要设置一定的护栏。我们还需要就这方面的研究进行全球对话,并进行全球性的脉搏检查,这项研究正在进行中,而且需要是非政治性的。因此,中国科学家需要与美国科学家交谈,美国科学家需要与阿联酋科学家交谈。它需要是一个类似于联合国的机构,我们要了解边界在哪里以及能力怎样。因为我们今天面临的一个问题是,与政府和善意的参与者相比,恶意的参与者总是更加敏捷,总是处在最前沿。

人工智能技术的影响太深远了,以至于我们其实可以以史为鉴来理解为什么我们需要为其设立一个部门。人类过去靠煤炭和木火获取能源时还没有能源部。等到确保能源的生产和能源的分配变得至关重要时,各国政府都任命了自己的能源部长。电信领域也发生了同样的情况。我确信人工智能也将一样。

去年,视觉艺术家凯莉·麦克南 (Kelly McKernan) 开始在 Twitter 上看到一些看似自己艺术作品但其实不是的图像。 麦克南说:“我感觉那些就好像是我脑海里面未尚未完成的草图,我甚至都还没画出来。这确实很令人不安。”

37 岁的麦克南很快发现,全球各地的人都在用自己的名字作为关键词来提示人工智能的文本生成图像模型,比方说 Midjourney 以及 Stable Diffusion。这些工具可以马上创作出麦克南那种梦幻、科幻风格的图像。光是在 Midjourney 的Discord 服务器上,就有超过 11000 张按照麦克南风格创作的图像 ——但所有这些都艺术家未经本人同意或输入。

随着人工智能图像生成工具的流行,麦克南还发现自己的自由职业机会正在慢慢消失。此前,麦克南每个月都能拿得到几分零工,比如为自出版作家创作书籍封面,或为纳什维尔当地音乐家创作专辑封面。但这些机会正在枯竭,而收入似乎流向了利用艺术家的创作训练模型的人工智能公司那里。艺术家表示:“有人不用雇我,而是打开程序,只用我的名字就能模仿出足够接近、足够好的东西,而价格却只用一点点,知道这个会让人抓狂。”

于是,今年一月,麦克南与艺术家莎拉·安德森 (Sarah Andersen) 以及卡拉·奥尔蒂斯 (Karla Ortiz) 一起加入了一场针对 Midjourney、Stability AI 与 DeviantArt 的集体诉讼。艺术家们指控后者侵犯版权并要求为自己的作品付费。他们也不是唯一对人工智能这个新领域发起法律斗争的人。 Getty Images 也起诉 Stable Diffusion 的“侵权”。 萨拉·斯尔夫曼(Sarah Silverman) 率先对 ChatGPT 开发商 OpenAI 提起诉讼,称其在未经同意、标注或补偿的情况下用她的书来训练人工智能模型。控辩双方在法庭上将面临激烈斗争,一名法官已经对麦克南案的合理性表示怀疑。但如果他们获胜的话,结果可能对保护整个创意阶层遭受灭顶之灾至关重要。

麦克南说:“这些公司同无偿使用我们的劳动获取了巨额利润。概念艺术家、插画家、平面设计师、库存艺术家被裁员,被那些声称要转向人工智能的公司解雇。这是一场生存危机。”

2001 年至 2011 年间,埃里克·施密特 (Eric Schmidt) 曾担任谷歌的首席执行官,过去这十年里,作为硅谷与行动迟缓的美国国家安全界之间的联络人,他一直推动要提高人工智能研发的紧迫性。他是聚焦科技的慈善项目Schmidt Futures的联合创始人,最近还担任了美国国家人工智能安全委员会(National Security Commission on Artificial Intelligence)的主席。

施密特认为美国在与中国的人工智能竞赛岁处于领先但地位并不稳定,并介绍了他自己的生活当中是使用人工智能工具的,还解释了我们尚未未这项技术改变战争、科学、政治与社会本身做好准备的原因。

埃里克·施密特:我认为科技行业很擅长预测宏大主题,但很不擅长准确预测那是如何发生的。问题是,接下来的发现是什么?我曾经说过,[通用智能]可以在 20 年内实现。现在已经过了10年。现在我所看到的创新水平比我这辈子见过的都要强几个数量级。我经历过分时、 PC 行业、web革命、Unix 革命、Linux、Facebook 以及 Google。但这个的增长速度比所有这些的增长总和还要快。

我认为 2024 年的选举会非常艰难。社交媒体公司还没有做好准备。假视频、假图片、语音播报泛滥——我觉得我们还没有做好准备。解决方案很简单。你需要知道用户是谁,内容来自哪里。然后就可以弄清楚谁往平台塞了这些可怕的东西。

我必须给拜登总统写一份关于人工智能的备忘录,但我写得不太好。所以我先写份草稿,然后把它发给 GPT-4,让GPT-4 重写。我的提示是“重写这份备忘录,不要改变里面的数学。”我意识到我想要一个能让我所做的一切都变得更好的系统:如果我想唱歌,它能让我唱得更好;如果我想写东西,它能让我写得更好;如果我想选择读点什么或其他娱乐方式,我希望它能给出推荐。我想要一个非常成熟的个人数字伴侣,但必须是由我控制的。比方说,收到冗长的备忘录后,我希望它能对内容做出基本总结:“这部分是重复的,你已经读过这个,你不需要再读一遍。”这个对我来说价值相当高……只用让我把正在做的事情做得更好。

三年来第第一次来到中国,我的判断是在这些技术上目前他们落后美国两到三年。他们已经表明了要追赶上来的强烈目标。如果我们停止奔跑,他们就会追上来,然后我们就会非常不高兴。

作为欧洲的数字沙皇,玛格丽特·维斯塔格(Margrethe Vestager)享有盛誉。对于全球最大科技巨头违反反垄断规则的行为,这位 55 岁的丹麦人罕见地表现出要进行调查甚至罚款的意愿。现在,她把目光投向了一个更大的挑战:保护欧洲的价值观免受人工智能的风险。

在维斯塔格看来,人工智能具有巨大潜力,可以释放新一轮生产力浪潮,并为气候变化和医疗保健等社会挑战提供解决方案。但也存在重大风险,尤其是人工智能驱动的虚假信息的兴起可能会导致人们“完全不再相信任何事情。这并不是说他们会相信一些令人愤慨或虚假的事情。更重要的是:你不再相信你所看到的东西,因为它可能是假的。”

为此,过去两年,维斯塔格牵头制定了《欧盟人工智能法案》。这项法案如果获得通过的话,将成为全球首部全面的人工智能法律。维斯塔格表示,欧盟提议的规则将禁止在公共场合将人工智能用于有争议的用途,比方说社会评分以及面部识别,此举是遵循“基于风险的方法”,确保其使用符合欧洲的价值观,同时仍鼓励创新。

虽然欧盟希望在今年年底前就立法达成最终协议,但维斯塔格表示,根本而言人工智能监管属于全球事务,并呼吁制定“国际行为准则”以跟上其快速发展的步伐。欧盟的人工智能法也许是维斯塔格对人工智能做出的最后贡献。 目前她正在集中精力竞选欧洲投资银行主席。如果竞选成功的线 月就任新职务。

1992 年,加州众议员安娜·埃舒 (Anna Eshoo) 首次当选国会议员时,互联网才刚刚成为主流。那时候就算立法者听说过人工智能,那也不是什么积极的事情。 埃舒表示:“当时这还很难接受人工智能。只要一提到这个东西,就会觉得很威胁性,而且会破坏就业机会。”

三十年后,人工智能似乎成为人人都可以谈论的话题,而在国会山这里,现年 80 岁的 埃舒往往是这一线月份以来,她就一直担任美国国会人工智能小组(Congressional AI Caucus)的联合主席,这是一个跨党派团体,致力于教育政策制定者了解人工智能对技术、经济和社会的影响。她表示,她的主要重点是召集专家,帮助政策制定者制定美国监管人工智能的路线 月,她还听取了 OpenAI 首席执行官山姆·阿尔特曼、Anthropic 联合创始人杰克·克拉克等科技领袖所做的简报。

埃舒还一直在制定监管人工智能的法律。人工智能 ChatGPT 的一夜成名对政策制定者产生量很大的触动,掀起了一股起草新人工智能法律的狂热,其中包括她与众议员刘云平(Ted Lieu)以及肯·巴克(Ken Buck)今年 6 月共同提出的要成立一个监管人工智能的国家委员会的议案。拟议中的这家“公共可信机构”将汇集来自民间社会、政府、行业和劳工组织的专家,其任务是提出建议并制定人工智能监管的全面框架。

她今年还提出立法,要美国战略准备和响应管理局研究人工智能对美国生物安全造成的潜在威胁,其中包括恶意行为者如何利用人工智能来开发 SARS-CoV 或埃博拉病毒等新型病原体等。另外,她还打算提出一项建立美国国家人工智能研究资源的法案,目标是提供开发安全和值得信赖的人工智能所需的数据和工具,并要求大型社交媒体平台对自家算法极化导致线下暴力的有害内容负责。

人工智能监管仍处于早期阶段,但埃舒认为立法者已就制定政策框架达成共识:“人工智能前景广阔,我们希望创新及其承诺得以实现,但我们也需要解决专家们提出的风险问题。”

与 ChatGPT 得互动会让人感觉很神奇。这个聊天机器人很友好、乐于助人。如果你曾试过让它生成暴力、仇恨或露骨的色情内容,你就会想让它上钩并不容易。

这并非偶然。时间倒回到ChatGPT 一炮走红的前一年,肯尼亚得一支团队就被征召来帮助解决它的缺陷了。问题是这个:OpenAI 的大语言模型经常会出现种族主义等不当类型的内容。 (这是接受来自互联网的大量文本训练的副作用,因为这个地方往往存在令人讨厌的东西。)为了帮助 OpenAI 解决这个问题,外包公司 Sama 的理查德·马腾格(Richard Mathenge) 和他的数十名同事用了几个月的时间审查了有害内容的例子(比如仇恨言论、暴力内容等)并对其进行分类,去训练 ChatGPT 避免鹦鹉学舌。这项时薪不到 2 美元的工作造成了伤害。38 岁的马滕格说: “我们要应对严重的心理创伤”。

今年 5 月,作为 150 名非洲人工智能工作者的一员,马滕格投票建立了非洲的第一个内容审核员联盟,这是一项跨公司的努力,旨在为肯尼亚(此类外包工作的中心)替科技巨头打工的工作者赢得更好的工作条件。 今年7 月,马滕格与 ChatGPT 的三名前同事向肯尼亚议会提交了一份请愿书,呼吁立法者调查大型科技公司在该国的外包做法,并立法实施救济。马森格说:“我们有义务接触议会,”因为人工智能背后的人类工作者“被当作垃圾”。

今年早些时候,斯内哈·雷瓦努尔(Sneha Revanur) 开始注意到自己的朋友圈出现了一个新趋势:“就像 Google 已经成为大家普遍接受的动词一样,ChatGPT 也逐渐成为我们的日常词汇。”那时候她还是一名大学新生,她注意到,不管是起草给教授的电子邮件,还是撰写分手的短信,她的同龄人似乎都借助了这个聊天机器人的帮忙。

在雷瓦努尔看来,Z 世代(一般是指1997 年至 2012 年间出生的人)采用生成式人工智能工具的速度如此迅速并不奇怪,18 岁的她属于“从出生的第一天起”就沉浸在技术之中的一代人。她们在监管方面也有发言权才说得过去。

雷瓦努尔对监管人工智能的兴趣始于 2020 年。那一年,她成立了 Encode Justice,这是一个由年轻人领导、专注于人工智能的民间社会组织,旨在动员她家乡加州的年轻一代反对 25 号提案,这是一项旨在用基于风险的算法取代现金保释金的提案。该提案被否决后,这家组织继续开展工作,重点关注对同行进行人工智能政策倡导方面的教育和动员。这个组织目前在全球 30 个国家拥有 800 名年轻成员,被拿来跟之前由青年领导的气候和控制运动相提并论。

她说:“我们这一代人会继承[开发者]用以极快速度所开发技术的影响。”她称美国联邦政府在控制社交媒体巨头方面的惰性对人工智能是个警示。 “即便当时对年轻人和各种社区的影响都已得到充分记录,[立法者]用了几十年的时间才认真对待社交媒体,并真正开始采取监管行动。”

在人工智能行业众人的敦促下,美国政府此次似乎行动颇为迅速。今年夏天,雷瓦努尔等人发表公开信,敦促美国国会领导人以及白宫科技政策办公室让更多年轻人加入到人工智能监督与咨询事务。不久之后,她受邀参加了美国副总统卡马拉·哈里斯主持的人工智能圆桌讨论。 雷瓦努尔说:“在人工智能监管及了解其对社会的影响方面,年轻人第一次被当作关键的利益相关者看待。我们是下一代的用户、消费者、倡导者与开发者,谈判桌上应该有我们的一席之地。”

你不大可能有在爱沙尼亚实施谋杀的打算。但如果你确实有此打算,人工智能系统肯定会让你受益,因为它能看完并理解爱沙尼亚的所有法律,并从中找出漏洞,让你脱罪。这种情形让特里斯坦·哈里斯(Tristan Harris)彻夜难眠。事实上,人工智能领域蓬勃发展的时期有很多事情让哈里斯彻夜难眠。

哈里斯是人道技术中心(Center for Humane Technology)的联合创始人,也是播客《Your Undivided Attention》的主持人,他一直把自己塑造为站在人工智能堡垒上的人物——一位致力于确保我们正确使用这一代人工智能的技术领导者,因为犯错的代价我们根本承受不起。他说: “我们必须公开对话,评估人工智能会对社会产生什么影响。因为它确实会随时随地影响到一切。”

当然,这不是我们与人工智能的第一次接触。我们的第一次接触是在本世纪的头 20 年,社交媒体与推荐引擎开始扩散,将人们的眼球和思想都引导到往往很可怕甚至是危险的内容上。哈里斯说: “这是一场通往脑干底部的竞赛。人们被引导到那些导致成瘾、孤立、心理健康问题、网络欺凌、骚扰等有害内容上。”所有这些都是 2020 年的那部纪录片《社会困境》的主题,哈里斯在里面也有露面。

这种混乱可以说是人工智能 1.0 时代造成的。到了人工智能2.0时代,危险更大。生成式人工智能,比如 ChatGPT,牵涉到从无到有地创造语言——而语言的类型有无数种。

哈里斯说:“化学是语言,生物学是语言,法律是语言,宗教是语言。我可以用天花的语言,并让它朝着更具传播性和致命性的方向发展。有人可以命令人工智能系统,‘给我写一封信,去鼓励这个孩子自杀。’人工智能可以用假新闻、假法律或假宗教文件的形式吐出语言。”

放纵的野心对这一切起到了涡轮增压的作用。开发者、公司、国家正在展开竞赛,看看谁能够开发出最好、最强大、最赚钱的系统。哈里斯说,一个贴切的比方是开发第一批核武器的竞赛。 哈里斯说:“设计师们担心,如果自己不造,那些骨子里坏得多的人就会去造。所以他们的想法是,‘让好人来造(核武器)。’”

当然,问题在于,虽然坏人无处不在,但我们都觉得自己是好人。今年 3 月,哈里斯发布了一封由包括埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、人工智能研究机构 Mila 创始人约书亚·本希奥(Yoshua Bengio)在内的众多科技领域领导人联署的公开信,呼吁所有人工智能实验室暂停工作六个月,并利用这段时间重新评估行业的方向。没人响应,不过哈里斯对此并不感到惊讶。但是,他希望这至少能让他们思考一下。

在拜登政府针对快速发展的人工智能技术努力建立护栏之际,今年6月,乔伊·布拉姆维尼(Joy Buolamwini) 与美国总统一起参加了一次闭门圆桌会议。算法正义联盟 (Algorithmic Justice League,AJL) 的这位创始人对已经在警务、教育及医疗保健用到的面部识别和生物识别技术表示担忧。

Buolamwini 是一位加纳、美国、加拿大裔计算机科学家,数字活动家,她在 2016 年创立了 AJL。这个组织的总部位于马萨诸塞州剑桥市,旨在利用研究和艺术突出人工智能的社会影响与潜在危害。

布拉姆维尼最近写了一本新书,名字叫做《Unmasking AI: My Mission to Protect What Is Human in a World of Machines》。这本书展示了种族主义、性别歧视、肤色歧视以及体能歧视如何导致许多人代表名额不足,并导致算法在创建过程中容易受到偏见的影响。

今年 2 月,OpenAI 首席执行官山姆·阿尔特曼发了一张照,里面还有另外两个人,分别是音乐家格莱姆斯(Grimes)以及备受争议的人工智能理论家埃利泽·尤德科斯基(Eliezer Yudkowsky)。格莱姆斯跟埃隆·马斯克有过恋爱关系,但阿尔特曼跟尤德科斯基似乎不大可能凑在一起。 阿尔特曼的公司已经开发出目前最强大、最通用的人工智能系统之一——GPT-4。而尤德科斯基这二十多年则一直在发出警告,说强大的人工智能系统可能会杀死全人类,而且可能性极大。

尤德科斯基是一位没有上过高中或大学的决策理论家,也是人工智能对齐领域的创始人之一,对齐的目标是确保人工智能系统遵循创建者的意愿,以此防止类似终结者的场景出现。他在 2000 年创立了人工智能奇点研究所(Singularity Institute for Artificial Intelligence),后来又更名为机器智能研究所 (MIRI)。同时,他还在自己于 2009 年创立的社区博客 LessWrong 上撰写了数百篇关于人工智能危险的文章。

不过,去年尤德科夫斯基却承认自己失败了。 2022 年 4 月 1 日,他宣布 MIRI 将使命改为“有尊严地死去”,并估计人类生存的机会为 0%。这不是愚人节玩笑:MIRI 都不高退休金计划了,因为,他们认为人工智能将“对人类的未来的颠覆性太大了,以至于传统退休规划已变得毫无意义。”

由于尤德科斯基认为我们没法安全地制作出人工智能系统,因此他决定的时间花在告诫不要造人工智能系统上。

从那时起,尤德科夫斯基就开始了一股媒体热潮,出现在更多的播客之中,包括由德州共和党众议员丹·克伦肖(Dan Crenshaw)主持的“Hold These Truths”之中,还在TED 上发表了自己的演讲。尽管他对关于人工智能的忧虑正在逐步进入主流稍微感到乐观,但仍相信人工智能有 99% 的可能性会消灭全人类。

关于新兴技术与民主关系,很少有人的了解程度能比得上维里蒂·哈丁(Verity Harding)。这位由英国政客转型而来人工智能专家十多年来一直专注于变革性技术及其对民主社会的影响。她曾担任英国前副首相尼克·克莱格(Nick Clegg)的特别顾问(致力于数字隐私问题),之后又在谷歌工作过,后来又加入到全球领先的人工智能实验室之一 DeepMind,与人共同创立了研究与道德部门,并领导制定全球政策。

她说,从政治转向科技是为了提高效率。哈丁表示:“民选代表、科技公司以及安全部门对技术的了解与理解程度存在巨大的赤字。”现在,她正在领导一场范畴更广的运动,追求“基于权利”进行人工智能治理,对象不仅包括开发人工智能的人,也包括那些受到人工智能影响最大的人。她目前是咨询公司 Formation Advisory 的创始人,也是剑桥大学人工智能与地缘政治项目的主任。这个项目旨在通过鼓励全球合作,建立新的框架,提供“人工智能军备竞赛”这种叙事的替代方案。

哈丁认为,避免纯粹自上而下的监管至关重要,而且采取更具协作性和全球性的方法是可能的。部分是因为之前已经这样做过。在她即将出版的《人工智能需要你:我们如何可以改变人工智能的未来并拯救我们自己的未来》(AI Needs You: How We Can Change AI’s Future and Save Our Own)一书里,哈丁援引了早期的三场技术革命——太空竞赛、试管受精与胚胎学研究以及互联网——并介绍它们为全球范围内应对新兴的、不确定的技术所提供的经验教训。全球在1967 年达成了共识,《联合国外层空间条约》构成了当今国际空间法的基础。类似地,哈丁希望在人工智能领域也能实现类似的多边努力,尽管当前中美两国之间存在地缘政治紧张局势。

美国众议员刘云平 (Ted Lieu) 今年创造了历史。今年1月,他推出了首部由人工智能撰写的联邦立法。通过给 ChatGPT 提供提示,他让后者用自己的风格和声音撰写了一份全面的国会决议,表示支持国会对人工智能进行监管。结果人工智能生成了一份他甚至不需要编辑的决议。 这位加州人在国会八月休会期间说道:“人工智能已经重塑了世界,就像蒸汽机重塑了社会一样。但随着人工智能取得新的进步,它将在几年内成为具有个性的超音速喷气发动机,我们需要为此做好准备。”

54 岁的刘云平很清楚:他是 535 名国会议员当中仅有的 3 名拥有计算机科学学位的人之一。他表示,作为政策制定者,监管人工智能是自己的首要任务之一,但这样做需要国会充分掌握这个话题。这就是为什么他(与众议员安娜·埃舒一起)一直在推动成立一个由人工智能专家组成的两党委员会,去研究人工智能的进展,并就如何监管人工智能提出新建议。他最近还与人共同提出了一项跨党派立法,以防止未来不管如何先进的人工智能有自行发射核武器的能力。刘云平说:“我们仍处在早期阶段。但这并不意味着就不能针对个别问题立法。”

当被问及是否担心美国加强监管会限制本国与外国公司竞争的能力时,刘云平说政策制定者需要小心谨慎。 “如果会妨碍创新,如果其他国家不这么做,我认为我们也不应该做,除非我们确实必须这么做。”

今年6月,当欧盟宣布正在采取关键步骤通过《人工智能法案》(全球第一部关于该技术的重律之一)时,莎拉·钱德 (Sarah Chander) 就已经在考虑这项法律在保护有色人种社区方面能做到什么程度。

在 2020 年成为总部位于布鲁塞尔的欧洲数字权利 (EDRi) 的高级政策顾问之前,印度裔英国人钱德的关注焦点是国际法以及反种族主义。

现在,32 岁的钱德建议欧盟改进与人工智能、隐私与监视相关的政策和立法——近年来,随着越来越多的政府部署人工智能工具和基础设施,用来监视人口和控制边界,这个问题变得更加紧迫。

作为回应,钱德尤其关注新的《人工智能法案》,希望确保其能解决这些危害。而这项法案对世界各地的政策制定者来说可能会成为榜样,后者也正在努力解决如何对快速发展的技术设置护栏的问题。

在起草该法律的早期阶段,欧盟的重点似乎是把人工智能系统当作产品进行监管的技术要素,以及在向公众发布之前根据其对用户构成的风险对不同的人工智能应用进行分类。 钱德说:“这正是 [EDRi] 想要避免的,因为这没有考虑到在某些情况下或者针对某些社区是否应该使用这项技术。

她说:“基本上我们的主张是从纯粹的技术视角转向问责视角,这样我们就不仅可以将人工智能系统看作是基础设施或服务,而且看作是适应社会结构的整个系统”。

钱德与 EDRi 动员了 150 名律师、活动家、学者和民间社会组织组成联盟,要求通过公开数据库提高这些系统使用方式的透明度,以及为直接受影响者提供补救的法律框架。钱德表示,这项技术根本就不该用在跨境移民身上,因为这是“完全有害的,以至于没有办法改进”。

今年6 月,欧洲议会接受了 EDRi 的许多要求。这些事态发展让钱德对今秋欧盟讨论的前景感到“乐观”。 她说:“我们正在讨论全球首部人工智能法,争论会非常激烈,因为涉及众多相互竞争的利益”。

尼娜·扬科维奇 (Nina Jankowicz) 多年来一直就虚假信息以及假新闻的影响向世界各地的政府、组织和科技公司提供咨询,之后拜登政府任命她领导虚假信息治理委员会(Disinformation Governance Board)。这个在2022 年 4 月成立,隶属美国国土安全部的组织的目标就是打击虚假信息。但在就任几个小时后,当时 33 岁的她本人就成为了虚假信息运动的攻击目标。扬科维奇最终辞职,这个委员会在宣布成立后仅三周就解散了。

可是攻击仍在继续。今年6月,她发现了三个以她的美国官方肖像为主题的深度伪造色;这些视频是在约一年前上传到网上的。扬科维奇说,这样的经历“有点超现实”,尤其是因为她当时已经怀孕六个月了。 “很明显,这是被用来训练人工智能模型的。”

这个模型针对的是女性。 2019 年的一项研究发现,网上发现的深度伪造内容当中有 96% 是色情内容,而且 100% 均未经相关女性的同意。但当扬科维奇检查那些深度伪造网站和论坛时,还注意到了其他一些令人担忧的趋势。这些视频的主角主要是那些仅仅因为从事政治或表演艺术等领域工作而“引起公众愤怒”的女性。 她说:“这对我来说是最令人心寒之处。纯属战略攻击,目的是在网上诽谤、破坏和羞辱女性。”

对她来说,这段痛苦的经历清楚地表明了一件事:“人工智能与性别及女性是敌对关系”。 《如何在网络上成为一名女性》(How to Be a Woman Online)与《如何输掉信息战》(How to Lose the Information War)一书的作者现在把大量时间花在敦促各国政府上,希望在讨论监管人工智能时,虚假信息、网络虐待以及深度伪造色情内容的传播等紧迫问题能得解决。

2018 年,印度亿万富翁兄弟罗梅什·瓦德瓦尼(Romesh Wadhwani)与苏尼尔·瓦德瓦尼(Sunil Wadhwani) 开始思考如何利用人工智能来帮助解决全球发展挑战,尤其是人均每天生活费不足 5 美元国家的挑战。为了找到答案,罗梅什和苏尼尔兄弟(前者是 SAIGroup 创始人兼董事长,后者是 WISH 基金会创始人)决定联手,斥资 3000 万美元成立非营利机构 Wadhwani AI。 (迄今为止已承诺投入 6000 万美元。)

如今,这家总部位于孟买的研究所是少数几家专门致力于通过与南方国家政府合作,在医疗保健、教育和农业等领域为服务不足的社区开创可扩展的人工智能解决方案生态体系的机构之一。这项工作包括战略与国际研究中心(Center for Strategic and International Studies)合作的一项耗资 500 万美元的新项目。苏尼尔·瓦德瓦尼表示:“我们认为,在美国、中国与欧洲,人工智能正在被用来帮助富裕人群,但也许我们可以让印度成为将人工智能用于社会公益的全球领袖。”

六年过去了,他们已经有了一些解决方案。今年 4 月,该研究所宣布了一系列人工智能项目,目标是用来预测印度北部哈里亚纳邦 100 多加公共卫生机构的结核病患者的风险与死亡率。他们有一个程序利用了人工智能来解释血液检测结果,从而确定对结核病的耐药性,另一个程序则可检测超声波异常,从而预测患者疾病检测呈阳性的可能性。第三种解决方案尝试为护理人员提供决策支持,通过利用数据集来预测患者是否有可能完成治疗(基于年龄、性别、地点以及诊断和治疗开始之间的时间等指标),并与印度百万结核病患者的近半相应结果进行了对比。

该研究所还与印度政府合作推出了临床决策支持系统,帮助医生和一线工作人员根据数据集更快地进行诊断。 苏尼尔表示:“在短短 90 天内,这个系统现在每月接受咨询的数量已超过 400 万次”。

瓦德瓦尼兄弟表示,印度拥有 14 亿的多元化人口,非常适合该研究所的利他研究使命。 罗梅什·瓦德瓦尼说:“其他国家根本不具备印度所拥有的能力或机会”。

大约五年前,美国国家标准与技术研究所 (NIST) 开始制定一项计划,要推进值得信赖和负责任的人工智能系统的开发。电气工程师兼研究所 IT 实验室主任伊尔哈姆·塔巴西(Elham Tabassi) 提出,要把关于人工智能影响的讨论从原则转向实际的政策实施。

事实证明,她的建议非常重要。 塔巴西的团队开始围绕人工智能安全和偏见进行研究后,作为 2021 年国防授权法案 (NDAA) 的一部分,美国国会授权 NIST(美国商务部下属单位)为值得信赖的人工智能系统制订一个自愿的风险管理框架。在塔巴西领导下,2023 年 1 月,美国公布了旨在帮助人工智能用户和开发者分析和解决与人工智能系统相关的风险的最终框架,同时还提供了处理此类风险的实用指南。

塔巴西一直梦想成为一名科学家。1994 年,她移民到美国接受了研究生教育,五年后开始进入 NIST 工作,从事各种机器学习与计算机视觉项目,并应用到生物识别评估和标准上。在职业生涯早期,塔巴西是 NIST 指纹图像质量 (NFIQ) 的首席架构师。现在,这项标准已成为衡量指纹图像质量的国际标准。

2021 年,当时的加州大学伯克利分校计算机科学专业博士生丹·亨德里克斯 (Dan Hendrycks)在一个在线论坛上发帖,他预测埃隆·马斯克会在 2023 年重新加入到“开发安全先进人工智能的战斗”之中。 亨德里克斯是对的——2023 年 7 月,马斯克推出了 xAI。但他没有想到的是,自己会被任命为 xAI 的安全顾问。

修完博士学位后,亨德里克斯创立了人工智能安全中心 (CAIS),这是一家位于旧金山的非营利组织,拥有十几名员工。亨德里克斯把时间投入研究确保人工智能安全的方法上,同时监督着增加做同样事情的人数的努力,并向政策制定者和公众通报这些危险。今年5月, CAIS发表了一份声明,警告人工智能带来的灭绝风险应该“与流行病与核战争等其他全社会规模的风险一起成为全球优先事项”。这份声明获得了 500 多名知名学者与行业领袖的联署。

大约在同一时间内,亨德里克斯策划和编辑的人工智能安全中心newsletter对马斯克将成立一个新的人工智能组织的报道做出了回应。该newsletter警告说,马斯克的决定可能会让人工智能开发者的争夺变得更加激烈,导致投入到确保人工智能系统安全的时间和精力减少。 亨德里克斯给 xAI 的高级员工之一 Igor Babuschkin 发了一封电子邮件,询问 xAI 打算如何实现人工智能安全,而对他的招聘流程就此开始了。 亨德里克斯认为自己在安全方面的研究生研究帮助他获得了 xAI 职位,并表示他直到面试过程后期才见到了马斯克。

现年 28 岁的亨德里克斯表示,尽管他加入了 xAI,但风险仍然存在,他在第一次与马斯克会面时提到了竞争压力:“我认为竞争压力是最大的风险因素。”马斯克“同意我们不该尝试去赢得这场灭绝的竞赛”。

他希望政府或国际机构能够解决这些问题。与此同时,鉴于马斯克拥有丰富的资源,亨德里克斯预计 xAI 会成为一家“顶级”的人工智能公司,但他宁愿就如何确保 xAI 的系统尽可能安全提供建议。

但最终,亨德里克斯认为最危险的竞争不是在公司之间进行。他预测,随着人工智能系统变得越来越强大,军队会意识到它们对国家安全的重要性。他担心,如果没有强有力的国际协调,国际军备竞赛就会随之而来。他预测,这样的军备竞赛有 80% 的可能性会导致一场毁灭全人类或大部分人类的灾难。这种威胁的紧迫性迫使他长时间工作,但他也安慰自己,自己顶多需要再工作 20 年。之后,他预测要么自己的工作将被自动化,要么就已经像其他人一样死掉了。

思考人工智能风险的人往往会陷入到这两个阵营之一:要么对人工智能的力量以及开发它的公司的意图持怀疑态度,要么相信人工智能将成为人类史上最重要的技术,而且开发它的公司是善意的。

杰西·惠特尔斯顿(Jess Whittlestone)不属于任何一个阵营。 惠特尔斯顿Center for Long Term Resilience的人工智能政策负责人。这个中心是一家总部位于英国的智库,成立于 2020 年,旨在提高全球应对极端风险的抵御能力。容易受到利益冲突的影响。她对自己的定位是一个认真对待极端风险但又不会受到此类冲突影响的人。

惠特尔斯顿先是学习了数学和哲学,之后又拿到了行为科学的博士学位。 2018 年,她开始从事人工智能政策研究。她说她“一直对我们如何在社会层面做出更好的决策感兴趣。”她也意识到究竟是谁在做出这些决定。比方说,她认为,企业往往会根据人工智能带来的好处来证明持续进行人工智能开发的合理性,但这些好处并没有得到充分证实。

在剑桥大学莱弗胡姆智能未来中心(Leverhulme Centre for the Future of Intelligence)以及存在风险研究中心(Existential Risk)担任学术职务后,惠特尔斯通又加入了Centre for Long-Term Resilience。她曾与中国人工智能研究人员一起参与非官方外交活动,并与知名人工智能公司一起制定人工智能安全政策。她投入了大量时间就制订人工智能政策应该知晓的技术细节向英国政府官员提供建议,这对于英国政府今年秋天主办的人工智能峰会尤其重要,而这场峰会可能会为未来数年人工智能政策问题的国际合作制定条款。

Related Posts

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注