HelloKitty • 2023-03-14 16:59
1713
本文由 智东西 撰写/授权提供,转载请注明原出处。
文章来源于:智东西
作者:吴菲凝
编辑:李水青
智东西 3 月 9 日报道,近日,外媒华尔街日报记者迈尔斯·库卢帕(Miles Kruppa)和萨姆·谢克纳(Sam Schechner)深度挖掘了谷歌聊天机器人的发展历程,研发时间竟然已经长达十年之久。在此期间,该项目更是经历了反复审查失败、多次更名和多位核心人员离职等波折。
谷歌的聊天机器人投入可以追溯到 2013 年,而后研发出一款名为 Meena 的聊天机器人,但直至 2020 年才以 LaMDA 新名称在一篇论文中得以披露进展,至今产品仍未公开发布。2022 年底,在 OpenAI 旗下的 ChatGPT 亮相并迅速走红之后,谷歌匆忙公开了自己名为 Bard 的聊天机器人,但其却在公开展示视频中意外“翻车”。
华尔街日报两名记者认为,谷歌此前对待 AI 的态度太过于谨慎,以至于现在陷到一个“起大早,赶晚集”的尴尬境地,为竞争对手微软提供了可乘之机。
在谷歌内部,高管们认为,谷歌必须保证 AI 技术足够安全才能够推向公众。
两年前聊天机器人已面世
因安全问题隐而未发
谷歌的两位研究人员丹尼尔·德·弗雷塔斯(Daniel De Freitas)和诺姆·沙泽尔(Noam Shazeer)从 2013 年就已开始投入聊天机器人 Meena 的研发,据称所使用的技术远胜于当时其他任何技术。他们开发出的对话式计算机程序可以像人一样自信地谈论哲学,还能即兴创作出一些双关语。
据知情人士透露,这两位研究人员向同事们称,聊天机器人在 AI 的不断进步的推动下,未来将彻底颠覆人们使用搜索引擎和与计算机交互的方式。
他们敦促谷歌向外部研究人员提供 Meena 的访问权限,试图将其集成到 Google Assistant 智能助手中,还要求谷歌公开演示这款机器人。
但谷歌高管多次明确拒绝了他们,高管认为该计划不符合公司对 AI 系统安全性和公平性的标准。
谷歌这种拒绝公开发布的谨慎态度,主要是由于长年以来外界对于公司在 AI 方面的争议。从关于 AI 的准确性和公正性的内部争论,再到公司去年公开解雇了一名声称 AI 已经获得人类感知的员工,谷歌一直处于舆论的风口浪尖之上。
据前员工以及其他知情人士透露,长久以来的一系列事件让高管们担心公开演示 AI 产品可能对公司声誉和搜索广告业务构成风险。据悉,谷歌母公司 Alphabet 去年营收近 2830 亿美元,其中大部分收入来自搜索引擎广告投放业务。
前谷歌产品经理高拉夫·内马德(Gaurav Nemade)说:“谷歌正在努力在承担风险和保持全球领导地位之间找到平衡。”
谷歌的谨慎态度如今看来是明智之举。二月份时微软曾宣布,针对于聊天机器人发表敏感言论的用户报告反馈,未来将对机器人施加更多新限制。微软高层解释,当应用程序运转到难以负荷时,它可能会出现“精神错乱”的现象。
▲桑达尔·皮查伊(Sundar Pichai)告诉员工,随着时间的推移,谷歌最成功的产品赢得了用户的信任 图源:彭博社
在上月一封发给全体员工的邮件中,Alphabet 和谷歌的首席执行官桑达尔·皮查伊(Sundar Pichai)称:“一些最成功的产品并不是第一个推向市场,但却能慢慢赢得用户的信任。”他写道,“这将是一段漫长的旅程——对每个人来说,都是如此。我们现在能做的最重要的事情是专注于打造一款伟大的产品,并负责任地开发它。
十年秘密研发:多次审查不过、内部禁止,最终改名
谷歌在聊天机器人方面做出的努力可以追溯到 2013 年。
时任谷歌联合创始人兼首席执行官的拉里·佩奇(Larry Page)聘请了计算机科学家雷·库兹韦尔(Ray Kurzweil),库兹帮谷歌推出了一个前所未有的概念“技术奇点”:即机器终有一天将超越人类的智慧。
此外,谷歌还收购了英国人工智能公司 DeepMind,该公司同样致力于创建通用 AI 或可以反映人类心理能力的软件。
但与此同时,学者和技术专家开始对 AI 提出担忧,比如它有可能通过面部识别软件实现大规模监控,他们开始向谷歌等科技公司施压,要求他们承诺不会将某些技术用作非法途径。
2015 年,包括马斯克在内的一群科技企业家和投资者成立了 OpenAI,其中有一部分原因是为了打压谷歌在 AI 领域日渐攀升的地位。OpenAI 最初是一家非营利组织,它希望确保 AI 不会成为企业利益的牺牲品,而是用于造福人类。
此前,谷歌与美国国防部拟定的一项名为“Project Maven”的合同遭到了员工的强烈反对,因为该合同涉及到使用 AI 自动识别并跟踪潜在的无人机,谷歌最终放弃了这个项目。直至 2018 年,谷歌宣布承认不会将 AI 技术应用于军事武器制造方面。
除此之外,CEO 皮查伊还宣布了一套指导谷歌运作的 7 项 AI 原则,旨在限制不公正技术的传播,比如人工智能工具应该对人负责,并“为安全而构建和测试”。
多年来,谷歌这款名为 Meena 的聊天机器人项目一直处于保密状态中。一部分内部员工对这类程序的风险表示担忧,因为 2016 年时微软曾因为一款名为 Tay 聊天机器人的误导性回答,最终被迫终止公开发布。
直至 2020 年,外界才对 Meena 有所了解。在谷歌发布的一项研究论文当中称,Meena 已经从公开的社交媒体对话中学习了近 400 亿个单词。而竞争对手 OpenAI 同样开发了一个基于 800 万个网页的类似模型 GPT-8。
在谷歌,Meena 背后的团队也希望能早日发布他们的工具,即使只是像 OpenAI 那样以有限的格式发布。但谷歌高管们多次拒绝了这一提议,据前谷歌产品经理内马德称,他们给出的理由是聊天机器人不符合谷歌关于安全和公平的 AI 原则。
谷歌发言人称,多年来,Meena 经过了无数次审查,但一直因为各种原因而被禁止进行更广泛的发布。Google Brain 人工智能研究部门的软件工程师沙泽尔加入了这个项目,他们将 Meena 更名为 LaMDA,意为“用于对话应用程序的语言模型”。团队还为赋予了 LaMDA 更多的数据和计算能力。
然而,他们的技术很快引发了广泛争议。谷歌著名的 AI 伦理研究员蒂姆尼特·格布鲁(Timnit Gebru)在 2020 年底公开宣称,她因拒绝撤回一篇关于 LaMDA 等项目固有风险的研究论文而被解雇。谷歌则澄清该员工并未被解雇,并声称她的研究不够严谨。
谷歌研究主管杰夫·迪恩(Jeff Dean)称,谷歌将继续投资对大众负责的 AI 项目。
2021 年 5 月,公司公开承诺会将 AI 道德小组的规模扩大一倍。
在一周后,皮查伊在公司年会上登台,展示了两段预先录制的与 LaMDA 的对话,LaMDA 根据命令对问题作出回应。据知情人士称,谷歌研究人员在会议召开前几天准备了这些问答案例,并在最后一刻向皮查伊演示。谷歌一再强调自身将努力使聊天机器人更加准确,并最大限度地减少其被滥用的机会。
谷歌的两位副总裁当时在一篇博客文章中写道:“在创建像 LaMDA 这样的技术时,我们的首要任务是努力确保将风险降至最低。”
核心人员离职、工程师被解雇
微软 ChatGPT 背刺谷歌
2020 年时,弗里塔斯和沙泽尔还在研究如何将 LaMDA 集成到 Google Assistant 中。Google Assistant 是谷歌四年前在其智能手机 Pixel 和家庭音箱系统上首次推出的一款软件应用程序,每月有超过 5 亿人使用 Google Assistant 来执行一些基础任务,比如查看天气和安排约会。
知情人士称,谷歌不愿向公众发布 LaMDA 的决定让弗雷塔斯和沙泽尔感到沮丧,他们决定离开公司,并使用类似技术建立一家自己的初创公司。中途皮查伊多次干预,要求两人留下来继续研究 LaMDA,但却没有向他们承诺何时将会发布。
2021 年,弗雷塔斯和沙泽尔正式离开谷歌,并于当年 11 月成立了初创公司 Character Technologies。他们研发的 AI 软件 Character 于 2022 年正式发布,该软件允许用户创建聊天机器人并与之互动,机器人甚至可以以苏格拉底等知名人物的口吻与用户对话。
▲沙泽尔和弗雷塔斯在他们位于帕洛阿尔托的新公司的办公室 图源:《华盛顿邮报》
“这款软件的发布在谷歌内部引起了一些轰动。”沙泽尔在 YouTube 的一段采访中称。在他看来,作为一家小初创公司来推出这款软件可能更加幸运。
2022 年 5 月,谷歌考虑在当月的旗舰会议上发布 LaMDA。而据谷歌解雇的一名工程师布莱克·勒莫因(Blake Lemoine)后来透露,被解雇是因为他在社交平台上发布了与聊天机器人的对话,并声称它是有知觉的。
▲ 2021年的虚拟谷歌会议期间与 LaMDA 的对话示例 图源:彭博社
在勒莫因发布的内容引发广泛争议之后,谷歌取消了原本的发布安排。谷歌表示,勒莫因的公开披露违反了就业和数据安全政策,因此公司需要做出保守起见的安排。
自从微软与 OpenAI 达成新协议以来,谷歌一直在努力向大众展示自己作为 AI 创造者的行业地位。
▲微软员工亚历山大·坎贝尔(Alexander Campbell)演示Bing和Edge浏览器与OpenAI的集成。图源:美联社
在今年 ChatGPT 首次亮相后,谷歌也准备公开发布自己的聊天机器人 Bard,该机器人部分技术基于弗雷塔斯和沙泽尔当年的研究,它搜集从网络中获取的信息,再以对话形式回答问题。谷歌在一次公开活动中表明,原计划是想对 Bard 的区域性搜索功能更进一步的探讨,让媒体和公众对 Bard 有新的认识,知晓它是一个使用类似 LaMDA 的 AI 技术来回应输入文本的搜索工具。
据谷歌高层称,谷歌经常会重新评估发布一款产品的条件,但由于现在面临太多的外界刺激,才在一个并不十全十美的情况下发布。
谷歌搜索副总裁伊丽莎白·里德(Elizabeth Reid)在接受采访时称,自去年年初以来,谷歌也对搜索产品进行了内部演示,这些产品也整合了 LaMDA 等生成式 AI 的响应。
谷歌认为生成式 AI 最有用的搜索用途之一,是在没有标准正确答案下进行的问题搜索,他们将其称为“NORA”。里德说,传统的搜索功能可能已经满足不了现在的用户了,谷歌还看到了其他复杂搜索的潜在可能,比如说解一个数学题。
高管们说,和其它类似项目一样,最大的问题是它的准确性。使用这些搜索工具的人说,基于 LaMDA 技术构建的工具在某些情况下会给出一些偏离主题的回答。
同样,微软新版 Bing 在上个月已经发布,对于此前用户报告的与聊天机器人之间产生的令人不安的对话,将会通过限制聊天时间的方式来减少机器人发出攻击性或令人毛骨悚然的反应的机会。
谷歌和微软都承认自己的聊天机器人还存在很多不准确的地方。
在谈到像 LaMDA 这样的语言模型时,里德认为像是“在和一个孩子说话”,当一个小孩子给不出大人想要的答案时,他会编造出一个听上去合理的答案来应对。
谷歌未来还将继续微调其模型,包括训练模型承认自己不知道答案而不是编一个。
结语:AI领导者谷歌首战失意
微软略占上风
谷歌聊天机器人的研发自 2013 年起步,2017 年时已实现了重大的技术突破——神经网络系统 Transformer,这也是 ChatGPT 所用到的底层技术,随后又发布了预训练大模型 BERT;21 年,微软发布了 ChatGPT 的前身 GPT-3,谷歌紧接着发布了预训练模型 LaMDA,展示出自然的对话能力;如今,Bard 也即将依托 LaMDA 的轻量级模型版本发布,谷歌在与微软的较量中加快步伐。
长期以来的舆论压力、层层加压的安全审查,以及裁员后严重的人才流失情况,让谷歌进入到一个短暂的业务疲软时期,整体业绩下滑。但从长期来看,谷歌并未输掉这场巨头之争,它所拥有的 LLM(语言大模型)团队和定制芯片,在市场上难寻敌手。
与此同时,我们也不难发现,大模型和生成式 AI 的产业落地必然是场艰难长跑,巨头们在技术、产品、生态、安全等多方面面临的压力重重,随着生成式 AI 大规模接入应用程序当中,稳定性和可靠性也将成为用户更看中的评判标准,也更考验各家基础设施的能力。
扫码关注公众号
获取更多技术资讯