HelloKitty • 2023-05-04 14:36
2210
本文由 新智元 撰写/授权提供,转载请注明原出处。
文章来源于:新智元
作者:新智元编辑部
一觉醒来,整个科技圈惊掉了下巴!!!
深度学习泰斗、神经网络之父 Geoffrey Hinton 突然宣布离职谷歌。
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。
纽约时报的报道中,Hinton 直接警示世人:注意,前方有危险,前方有危险,前方有危险!
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」
如今,距离 Hinton 入职谷歌,刚好十年。
对于 Hinton 此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。
你应该劝说你的学生 Yann LeCun 和 Ilya Sutskever。
值得一提的是,ChatGPT 背后真正的英雄正是 OpenAI 的联合创始人兼首席科学家 Ilya。
AI「关键时刻」,人类控制不住了
被称为「人工智能教父」的 Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
今年 3 月末,万名大佬签字发出联名信,呼吁暂停训练比 GPT-4 更强大的 AI 六个月。
图灵三巨头中,Bengio 高调签名、LeCun 旗帜鲜明地反对,唯有 Hinton 一言不发,耐人寻味地保持沉默。
而 Hinton 提出离职的时间,正是在此之后的 4 月份。
从他的推特上可以看出,无论是最近 GPT-4 等超强 AI 引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton 都始终保持缄默,不发一言。
许多人关注着这位人工智能教父的态度。
在 CBS 的一次采访中,Hinton 表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
从人工智能的开创者到末日预言者,Hinton 的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见 AI 可能给人类社会引发的深刻改变和巨大危机了。
盖茨等许多大佬认为,ChatGPT 可能与上世纪 90 年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。
在 Hinton 看来,如何防止坏人利用它做坏事,我们还未能找到方法。
在 3 月底呼吁暂停超强 AI 六个月的公开信发出几天后,人工智能促进协会的 19 位领导人也发布了公开信,警告 AI 的风险。
其中就包括微软的首席科学官 Eric Horvitz,而微软已在一系列产品中(包括 Bing 搜索引擎中)部署了 OpenAI 的 GPT 技术。
在喧嚣的反对浪潮中,人工智能教父 Hinton 却并未在这两封信上签名。
他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。
忍到上个月,Hinton 终于下定决心,通知谷歌自己即将辞职。
选择离职谷歌后,Hinton 终于可以畅所欲言地谈论 AI 的风险了。
我对我的毕生工作,感到十分后悔。
我只能这样安慰自己:即使没有我,也会有别人。
上周四,他与谷歌母公司 Alphabet 的 CEO 劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。
作为一家大公司,谷歌对于 AI 的态度一向保守,甚至保守到,眼睁睁看着自己在聊天 AI 机器人之战中被甩在后面。
早在 2015 年,谷歌的图像识别 AI 曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
在 OpenAI 推出 Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对 AI 生成的内容负责。
而早在 2021 年,谷歌就已有了类似 ChatGPT 的 LaMDA 聊天机器人,但谷歌始终未发布。直到 2022 年 11 月底,OpenAI 凭 ChatGPT 占尽风头。
如今,谷歌首席科学家 Jeff Dean 在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」
开启了历史,也见证了历史
1972 年,Hinton 在爱丁堡大学开始了他的研究生生涯。
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
当时,很少有研究人员相信这个观点。但这成了他毕生的心血。
2012 年,Hinton 和他两名学生 Ilya Sutskever 和 Alex Krishevsky 建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
神经网络成为他与两名学生共同创建的公司 DNNresearch 背后的突破性概念,该公司最终在 2013 年被谷以 4400 万美元收购。
2018 年,Geoffrey Hinton、Yann LeCun 和 Yoshua Bengio 一起因对神经网络的研究获得了 2018 年的图灵奖,而神经网络正是 ChatGPT、Bard 等聊天机器人背后的奠基性技术。
而 Hinton 的学生 Ilya Sutskever,也在后来成为 OpenAI 首席科学家。
大约在同一时间,谷歌、 OpenAI 和其他科技公司开始构建从大量数字文本中学习的神经网络。
那时的 Hinton 认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
2022 年,随着谷歌和 OpenAI 利用大量数据构建超强 AI。
Hinton 的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
GPT-4 发布当天,Hinton 曾表示,
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
Hinton 称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
对此,Hinton 谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!
在谷歌十年生涯中,Hinton 一直看好谷歌在人工智能技术上谨慎的态度。
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的 AI。
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
但是现在,微软为其必应搜索引擎接入 GPT-4 的能力,已经让谷歌焦急地不得不做点什么。
Hinton 称,科技巨头们正在进行一场可能无法阻止的竞争。
他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。
他甚至还担心,人工智能技术迟早会颠覆就业市场。
如今,像 ChatGPT 这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
未来,他表示自己很担忧,GPT-4 迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的 Auto-GPT 就是一个非常典型的例子。
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
上世纪 80 年代,Hinton 曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开 CMU,前往加拿大。当时,Hinton 强烈反对在战场上使用 AI,他将其称为「机器人士兵」。
在一些人看来,类似的系统实际上比人类更聪明。Hinton 表示自己曾经认为,这太离谱了,最起码要 30-50 年,甚至更久才能实现。
而现在,我不再那么想了。
许多其他专家,包括 Hinton 的许多学生和同事,说这种威胁还仅是一种假设。
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
网友热议
有网友认为,Hinton 对于的 AI 的看法太悲观了。
我见过的 ChatGPT 积极应用案例远多于消极的,但现在的趋势是把 AI 描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
还有人对谷歌「负责任」这一观点提出异议:
-使用 Breitbart 训练 AI 模型;-让负面信息在 YouTube 上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
谷歌大脑和 DeepMind 合并这一事,与此相关吗?
还有网友发出疑问,连 Hinton 都离职了,下一个会是?
参考资料:
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
扫码关注公众号
获取更多技术资讯