AI统治人类,需要分几步走?

HelloKitty 2024-06-26 14:59

扫一扫 在手机阅读、分享本文

1062

本文由 锌财经 撰写/授权提供,转载请注明原出处。

文章来源于:锌财经

作者:孙鹏越

编辑:大风

你敢相信?ChatGPT 已经通过图灵测试了!

甚至不是最新的 GPT-4o,老版本 GPT-3.5 和 GPT-4 就已经打破人类和 AI 的最后一层限制。

“图灵测试”由计算机科学家艾伦・图灵在 1950 年提出。他将人工智能给出了一个完全可操作的定义:如果一台机器输出的内容和人类大脑别无二致的话,那么我们就没有理由坚持认为这台机器不是在“思考”。

“图灵测试”和“机器人三定律”,一直被人类世界视为保护人类的最后屏障。

就连“AI 讲师”周鸿祎,都在最近的社交平台上大谈 AI 灭世论,将 AI 焦虑拉到极致。

在 2024 年,以 OpenAI 为首的大模型公司,真的能打开毁灭人类社会的潘多拉魔盒吗?

“AI 灭世论”引发焦虑

从上世纪开始,通过图灵测试就成为人类在 AI 领域为之奋斗的里程碑目标。

可真的有 AI 通过测试后,人类的惶恐却大过于惊喜。

加州大学研究人员招募了 500 名参与者,让他们与四位“对话者”进行五分钟的交流,这四位“对话者”分别是:真人、上世纪 60 年代的初代聊天机器人 ELIZA、GPT-3.5 和 GPT-4。

参与者在对话结束后,需判断对方是人还是机器。

1.png

评估对象通过率(左) 评估者信任度(右)

结果显示,真人被正确辨认的比例则为 67%;ELIZA 只有 22%;GPT-4 和 GPT-3.5 则高达 54%、50%。

这项测试无疑是非常可怕,真人和 GPT-4 的差距仅有 12%!

前 OpenAI“超级对齐团队”成员利奥波德·阿申布伦纳(Leopold Aschenbrenner),曾在在社交平台披露出来的一份长达 165 页的 PDF 文档,对外界发出警告。

阿申布伦纳表示,AI 在过去 10 年深度学习的进步速度非常惊人。仅仅 10 年前,AI 识别简单图像的能力就已经是革命性的。但如今,人类不断尝试提出新颖的、更难的测试,但每个新的基准测试都很快被AI所破解。

过去,破解广泛使用的基准测试,AI 需要数十年的时间,而现在只要几个月。

而图灵测试虽然名气大,但从问题深度和难度上,并不如当下最困难的基准测试,也就是类似 GPQA 的测试,内容是博士级别的生物、化学和物理问题。

阿申布伦纳估计,GPT-4 进化到 GPT-4o,或者到 GPT-5 模型迭代后,这一基准测试也将作废。

为什么人类设置的难题,会这么快被 AI 所破解?原因就是,AI 学习能力真的太快了!

2.png

来源:利奥波德·阿申布伦纳

2019 年发布的 GPT-2 模型,智力水平仅仅于学龄前儿童相仿,只能简单串起一些看似合理的句子,但是却无法从 1 数到 5,也无法完成总结类任务;

2020 年发布的 GPT-3 模型,智力水平大致达到了小学生的水平,能生成篇幅更长的模型,并能完成一些基础的算术任务和语法纠错;

2022 年发布的 GPT-4 模型,智力水平就能与较为聪明的高中生相似,能编写复杂的代码并进行迭代调试,还能完成高中数学竞赛题。

等到 2024 年,更先进 GPT-4o,更是完成了对 GPT-4 的全方位超越。

相比较人类,正常人类从小学提升到初中,需要六年的时间;初中提升到高中,又需要三年的事件。

而 AI 的进化,则是两年一个台阶的越级进化,远远超过正常人类的水平。

超级人工智能时代

“在 2027 年,我们就有极大可能实现 AGI(超级人工智能)。”

这是阿申布伦纳的推断,他的数据支撑是 GPT-2 到 GPT-4 的模型迭代趋势。

从 2019-2022 年的 4 年时间里,ChatGPT 算力和算法效率都在以每年 0.5 个数量级(1 个数量级=10 倍)的速度发展。

再加上可能出现的释放模型性能的技术突破,等到了 2027 年,AGI(超级人工智能)时代就会降临,AI 工程师完全可以取代人类工程师的所有工作。

AI 的“超级进化”,背后是算力与资源的巨额消耗。

AI 研究机构 Epoch AI 评估报告显示,GPT-4 训练使用的原始计算量比 GPT-2 多约 3000-10000 倍。

这无疑是个可怕的数据,据阿申布伦纳估计,到 2027 年底,将会出现 2 个数量级的算力增长,用电量相当于美国一个中小型的州的用电量。

也就是说,要拿一个省份的用电量,来支撑起一个 AI 大模型的日常训练,这还是 GPT-4 的水准,还远不到 AGI(超级人工智能)的标准。

周鸿祎对阿申布伦纳的言论并不认同,甚至有些“不切实际,更像是科幻小说”。

他表示,如果一个 AGI(超级人工智能)的诞生就需要多个省份的电力资源,那么有 10 个以上的 AGI,就能把整个地球的资源抽干殆尽。

3.png

周鸿祎

周鸿祎给出了自己对 AI 的担忧,他认为如果在未来诞生出一个 AGI,它就会取代人类工程师负责对 AI 大模型的开发,那么就会有一个 24 小时日以继夜工作、让算法和技术突破的更快,形成极为夸张的正循环。

在“机器人改造机器人”“机器人改造算法”的模式下,AI 的智力水平会从人类进化到超人,那么就会上演“硅基生物 VS 碳基生物”的好莱坞戏码。

虽然周鸿祎反对阿申布伦纳的言论,但同样认为智能大爆炸之后的“超级智能时代”,将是人类历史上最动荡、最危险、最紧张的时期。

这并不是周鸿祎在社交平台上,第一次对 AI 领域充斥着忧虑。早在 2023 年年初,GPT-4 刚刚火遍全球的时候,周鸿祎就已经表达过对 AI 安全的担忧。

周鸿祎表示:原来的人工智能给人的感觉像“人工智障”,虽然能做一些技术比如人脸识别、语音识别,但并不能理解你说的什么。但是 ChatGPT 模型不仅能够通过图灵试验,而且它有自己的人设、自己的观点,按照进化速度、摩尔定律,如果进一步训练下去,ChatGPT 也许就能实现自我意识的突破。

一旦自我意识突破,它就有可能控制全网的电脑,就会认为比人类高明很多。在它眼里,人类这个物种其实无论从存储、算力、反应能力、知识面上比它差太远,它就能反过来奴役人类,科幻正离现实越来越近。

作为 360 的创始人,AI 安全问题,周鸿祎的顾虑更多。

无人在意的 AI 安全

OpenAI 作为 AI 时代的领头羊,面对 AI 安全的全球舆论,它做了什么吗?

显然是没有的,甚至 OpenAI 还在今年解散了负责 AI 安全的“超级对齐团队”。

在去年,OpenAI 首席科学家伊利亚·苏斯克沃就因为 AI 安全问题,对 CEO 山姆·奥特曼进行弹劾,但最终还是山姆·奥特曼笑到最后,伊利亚·苏斯克沃被赶出公司。

伊利亚·苏斯克沃离开 OpenAI 后,在 6 月 20 日宣布成立新公司 SSI(超级安全智能 Safe SuperIntelligence)。

最在意 AI 安全的伊利亚·苏斯克沃离职,上文提到了利奥波德·阿申布伦纳就以“泄密”为由,被 OpenAI 同样赶出了公司。

这也是他在社交平台发布 165 页的文档,曝光 OpenAI 的原因。

甚至,曝光 OpenAI 的吹哨人,还不止阿申布伦纳一人,在上个月,有一批 OpenAI 的前员工和现员工联合起来,公开发表了一封联名信,声明 OpenAI 缺少监管,人工智能系统已经能对人类社会造成严重危害,未来甚至能“灭绝人类”。

虽然“灭绝人类”这个说法过于惊悚,但在解散超级对齐团队之后,OpenAI GPT 商店充斥着垃圾邮件,并违反平台的服务条款从 YouTube 抓取数据。

看到 AI 安全在 OpenAI 的地位,越来越多的安全研究人员,选择另谋高就。

艾隆·马斯克也忍不住抨击山姆·奥特曼:“安全并不是 OpenAI 的首要任务。”

4.png

山姆·奥特曼

对于外界的批评,山姆·奥特曼置若罔闻,他已经把全部精力用于推动 OpenAI 彻底转向营利实体,不再由非营利性组织控制。

如果 OpenAI 转型为营利组织后,有限合伙人每年利润分红的限制就不复存在了,巨额回报激励能够进一步扩大合伙人范围,也有利于 OpenAI 走向 IPO。

也就是说,估值高达 860 亿美元的 OpenAI(约 6244 亿人民币),将能给山姆·奥特曼本人带来更多的财富。

在 Dollar 面前,山姆·奥特曼毅然决然的放弃了 AI 安全。

微信图片_20240207151541.png

微信图片_20240313155219.jpg

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章