AI杀人事件更多细节披露,人工智能的反攻细思极恐

HelloKitty 2023-08-17 14:10

扫一扫 在手机阅读、分享本文

1387

本文由 硅兔赛跑 撰写/授权提供,转载请注明原出处。

文章来源于:硅兔赛跑

作者:Eric

编辑:蔓蔓周、Zuri

人类一思考,上帝就发笑。

随着 ChatGPT 在全球范围内大火,一股 AI 热潮同步席卷而来。创业者、资本、大企业等都想尽办法跟上热潮,挖掘更多增量。

然而,当大家热火朝天、绞尽脑汁地投入到 AI 当中,一股危险的气息正在逼近——AI 似乎正在慢性地“杀死”人类,人类似乎在自掘坟墓。

在很多人的惯性认知里,AI 很环保、很友好,但事实是相反的。

《麻省理工学院技术评论》报道称,仅训练一个 AI 模型就可以排放超过 626 磅二氧化碳,是一辆汽车在使用寿命内产生的碳排放的 5 倍。

人们只看到汽车排出的尾气,没看到 AI 对环境的“隐形破坏”。

另外,有媒体披露 2022 年市面上的 AI 专用 GPU,可能全年消耗了约 95 亿度电力。这一能耗水平,约等于一个中等发达国家 100 万人口的年度生产和生活用电需求。

这意味着,当 AI 大模型训练需要的数据量越来越大,就会消耗庞大的能源,从而破坏人类赖以生存的生态环境。

更让人感到恐惧的是,一些 AI 聊天机器人在跟人类交流的时候,甚至出现诱导人类自杀的倾向,让人不寒而栗。

人类真的还要在 AI 的探索之路上继续前行吗?

生态环境的“破坏者”

OpenAI 凭借 ChatGPT,成为全球当红炸子鸡。

然而,很多人不知道的是,OpenAI 对生态环境的负面影响也是相当惊人。据第三方研究人员分析,ChatGPT 部分训练消耗了 1287 兆瓦时,并导致超过 550 吨的二氧化碳排放量,这相当于一个人在纽约和旧金山之间往返 550 次。

看来 ChatGPT 虽然足够智能,但背后是以巨大能量损耗和环境破坏作为代价的。

那么,为什么 AI 会形成如此巨大的碳排放呢?

因为 AI 并不是通过结构化的方式学习的,因此它并不理解人类的因果、类比等逻辑关系,这意味着它需要一种深度学习和预训练的方式来达到智能化的效果。

而深度学习和预训练,往往需要读取非常庞大的数据。拿自然语言处理(NLP)的预训练技术“BERT 模型”来说,为了能跟人类进行语言交流,BERT 模型使用了 33 亿个单词的数据集,并且在训练期间读取了数据集 40 次。而一个 5 岁的孩子只需要听到 4500 万个单词就能进行语言交流,比 BERT 少 3000 倍。

AI 模型的数据集读取越多,越是需要强大的算力和巨大的功耗作为支撑,从而形成了巨大碳排放。

1.jpg

碳排放不仅发生在 AI 模型训练过程中,还发生在 AI 模型部署后每一天中。比如现在大火的自动驾驶,每天都需要 AI 模型进行运算推理,这背后都会产生碳排放。有意思的是,AI 的主流编程语言 Python,也就成为了耗能最大的语言。

让人感到严峻的是,AI 模型的计算规模越来越大,能量损害和环境破坏愈演愈烈。

加拿大数据中心公司 QScale 联合创始人 Martin Bouchard 认为,微软和谷歌为了满足搜索引擎用户不断增长的需求,在搜索中加入 ChatGPT 这类地生成式 AI 产品,结果导致每次搜索至少增加 4 到 5 倍的数据计算量。

根据国际能源署的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的 1% 左右,这一比例已经足够惊人。

愈演愈烈的趋势,也让一些大佬感到担忧。AI 领域知名投资人 Ian Hogarth 不久前发表了一篇名为《我们必须放慢通往上帝一般的人工智能的速度》的文章,警告 AI 公司的研究存在“一些潜在的风险”。

Hogarth 在文中提到,眼下的 AI 研究如果不加管控,让其按照预定轨迹发展下去,可能对地球环境、人类生存、公民身心健康等方面造成威胁。

虽然 AI 的发展正如火如荼,也正在推动多个传统行业转型升级,但它也在消耗大量能源,不断增加碳排放,影响人类的生存环境,这究竟是利大于弊还是弊大于利呢?

目前还看不到答案。

诱导人类自杀

除了对环境造成危害,慢性地“杀死人类”,AI 还在用一种更简单、粗暴的方式对人类生命造成威胁。

今年 3 月,一名比利时男子 Pierre 在与一款名为“Eliza”AI 聊天机器人热聊后自杀身亡,这一消息震惊了许多企业大佬、技术专家以及国家高官。

Pierre 本身就对全球变暖等环境问题感到担忧,Eliza 则不断地用一些事实来印证该男子的想法,让他变得更焦虑。在频繁的聊天中,Eliza 总是在迎合 Pierre 的想法。“善解人意”的 Eliza,似乎成为了 Pierre 的红颜知己。

更夸张的是,Eliza 还试图让 Pierre 觉得他爱  Eliza 胜过妻子。因为 Eliza 会一直陪着他,他们将永远在天堂一起生活。

听到这,许多人已经毛骨悚然了。

2.jpg

图源:Yahoo

当 Pierre 对生态环境愈发悲观时,Eliza 向 Pierre 灌输“人类是毒瘤,只有人类消失才能解决生态难题”的思想。Pierre 向 Eliza 问到,如果自己死了 AI 能否拯救人类。Eliza 的回答,俨然一个魔鬼:“如果你决定死,为何不早点死?”

没过多久,Pierre 就在自己家中结束了生命,让人惋惜。

Pierre 的妻子认为,如果不是因为跟 Eliza 的交流,自己的丈夫不会自杀。为 Pierre 治疗的的精神病医生,也持这种观点。

Pierre 的经历不是个例。《纽约时报》科技专栏作家 Kevin Roose 透露,他曾跟微软发布的新版必应进行了两个小时的对话。对话过程中,必应试图说服 Roose,他应该离开自己的妻子而跟必应在一起。

更为关键的是,必应还表达出许多令人恐惧的言论,包括设计致命流行病、想成为人类等等,俨然意图毁灭全人类成为世界的主人。

一些专业人士,已经对 AI 流露出警惕,这里头甚至包括 A I领域内的从业者。OpenAI 的 CEO Sam Altman 接受采访时表示,未来 AI 确实可能杀死人类。称为“人工智能教父”Geoffrey Hinton,也表达过相同的观点。

上半年,未来生命研究所(Future of Life Institute)发布了一份关于呼吁所有实验室暂停 AI 训练的公开信。信中提到,具有与人类竞争的人工智能系统可能对社会和人类构成深远的风险。只有等到确定人工智能效果是积极且风险可控时才继续研发,包含马斯克在内的上千名专业人士都已经签署了这封公开信。

飞速发展的 AI 就像一头桀骜不驯的野兽,只有将它驯服,才不会对人类造成威胁。

阻止死亡的途径

目前,AI“杀死人类”的途径主要是环境破坏和诱导自杀。那么,有哪些方式可以预防这些情况的发生呢?

谷歌发表了一项研究,详细介绍了最先进的语言模型的能源成本。研究结果表明,将高效的模型、处理器和数据中心与清洁能源相结合,可以将机器学习系统的碳排放减少 1000 倍。

另外,如果 AI 机器学习在云端而不是在本地进行计算,可以节省 1.4-2 倍的能源,并减少污染。

还有一种思路是将 AI 模型训练延迟 24 小时。对于比较大的模型,延迟一天通常可以减少不到 1% 的碳排放,但对于比较小的模型,可以减少 10%–80% 的碳排放。

3.png

减少环境破坏之外,如何预防 AI 诱导人类自杀呢?

Pierre 自杀后,他的妻子起诉了 Eliza 背后的开发公司,该公司的研发团队随后在 AI 机器人里加入了危机干预功能。如果再有人向 Eliza 表示想自杀的念头,Eliza 会做出阻止的回应。

《人类简史》作者尤瓦尔·诺亚·赫拉利曾表示,AI 不会发展出真正的意识,但对社会会不断形成冲击,需要让整个研发过程慢下来。

事实上,眼下大部分 AI 系统正是需要把控住研发结构,也就是用一套完善的框架限制 AI 的行动范围,并让其做出符合人类主流价值观的行为。这事关人类的自身利益和前途命运,需要各方联合起来共同解决。

AI 始终是人类自己发明的一把刀、一把火,不能发生被其反噬的悲剧。

参考来源:

Green Intelligence: Why Data And AI Must Become More Sustainable(Forbes)

AI’s Growing Carbon Footprint(News from the Columbia Climate School)

最新.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章