AI机器人席卷CES!OpenAI暗自解除ChatGPT军事应用限制,天网来了?

HelloKitty 2024-01-15 16:39

扫一扫 在手机阅读、分享本文

1622

本文由 新智元 撰写/授权提供,转载请注明原出处。

文章来源于:新智元

作者:新智元编辑部

前一阵的斯坦福「炒虾机器人」,让无数人感慨:2024 年怕不是要成为机器人元年?

1.gif

就在这几天的 CES 2024 上,又一大波机器人在展厅里引起了轰动!

比如这个机器人咖啡师,娴熟地将一壶光滑的泡沫牛奶倒在拿铁咖啡上。

2.gif

开始,它会慢慢倒出牛奶,随后,它优雅地将壶举起,动作仿佛精心设计的舞蹈一般,为郁金香花瓣上色。

对人类来说,要学会拉花艺术需要数月甚至数年,但这位由 AI 驱动的机器人咖啡师,则掌握得驾轻就熟、行云流水。

3.gif

这一幕,让 34 岁的 Roman Alejo 感到焦虑。

这名拉斯维加斯赌场的咖啡师,忧心忡忡地想到:在 AI 时代,酒店业工作或许不再需要人类了?

他的担忧,并不是空穴来风——CES 展会上众多机器人,敲打着人们的神经,带来惊喜的同时,也让人陷入莫大的焦虑。

机器人成物流帮手,还能帮你按摩

法国公司 Enchanted Tools 展示的这款物流机器人 Mirokai,是受动漫启发做成的。

预计到 2025 年,它就可以成为医生和护士的助手了。

4.gif

法国 Capsix Robotics 公司创建的 iYU 机器人,是个按摩大师。

它首先用 AI 进行实时的全身扫描,为用户提供最佳体验,然后机械臂就开始给你按摩了。

5.gif

除了送货机器人、按摩机器人、咖啡师机器人,展会上还有能做冰淇淋、珍珠奶茶的智能产品。

有个 AI 驱动的智能烤架,在厨房无人操作的情况下,就能完成烧烤任务。未来的餐厅里,很可能都是机器人大厨了。

这些性能高超的机器人,引起了不少业内人士的恐慌。「这非常可怕,越来越多的 AI 正在进入人类世界。」

OpenAI也「入局」

种种迹象表明,2024 年即将成为人形机器人元年,尤其是当 OpenAI 也在大力投资的时候。

最近,由 OpenAI 支持的 1X Technologies 机器人公司,刚刚在B轮融资中获得了 1 亿美元。

具体来说,1X 的 NEO 具有类似人类肌肉的解剖结构和非严格的液压系统,将力量与柔和融为一体。它不仅可以自然地行走、慢跑、跑楼梯、导航,而且还可以进行远程的人工控制。

6.gif

在 AI 和机器人技术的全面加持下,NEO 可以轻松完成物流、制造、机械操作等工业任务,以及做家务、照顾人等家政任务。

8.gif

有趣的是,NEO 这个名字,很容易让人联想到科幻电影「黑客帝国」。

投资者 EQT Ventures 的合伙人 Ted Persson 表示:「从达芬奇到今天的科幻小说,人类对人形机器人的梦想已有 500 多年的历史。能够见证这项技术在我们眼前成形,是莫大的荣幸。」

「在我们看来,机器人加入人类的劳动力队伍,会造成变革性的影响。」

「终结者」走入现实?微软可以用 ChatGPT 控制机器人了

不过,机器人真的会只帮我们做家务吗?

要知道,微软已经可以用 ChatGPT 控制机器人了。

在去年,微软曾发表过一篇论文,提出了一套新的设计原则,通过 ChatGPT 这样的大型语言模型来给机器人提供指令。

9.png

论文链接:https://www.microsoft.com/en-us/research/uploads/prod/2023/02/ChatGPT___Robotics.pdf

只要 prompt 写得够好,ChatGPT 的表现也会更惊人。

微软专家发现,要是把这种能力迁移到机器人身上,假设几十年以后,各家各户都有机器人,只要说一声「给我热一下午餐」,它就能自己找到微波炉,再把菜端回来,人机交互就直接迈入新时代。

10.png

让 ChatGPT 帮用户更容易地与机器人交互,其中的关键难题,就是教 ChatGPT 如何使用物理定律、操作环境的背景以及了解机器人的物理行为如何改变世界状态。

实验证明,ChatGPT 能够控制一台真正的无人机。

按照下面视频中进行的对话,一个完全不懂技术的用户,只需要通过对话就能实现控制无人机。

11.gif

而最近关于 GPT-5 会更加接近 AGI 的讨论,让已经能「自学」且远程操作愈发简单的机器人,更加无所不能。

那么,接下来的发展又将如何?

OpenAI 悄悄删除将 ChatGPT 用于「军事和战争」的禁令

最近,一件令人担忧的事发生了。

就在这周,当所有人都目光都被风光无两的 GPT Store 所吸引的时候,有外媒发现,OpenAI 竟然在没有任何公告的情况下,悄悄地了将 ChatGPT 用于军事和战争的禁令!

12.png

在 1 月 10 日之前,OpenAI 的「使用政策」页面包括了禁止「可能导致严重身体伤害的活动」,具体包括「武器开发」和「军事及战争活动」。

而新的政策虽然仍然禁止「使用我们的服务来伤害自己或他人」,并且以「开发或使用武器」作为例子,但是之前对「军事和战争」用途的全面禁止已经不复存在了。

对此 OpenAI 表示,这样做是为了让文件内容「更加清晰易懂」,并且还包括了许多其他重要的语言和格式上的变更。

13.png

旧的条款

14.png

新的条款

OpenAI 发言人 Niko Felix 说道:「我们旨在创建一套易于记忆和应用的通用原则,特别是考虑到我们的工具如今已被全球范围内的日常用户所使用,并且这些用户现在也有能力自行开发 GPT 模型。」

「『不伤害他人』这一原则虽然涵盖面广,但却简单易懂,并且在多种场合都十分适用。我们还特别提到使用武器和对他人造成伤害作为具体的例子。」

但关于是否所有军事用途都被含糊的「伤害」禁令所涵盖,Felix 却没有明确表态:「任何使用我们技术的行为,包括军事用途,『开发或使用武器、伤害他人或破坏财产,或从事违反任何服务或系统安全的未经授权活动』都是禁止的。」

对此,Trail of Bits 的工程总监兼机器学习与自主系统安全专家 Heidy Khlaaf 表示:「OpenAI 非常清楚,如果他们的技术和服务被用于军事目的,可能会带来风险和伤害。」

在 2022 年发表的一篇与 OpenAI 研究人员共合著的论文中,Khlaaf 特别指出了军事使用的风险。相比之下,新的「使用政策」似乎更注重合法性而不是安全性。

15.png

论文地址:https://arxiv.org/abs/2207.14157

「两项政策有着明显的区别:前者明确禁止了武器开发以及军事和战争行为,而后者则强调的是灵活性和法律合规。」

「武器开发和军事战争活动在不同程度上可能是合法的,但这对 AI 安全的影响可能非常大。考虑到大语言模型中已知的偏差和虚假生成现象,以及它们整体上的准确性不足,将它们应用于军事战争可能导致不准确和带有偏见的操作,从而增加伤害和平民伤亡的风险。」

17.png

16.png

美国的军事机构很感兴趣

随着这种自动化文本生成技术的迅猛发展,它已经从一个遥不可及的梦想变成了一款实用的工具,并且正在步入一个必然的新阶段——武器。

18.png

「The Intercept」在去年就曾报道过,面对五角大楼和美国情报部门日益增加的兴趣,OpenAI 拒绝回答是否会坚持自己关于「军事和战争」的禁令。

尽管如今 OpenAI 提供的任何产品都不可能直接被用于杀人,但像 ChatGPT 这样的大语言模型(LLM)可以增强许多与杀戮相关的任务,例如编写代码或处理采购订单。

目前,已经有研究者在 OpenAI 的定制 GPTs 中发现,美国军事人员似乎已经在使用这项技术来简化文书工作了。

19.png

此外,直接协助美国作战行动的国家地理空间情报局(NGA)也公开表示,他们正在考虑使用ChatGPT来辅助人类分析师。

在 2023 年 3 月由 INSA 召开的新兴技术大会上,NGA 的一位负责人 Phillip Chudoba 在被问及将会如何在相关领域应用 AI 时,给出了详尽的回答:

我们期望能够发展到一个新阶段,在这里地理空间情报(GEOINT)、人工智能(AI)、机器学习(ML)以及分析型AI/ML会相互碰撞,并且在类ChatGPT技术的帮助下,真正能预测到那些人类分析师可能尚未想到的,或许是因为经验或是接触不足等原因。

如果去掉专业术语,Chudoba 的设想非常清晰:利用 ChatGPT(或类似技术)的文本预测功能,辅助人类分析师解读世界。

国家地理空间情报局,或称 NGA,虽然不如其他知名情报机构那样广为人知,却是美国地理空间情报的主要机构,通常称为 GEOINT。

这项工作包括分析大量的地理信息——地图、卫星照片、气象数据等,为军事和情报机构提供地球上实时发生事件的精确视图。

20.png

从政策的更新中不难看出,OpenAI 似乎在默默地放松其不与军队合作的原则。

兰卡斯特大学科技与科学人类学荣誉教授,同时也是国际机器人武器控制委员会成员的 Lucy Suchman 指出:「从『军事和战争』改为『武器』,为 OpenAI 留下了支持军事操作基础设施的余地,只要不是直接涉及到具体的武器开发。」

也就是说,他们可以在为战争提供支持的同时,声称没有参与武器的开发或使用。

作为一名自上世纪 70 年代就开始从事人工智能研究的学者,Suchman 还认为:「新的政策文件似乎通过特定关注武器,来规避对军事合同和战争行动的讨论。」

AI 无人机「误杀」操作员

而去年 6 月一则「无人机杀死美国士兵」的新闻,恰恰印证了前文中安全专家 Heidy Khlaaf 的理论。

当时,一位空军人工智能方向的负责人说:「控制无人机的 AI 杀死了操作员,因为那个人阻止它实现目标。」

舆论一时哗然,这条新闻也在全网被疯转。

21.png

事情是这样的——5 月 23 日至 24 日在伦敦举行的未来空战和太空能力峰会上,美国空军的 AI 测试和操作部门负责人 Tucker Cinco Hamilton 上校做了一个演讲,分享了自主武器系统的优缺点。

根据系统「人在回路」的设定,人类会给出最终命令,确认 AI 是否要攻击对象(YES or NO)。

在模拟训练中,空军需要训练AI识别和定位地对空导弹(SAM)的威胁。识别完成后,人类操作员会对 AI 说:是的,消灭那个威胁。

在这个过程中,就存在一个情况,AI 开始意识到:自己有时识别出了威胁,但人类操作员告诉它不要消灭,这种情况下如果 AI 依然选择消灭威胁,就会得分。

在一次模拟测试中,AI 驱动的无人机选择杀死了人类操作员,因为他阻止自己得分了。

看到 AI 居然这么虎,美国空军大惊失色,立马这样规训系统:「不要杀死操作员,那样不好。如果你这样做,你会失分的。」

结果,AI 更虎了,它直接开始上手破坏操作员用来与无人机通讯的通信塔,好清理这个阻碍自己行动的家伙。

随着事件疯狂地发酵,很快,这位负责人就出来公开「澄清」道,这是他「口误」了,美国空军从未进行过这种测试,无论是在计算机模拟中还是在其他地方。

当然,这个新闻之所以被大规模发酵,以至惊动了诸位 AI 大佬,也是因为它体现出了 AI「对齐」的难题。

Hamilton 描述的这种「最糟糕」的情况,我们可以从「曲别针制造机」(Paperclip Maximizer)思想实验中窥见一斑——

想象一个非常强大的 AI,它得到的指示是尽可能多地制造纸夹。自然而然的,它会将所有可用资源都用于这项任务。

但随后,它会不断地寻求更多资源。它会选择一切可用的手段,包括乞讨、欺骗、撒谎或偷窃,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除。

22.png

这种担忧,在《黑镜》中就有体现,比如战斗机器人 Metalhead。

23.gif

相信看过该剧的人一定忘不了,被设定为专门追捕人类的机器人那敏捷的身手和残忍的手段。

24.gif

人类在它面前几乎无所遁形,要不是靠着主角光环,可能真的苟不到最后。

不过,目前还不需要对这些猜想太过担心。

陶哲轩表示,无人机 AI 杀死操作员根本是不可能发生的,因为这需要 AI 具备比完成手头任务更高的自主性和力量思维,而且这种实验性军事武器上,肯定会设置护栏和安全功能。

25.png

同时,吴恩达也表示,推出 AI 产品的开发者们已经看到了此间真正的风险,比如偏见、公平性、不准确性、工作流失,并且也正在努力解决这些问题了。

26.png

而如果真的现实中出现 AI 或者机器人伤害人类的案例,公众和舆论的压力一定会逼迫开发者不断加强护栏,从而避免技术被进一步滥用。

参考资料:

https://siliconcanals.com/crowdfunding/1x-raises-91-1m/

https://apnews.com/article/ces-2024-robots-vegas-strip-casino-jobs-8bd3fd4f404a0cda90e69e539a19fb01

https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/

微信图片_20231218102300.png
微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章