HelloKitty • 2023-11-20 17:33
1700
本文由 硅兔赛跑 撰写/授权提供,转载请注明原出处。
文章来源于:硅兔赛跑
作者:Lexie
编辑:Lu
近年来,各种反乌托邦式英美剧大火,而人工智能频繁成为了其中的重要话题,比如《西部世界》中描绘的“杀人”机器人,《黑镜》中演绎的生成式 AI 偷取真人生活等等。
《黑镜:我不是机器人》片段
现实生活中,AI 已经有了不少“黑料”,鼓励抑郁症用户自杀、为用户提供如何刺杀英国女王的建议、还有对未成年用户提供细思恐极的建议等等,此外AI的使用也在某些情况下加深了社会上的歧视、仇恨言论和虚假信息的传播,导致错误逮捕、诽谤、网暴和谣言等各种社会性问题加深。
自从 AI 诞生,它对人类的赋能和其对社会危害的讨论一直是并行的,正是因其双刃性,科技圈的各种大佬对 AI 的态度也是大相径庭,甚至可以说,AI 成为了有史以来让科技圈态度最为割裂的话题之一。
AI 保守派
在众多对 AI 采取较为保守态度的科技大牛中,最让人有些惊讶的就是被称为“ChatGPT”之父的 OpenAI CEO - Sam Altman。
在去年 ChatGPT 推出后,Altman 就开始了对于 AI 监管的大型游说,在华盛顿与两党领导人和副总统等白宫内阁成员就 AI 进行讨论,呼吁政府出手对 AI 进行监管,他还在 25 个城市内进行了为期一个月的全球巡回演说,与各国领导人会面,开诚布公的探讨 AI 的潜在危害以及表达对 AI 监管的需求。今年 5 月,他还主动参加了一次关于 AI 讨论的国会听证会。
Sam Altman 在国会听证会上
与此前小扎和贝索斯等人毫不情愿出现在听证会上,还要面红耳赤与国会成员争吵辩论的画风不同,Sam Altman 选择主动参加会议,在会议上 Altman 表示,如果 AI 技术产生危害,这些危害将非常致命,他想和政府合作防止最坏情况的发生。
在具体应用领域上,Altman 指出,AI 被用于传播虚假信息是他最担心的事情。他还认为,AI 有可能会带来失业,但也有机会创造新的工作机会,政府的决策很大程度上可以决定事情向哪个方向发展。同时他还建议成立 AI 监管机构,为大规模 AI 模型的开发颁发许可,AI 模型的安全法规和测试在向公众发布之前必须通过许可。
Altman 的主动攻势对于引导政府对 AI 的态度极其重要。
因为他游说的主题虽然是监管 AI,但同时更是让立法者对人工智能产生兴趣和进行了解,缩小了以往华盛顿和硅谷间的信息鸿沟,避免此前科技公司与立法者间关于干预程度的冲突。
他的策略也确实起了作用,立法者已经将他视为 AI 监管的导师和盟友,会邀请他对 ChatGPT 进行介绍,也在立法时寻求他的建议。
就在这一听证会后不久,Altman 还与多位 AI 科学家共同签署了一封信,内容非常简短,只表达了“我们应该将减轻 AI 对灭绝人类的风险作为全球的首要任务”,签署这封信的还包括 DeepMind 的 CEO Demis Hassabis,Anthropic 的联合创始人 Daniela Amodei,以及被称为“AI 教父”之一的 Geoffrey Hinton。
Geoffrey Hinton 在 Google 任职有十年之久。他在神经网络和深度学习方面的开创性研究为 ChatGPT 等人工智能系统奠定了基础。
今年 Hinton 宣布将从 Google 离职,主要是为了可以更加公正自由的对公众介绍 AI 带来的危害。他曾在多个场合表示,AI 目前的智能已经到了令人细思恐极的地步,虽然还没有达到人类的水平,但这一未来并不遥远,同时 AI 将以我们无法还想象的方式改变社会,而这些改变很大程度将是糟糕的,比如恶势力使用 AI 发动军事袭击等等,他认为 AI 所带来的威胁比气候问题还要严重,甚至表示他后悔自己在 AI 方面做出的努力。
Geoffrey Hinton 的观点
同样有着“AI 教父”之称的 Yoshua Bengio 与 Hinton 观点类似,他在与 Business Insider 的采访中表示,AI 乐观派认为 AI 灭绝人类并不会成为问题,但没人能确保这一点,在没有证据保证这一末日不会到来之前就宣扬它的安全性是不负责的。
选择站在这一战线的还有 Elon Musk、著名认知科学家 Gary Marcus、还有 Apple 的联合创始人 Steve Wozniak 等。
他们在今年 3 月联合数百位科技界的知名人士共同签署了一封公开信,号召所有 AI 研究室立即停止训练比 GPT-4 更强大的 AI 模型至少半年,为了防止 AI 的进展太快对社会和人类产生巨大风险,目前联名人数已经超过了 3 万。
号召暂停AI研究的公开信
AI 降临派
不过,与上述大佬持反对态度的也大有人在,他们对于“AI 灭绝论”没那么紧张,反倒是更看重 AI 对社会发展的积极作用,其中的主要声音之一就是与上面提到的 Geoffrey Hinton和Yoshua Bengio 曾一起获得图灵奖的 Yann LeCun。
LeCun 以其在卷积神经网络方面的工作而知名,目前是 Meta 的首席人工智能科学家。
Yann LeCun 对于 AI 发展的态度更偏向于大胆和乐观,就在 10 月末,他加入了其他 70 多位学者大牛,签署了题为“关于 AI 安全性和开放性联合声明”的一封公开信,信中提到,我们正处于 AI 发展的关键时刻,为了减轻 AI 对当前和未来的危害,我们应该拥抱更加开放、透明和广泛的 AI 权限,这应当成为全球的首要任务。
信中并没有对开放式 AI 模型的潜在危险避而不谈,重点更多放在了警告 AI 监管的危害上,比如过早采取错误监管会导致权力集中,从而损害竞争和创新。同时还建议从开源到开放科学等多个方面去加速进行 AI 的尝试和研究,降低新玩家进入 AI 竞赛的门槛等等。信的最后写到“在人工智能安全方面,开放是解药,而不是毒药,” 这封公开信目前已经有接近 400 个知名人士的签名。
“关于AI安全性和开放性联合声明”的一封公开信
Yann LeCun 最近还在 X 上发表了长篇小作文表达自己对 AI 监管说的不满。
不但抨击了 Altman 等人对 AI 监管的态度,还剑指 Geoffrey
Hinton 和 Yoshua
Bengio 是在为这些 AI 监管游说者提供弹药。他说,“如果你们成功让人们开始畏惧 AI,那么我们曾经都认为的世界末日就会真正到来,那就是只有少数公司能够掌握对 AI 的控制权。”
LeCun 最后还将问题的严重程度上升到了社会层面,他质问 AI 监管论者是否思考过它对民主和文化多样性会产生什么样的影响,并表示这些问题让他彻夜难眠。
Yann LeCun的推文
与 Yann LeCun 站在同一战线并且也签署了上面这封联合声明的还有知名 AI 学者、Google Brain 的创始人和斯坦福大学计算机科学系教授吴恩达(Andrew Ng) 。
他不但反对社会上对 AI 监管的声音,而且直白表示科技大公司们只是为了自身利益才试图夸大人们对 AI 的恐惧,因为他们并不想与开源公司竞争。吴恩达还在自己的 X 上发表了推文,表示目前对于 AI 监管的游说将会促成一些压制开源和阻碍创新规定的建成,而这则是他最恐惧的事情。
Andrew Ng的推文
随后 Geoffrey Hinton 很快在这条推文下进行了回复,不但出了一道题,让吴恩达计算 “如果 AI 不被严格监管,它在未来 30 年内导致人类灭绝的概率是多少?我的估计是 0.1,我猜 Yann LeCun 估计的值小于 0.01,” 而且还表示,“如果大公司游说 AI 监管是为了自己利益而进行的阴谋论,那么我从 Google 离职不就是最好的反证吗?”
随后 LeCun 加入讨论,表示他估计的概率是比其他能够导致人类灭绝原因的概率小的多,并且让 Hinton 计算 AI 拯救人类免于灭绝的概率。
吴恩达也很快回复,表示自己并没有说这是一场阴谋论,但举了一些例子来表达过度夸大 AI 的恐惧会带来的真正伤害,比如新的人才拒绝加入 AI 领域,因为他们不想成为人类灭绝的帮凶,并再次强调了监管对开源和创新的伤害。
大佬们的讨论推文
与 Yann LeCun 和吴恩达等人类似,持 AI“乐观论”的还有美国知名经济学家 Eric Von Hippel、AI 开源模型库软件 Hugging Face的CTO Julien Chaumond、AI Now 机构的创始人 Meredith Whittaker、a16z 的合伙人 Anjney Midha,还有来自多个高校的知名 AI 研究者,比如哥伦比亚大学的 Camille François、UC Berkeley 的 Deborah Raji、以及普林斯顿的 Arvind Narayanan 等等。
讨论未休,监管已至
在大佬们对 AI 的讨论如火如荼进行的同时,白宫也加速了立法和监管方面的脚步。
近几个月来,拜登政府频繁与科技公司高管和民权领袖会面,讨论 AI 的发展问题,白宫在 5 月宣布向国家科学基金会提供 1.4 亿美元,专用于建立全国多个 AI 研究所,还陆续在 7 月和 9 月与 Amazon、Google、Meta、Microsoft 和 OpenAI 等多家科技公司达成协议,这些科技公司表示它们将增加对网络安全和歧视研究的投资,以及会对用户公开告知 AI 生成内容及其风险。
10 月底,白宫还发布了首个关于人工智能的行政命令,旨在为 AI 安全和保障制定标准,在促进创新和竞争的同时保护公民的隐私和权利,这一规定中的主要内容包括:
. 要求研发 AI 模型的大公司在其系统对外公布前与美国政府分享其安全测试结果;
. 美国国家标准与技术研究所将为广泛的红队测试制定严格标准,国土安全部也将成立人工智能安全委员会;
. 美国商务部将制定内容认证和水印指南,来明确标记人工智能生成的内容;
. 加速联邦支持对隐私保护技术的开发,比如让 AI 系统在被训练的同时更好的保护训练数据;
. 在司法和民权等多个系统内对 AI 算法进行更明确的指导,以防 AI 被用来加深社会歧视问题;
. 推动 AI 在医疗保健和教育领域的应用,比如用于开发药物和创造教育资源;
. 通过国家 AI 研究资源试点加速全美的 AI 研究,为小型开发者提供资源支持,吸引 AI 方面的人才留美。
白宫发布人工智能行政命令
与此同时,由英国主办的首届全球人工智能安全峰会也在英国布莱切利公园举行。这也是“AI 之父”图灵发明第一代图灵计算机的地点,来自中国、美国、英国在内的28个国家及欧盟领导人参会,并共同签署了“布莱切利宣言”。
宣言承诺,以安全、负责和以人为本的方式进行 AI 的开发和使用,其中提到各国应共同关注 AI 安全风险并建立基于这些风险的科学认知和理解,同时各国还应各自制定适用于国情的基于风险的人工智能政策。
英国首届全球人工智能安全峰会
对于科技初创公司来说,立法规定往往意味着对技术发展浇下的一盆冷水。
但此次来自政府的行动却不全然如此,比如白宫规定中鼓励对 AI 类人才的引进将有望打破目前初创公司难以留住外国人才的现状,政府对 AI 推动教育的期许也代表着教育科技类公司将可能获得风投外来自政府的资金支持等等。
任何科技的发展都是在支持和反对的声音中前进的,而 AI 正因背负着巨大的期待,在未来很长一段时间内仍会成为话题中心,甚至将继续“割裂”硅谷的声音,也许历史和时间能告诉我们真相,在评论里讨论下你更支持哪一派的声音呢?
参考来源:
OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing (The New York Times)
Meta’s Yann LeCun joins 70 others in calling for more openness in AI development (TechCrunch)
Joint Statement on AI Safety and Opennes (Mozilla)
Biden’s AI Order May Have Wide Impact For Startups (Crunchbase)
AI's most famous leaders are in a huge fight after one said Big Tech is cynically exaggerating the risk of AI wiping out humanity (Business Insider)
扫码关注公众号
获取更多技术资讯