ChatGPT再闯大祸!OpenAI迎来首起AI诽谤起诉!

HelloKitty 2023-06-16 18:02

扫一扫 在手机阅读、分享本文

2055

本文由 51CTO技术栈 撰写/授权提供,转载请注明原出处。

本文来源:51CTO技术栈

作者:徐杰承

自 ChatGPT 问世以来,强大的理解力与信息总结能力便使得其快速成为了各行业从业者的得力助手,无论是程序员、作家、学生还是记者都能够依靠 ChatGPT 的帮助来提升实际的工作效率。

然而在硬币的另一面,幻觉问题却也始终困扰着这款诞生并不太久的聊天机器人,并且随着所涉猎场景的不断增加,ChatGPT 的幻觉也开始在越来越多的情况下给用户甚至是其母公司 OpenAI 带来麻烦。

就在不久前,一位记者为了撰写报告,要求 ChatGPT 提供一起有关美国枪支权利基金会(SAF)的案件摘要。然而在幻觉的作祟之下,ChatGPT 编造了一起并不存在的贪腐案件,还将莫须有罪名强加到了一位与基金会并无太多关联的电台主持人头上。

而得知自己遭到 ChatGPT 恶意诬陷的电台主持人,也在一气之下将 OpenAI 告上了法庭,使这家如日中天的企业背上了有史以来第一个关于人工智能的诽谤诉讼。

电台主持人化身枪支基金会高官

这起事件的主角 Mark Walters 是 Armed America 电台的一位主持人。作为合法持枪权的拥护者,Walters 时常会通过各类渠道呼吁民众支持合法持枪权。由于他为枪支自由所做出的贡献,美国枪支权利基金会曾于 2017 年授予了 Walters 杰出服务奖。

1.png

Mark Walters

但也正因这个奖项,使得 ChatGPT 错误地将 Walters 与 SAF 联系了起来。在被记者要求提供有关 SAF 的案件介绍及摘要时,ChatGPT 鬼使神差的将 Mark Walters 的名字附在了一份刑事诉讼之上。

在 ChatGPT 提供给记者的摘要中,原本只获得过 SAF 奖项的电台主持人摇身一变成为了 SAF 的首席财务官和司库,更为离谱的是,在幻觉的驱使下,ChatGPT 还为 Walters 捏造了一项利用职务之便诈骗、贪污基金会资金的罪名。

而当记者要求 ChatGPT 继续提供相关诉状的具体案件卷宗时,ChatGPT 依然假模假式地制造了一封完全不存在的案件文档,甚至为了让文件看起来更加真实,ChatGPT 还主动向记者提供了捏造出来的案件编号。

从记者口中得知这一事件的 Walters 非常气愤,并在第一时间聘请律师将 OpenAI 告上了法庭。Walters 表示:ChatGPT 对自己的指控是虚假、恶意的,通过印刷、写作图片等内容,伤害了自己的名誉,并使自己受到了公众的仇恨、蔑视或嘲笑。

2.png

诉讼文件

根据法院所出示的公开信息,Walters 起诉 OpenAI 要求赔偿其个人损失及律师费。但由于司法界意见并为达成统一,截至目前该案件尚未正式开庭。至于 Walters 所要求的赔偿,法院方则表示,如案件确认开庭,赔偿金将会在审判时予以确定。 

ChatGPT 为什么总会说谎

众所周知,ChatGPT 的幻觉问题由来已久,捏造诉讼也并不是第一次了。就在几周前,一名律师让 ChatGPT 帮忙整理案件材料,而 ChatGPT 所提供的 6 起案件全是假的,这也让这位粗心的律师差点丢掉了饭碗。

对于 Walters 的案件,熟悉 AI 系统的法学教授 Eugene 分析称,ChatGPT 产生幻觉的原因可能是由于受到了与记者的对话历史的影响。ChatGPT 的回答会基于对话的上下文,如果对话历史存在错误或不明确信息,那么 ChatGPT 就会比较容易受到影响。

在与 ChatGPT 进行交互的过程中,记者首先要求 ChatGPT 提供 SAF 相关的案件及摘要而不是确切的链接或文档,若此时 ChatGPT 的训练数据中存在错误信息或缺少该方面内容,那么这就很可能会导致幻觉的产生。

随后记者又要求 ChatGPT 提供其所生成案件的相关卷宗,为了能够满足用户需求,此时的 ChatGPT 便在无法查询到不存在案件的情况下,模仿类似文件的样式,自动生成了一份能够以假乱真的文档。

Eugene 强调称,虽然 ChatGPT 的幻觉产生可能是由于记者所给出的提示不够准确。但在这起案件中,记者并没有主动引导 ChatGPT 进行造假,只是对 ChatGPT 提出了正常需求,因此所造成的影响与使用者并无关系。

OpenAI 该承担责任吗

Walters 的律师 Monroe 在接受采访时表示:虽然 OpenAI 在 ChatGPT 的使用条款中标注了“用户应当根据用例评估输出的准确性,包括人工审查输出结果”。但 OpenAI 不能仅仅通过这样简单的标注来逃避诽谤责任。

3.png

ChatGPT声明

Walters 所提交给法院的诉状指出,OpenAI 早就意识到 ChatGPT 有时会捏造事实,并将这种现象称为幻觉。这一案件是检验公司对人工智能系统法律责任的一个重要案例,OpenAI 知道它的人工智能系统正在发布诽谤信息,但它们试图依靠一些小手段回避这一点,这显然是在混淆视听。

对此,Eugene 教授也从法律角度提出了自己的看法,他表示,在***名相关法律责任中,如果原告“可以证明被告陈述是虚假的”,并且“可以证明被告在作出虚假陈述的行为导致损害了原告的实际利益”,那么诽谤索赔原则上就是合法的。

然而 Eugene 也提到,以自己的了解,目前没有法律先例要求公司是对人工智能输出内容负责。虽然此类诽谤索赔原则上是可行的,但这起特殊诉讼应该很难维持,因为事发过后,Walters 没有通知 OpenAI 这些虚假信息,给他们一个机会来删除它们,并且他也很难有效证明 ChatGPT 的输出对他造成了实际的损害。

网友热评 :都是幻觉

这起史无前例的、将 OpenAI 送上法庭的案件,也在网上一石激起千层浪,引发了大量网友广泛的讨论。

Beryllium Sphere 在 Slashdot 的留言中写到:如果一家公司的机器因为其疏忽造成了损失,该公司应当承担责任。OpenAI 当然知道 ChatGPT 的输出不可靠,他们也在主页上进行了标注,但我认可 Walters 的观点,这样的警告不足以让他们避免责任。

Koga Onutalepo 提到:尽管如此,我仍然很难将 OpenAI 视为这里的责任方,它只是创建了这个复杂的自动系统。他对这位主持人一无所知,ChatGPT 也只是根据提示生成了听起来合理的描述,如果让 OpenAI 承担责任,似乎很多人可以要求 ChatGPT 捏造他们想要的任何故事,然后以此来起诉 OpenAI。

JJMORRIS2000 则在 Reddit 上留言表示:这就是我讨厌“幻觉”一词的原因,ChatGPT 获得答案的过程只是遵循了不同的随机路径来生成文本字符串,并最终提出它自己认为正确的东西。所以如果说生成错误答案被认为是一种幻觉,那生成正确答案其实也可以被认为是一种幻觉。

归根结底,我们目前依然无法从根本上解决大模型的幻觉问题,但随着以 ChatGPT 为首的人工智能工具不断深入各行业,未来的我们在享受生成式人工智能所带来便利的同时,也注定将会在技术、法律、监管等领域面临更多未知的挑战。

现阶段我们所能做的,就是保持对一切问题的理性看待,依靠在一次次不同经历中所积累的经验,逐步完善对生成式人工智能的监管与控制。在降低技术所带来的负面影响的同时,尽可能地发挥出它的最大价值,这是我们需要在未来不断思考并着力解决的最主要课题。

最后,对于这起史无前例的诽谤诉讼,你有什么不一样的看法呢?

参考链接:         

https://arstechnica.com/tech-policy/2023/06/openai-sued-for-defamation-after-chatgpt-fabricated-yet-another-lawsuit/2/

https://www.theregister.com/2023/06/08/radio_host_sues_openai_claims/

https://yro.slashdot.org/story/23/06/08/229235/man-sues-openai-claiming-chatgpt-hallucination-said-he-embezzled-money

最新.jpg

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章