淘金先富卖铲人!OpenAI推企业版ChatGPT,英伟达造AI安全卫士!

HelloKitty 2023-04-27 15:48

扫一扫 在手机阅读、分享本文

1591

本文由 51CTO技术栈 撰写/授权提供,转载请注明原出处。

文章来源于:51CTO技术栈

作者:千山

借用陆奇在 4 月 23 日深圳的分享来说,GPT 现在已经进入了淘金时代。虽然全球涌现出成千上万的大模型或 ChatGPT 变种,但一直能挣钱的人往往是卖铲子的人。

这不,围绕暴风眼中的大模型,已经有不少企业,开始研究起了大模型的“铲子”产品,而且开源和付费两不误。

英伟达:给大模型上安全护栏

不管 ChatGPT 能不能笑到最后,英伟达肯定是大赢家。做大模型的生意不止是芯片,还有工具和服务。

大模型会产生“幻觉”,是一个被人诟病的事实。英伟达很快就打造了一个“安全护栏”NeMo Guardrails,它充当一种针对基于大型语言模型 (LLM) 构建的应用程序的检查器,而且这个“铲子”已经在 Github 上开源了。

有了它,大模型应用的开发者可以轻松开发安全可靠的 LLM 对话系统。NeMo Guardrails 可以与所有 LLM 一起使用,包括 OpenAI 的 ChatGPT。

该工具包由社区构建的工具包提供支持,例如 LangChain,它在短短几个月内就在 GitHub 上收集了约 3 万颗星。这些工具包提供可组合、易于使用的模板和模式,通过将 LLM、API 和其他软件包粘合在一起来构建 LLM 支持的应用程序。

Nvidia 应用研究副总裁 Jonathan Cohen 昨天在与记者的简报会上谈到了这款新软件,并表示:“Guardrails 是一个很好的向导,有助于保持人与人工智能之间的对话正常进行。”

据称,NeMo Guardrails 使开发人员能够设置三种护栏:

. 局部护栏:“防止应用程序转向不需要的区域”。Cohen 给出了一个例子是:一名员工询问人力资源聊天机器人哪些员工收养了孩子。护栏阻止聊天机器人尝试回答这个问题。

. Safety 护栏:是一个广泛的类别,包括事实核查(防止幻觉)、过滤掉不需要的语言和防止仇恨内容。

. Security 护栏:限制应用程序仅与已知安全的外部第三方应用程序建立连接。

开发人员还可以“用几行代码”创建自己的自定义规则。NeMo Guardrails 可以在各种使用 LLM 的工具上运行。简报中提到的第一个是 LangChain,它是开发人员用来将第三方应用程序插入 LLM 的开源工具包。它还能与支持 LLM 的应用程序(例如 Zapier)一起使用。

值得注意的是,开源归开源,不影响变现。集成到产品中却是要付费的。

虽然 NeMo Guardrails 可以通过 GitHub 单独使用,但 Nvidia 也将其集成到他们自己的几个产品中。它在 NeMo 框架中可用,“其中包括用户使用公司专有数据训练和调整语言模型所需的一切。” 此外,Nvidia 已将其作为一项单独的付费服务提供。

01 事实核查:用大模型来监管大模型

那么,如何防止幻觉呢?

有趣的是,作为 Safety 护栏的一部分,事实核查不是由人完成的,而是由另一个 LLM 完成的。Cohen 解释说,这是因为组织可以定制和培训 LLM,使其成为特定数据的事实核查员。

“在非常具体的任务上使用大量数据训练语言模型也有很多价值,我们(包括社区)有很多证据,比如当你用大量的例子对这些模型进行微调时,它们实际上可以表现得更好。”

1.png


图片来源:英伟达

02 如何实现的?无限套娃!

在一篇技术博客文章中,Nvidia 表示 NeMo Guardrails 是建立在 Colang 之上的,Colang 是一种建模语言,其用于对话式 AI 的相关运行时。Cohen 将其描述为“一种用于描述对话流的特定领域语言”。

根据 Nvidia 的说法,与 Colang 的交互“就像一个传统的对话管理器”。

2.png

Colang 代码示例

至于护栏是如何实现的,Cohen 解释说它是一个运行 Colang 脚本的 Python 模块。运行时“监控人类说话和机器人说话,并跟踪对话的状态。”

根据 Cohen 的说法,关键在于运行时“能够确定护栏是否适用”。然而,LLM 再次被用来做出这个决定。

在对代码进行了越来越深入的研究后,仍然看不到结尾,你可以沮丧地惊呼“一路往下都是乌龟!”

这是指地球在乌龟背上的比喻。乌龟站在什么上面?又是一只乌龟。。。

Cohen 对此进行了辩护,他说:“为什么我们不使用大型语言模型?[它] 是一种如此强大的技术,可用于上下文理解和概括以及这种模糊推理。”

当然,从事实核查和安全的角度来看,对 LLM 的严重依赖确实让人怀疑系统的可靠性。但这肯定是它作为开源软件发布的原因——让社区的力量来处理那些“无限套娃”的问题吧。

OpenAI :增设新功能“关闭历史聊天”、新增企业收费版

当然领先的淘金者往往也是“金铲子”的发明者。这不,OpenAI 对于数据安全的优化,继续领跑,推出了新功能和新版本——关闭历史聊天,可导出数据,推出企业订阅!

此前,ChatGPT 被曝出用户的历史聊天记录出现在别人的用例中。这次,OpenAI 推出了更为人性的功能:引入了在 ChatGPT 中关闭聊天历史记录的功能。当聊天历史记录被禁用时,开始的对话不会用于训练和改进我们的模型,也不会出现在历史记录侧边栏中。

这些控件从今天开始向所有用户推出,可以在 ChatGPT 的设置中找到,并且可以随时更改。我们希望这能比我们现有的选择退出流程更容易地管理您的数据。当聊天记录被禁用时,我们将保留 30 天的新对话,并仅在需要监控滥用情况时进行审查,然后永久删除。

3.png

如何在ChatGPT中禁用历史记录的说明

此外,OpenAI 也为需要更多数据控制的专业人士以及寻求管理最终用户的企业,开发了新的 ChatGPT Business 订阅。ChatGPT Business 将遵循我们的 API 数据使用政策。默认情况下,最终用户的数据不会用于训练 GPT 模型。ChatGPT 企业版未来几个月内推出。

最后,设置中的新导出选项,使导出 ChatGPT 数据和了解 ChatGPT 存储的信息变得更加容易。用户在在电子邮件中将收到一个包含对话和所有其他相关数据的文件。

市面上缺少识别 AI 生成内容的工具

除了解决 AIGC 产生幻觉,历史聊天等数据泄露的问题,其实更迫在眉睫的问题是:AI 滥用的问题。

进入 4 月以来,AIG C生成的内容已经开始充斥不少知名的平台,比如知乎上已经有些用户开始滥用 AI 来回答问题。

4.png


紧接着,知乎官方也发布了声明,并表示:“批量发布 AIGC 类内容的行为有违知乎社区价值观,社区对此类行为零容忍,将持续加强对违规帐号的打击力度。”

5.png

“若知友们发现有利用 AIGC 技术,扰乱社区秩序的内容或帐号,可通过「举报」-「扰乱社区秩序」-「AI 生成内容」的途径反馈给我们,我们将第一时间展开核查和处理。”

但从声明可以看出,目前还只是通过举报的形式来辨识,我们依旧缺乏有力的技术工具来识别是否是 AI 辅助生成的内容。

最后,这个“嗅探真假”的工具产品也许是时候问世了,而且越早越好。

写在最后

以 ChatGPT、Midjourney 等为代表的 AIGC 空前热闹,我们都在关注这一轮 AI 变革给千行百业带来的机会空间。今天,我们看到 OpenAI、英伟达、内容平台在围绕着它,正在探索着这个空间的落地之处。

浪潮之中,淘金者甚众。我们在抓紧窗口期追赶国产版“ChatGPT”的同时,别忘了浪潮周边的配套“铲子”产品是否已经跟上,比如安全产品、各行业的专用产品,内容质量的识别产品等等。

参考链接:

https://thenewstack.io/nvidia-launches-ai-guardrails-llm-turtles-all-the-way-down/

https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt

https://zhuanlan.zhihu.com/p/624717941

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章