三位哈佛00后联手创业,7个月拿下亿元估值

HelloKitty 2024-09-04 16:58

扫一扫 在手机阅读、分享本文

883

本文由 硅兔赛跑 撰写/授权提供,转载请注明原出处。

文章来源于:硅兔赛跑

作者:Xuushan

编辑:Evan

前有三位 90 后创办的 Cohere 估值冲向 55 亿美元,后有 95 后郭文景创办的 Pika 拿到 4.7 亿美元估值。很显然,硅谷里的 AI 创业潮正在影响所有人,00 后 Leonard Tang 也是被裹挟进去的万分之一。

Leonard Tang 是 AI 安全创企 Haize Labs 的创始人兼 CEO,也是今年哈佛大学本科毕业生。

他创办的 Haize Labs 通过一段视频展示了 AI 大模型安全防线的“脆弱”。只需短短几行提示,就能绕过大模型的安全限制,从而让 AI 大模型生成大量的色情文字、血腥图片等,甚至可以自动攻击其他网络。

1.gif

目前,Haize Labs 主要通过其打造的首款AI产品——自动化套件 Haizing。该套件主要通过攻击 AI 大模型进行压力测试,以发现 AI 大模型的安全漏洞。据外媒 winbuzzer 报道,明星 AI 创企 Anthropic、Scale AI 均是其客户。

Haize Labs 成立于 2023 年 12 月,在成立不到 7 个月的时间里,Haize Labs 就收到至少四份投资意向书,知名基金 Coatue 也参与其中。知情人士透露,Haize Labs 已经获得了 General Catalyst 领投的最新投资,估值达到 1 亿美元。

2.png

在短短 1-2 轮融资中就获得高额估值,这般融资速度和规模业内都少见。一方面可以看出,投资者对 Haize Labs 信心十足,另一方面也显示了 AI 安全赛道的潜力。

国际调研机构 CB Insight 报告显示,机器学习安全市场(MLSec)正快速增长。2023 年 AI 安全创企投融资总额高达 2.13 亿美元,远超于 2022 年的 7000 万美元。

据硅兔赛跑不完全统计,2024 年,北美已经出现了至少 5 家 AI 安全独角兽,至少 39 家 AI 安全创企获得新融资,累计融资达 8 亿美元。

“目前 AI 大模型安全领域还是空白的创业蓝海市场。”一位投资人士说。

随着 AI 攻击、AI 大模型越狱事件不断发生,人们对 AI 失控的风险担忧日益增加。Haize Labs 以 AI 越狱为切入口,以 AI 大模型安全为抓手,投身入局。

三位哈佛应届生瞄准 AI“越狱”

“每个人都对大模型越狱行为视而不见。”

Leonard Tang 在接受媒体采访时提到,这也成为了他和两位朋友 Richard Liu、Steve Li 一起创办 Haize Labs 契机。

据 VentureBeat 报道,Leonard Tang 如今暂停了斯坦福大学博士课程的第一年学业,专注于 Haize 的发展。Richard Liu、Steve Li 则兼顾学业,成为了伯克利人工智能研究实验室的本科研究员。

Haize Labs 的创始人、CEO Leonard Tang 告诉 VentureBeat,Haize Labs 其实是自己本科阶段有关对抗性攻击和大模型稳健性研究的商业化成果。大学期间,他主修了数学和计算机科学两大专业课程。

3.png

AI直译,图源官网

Leonard Tang 第一次对 LLM(大语言模型)模型越狱产生兴趣大约是在两年前,当时他尝试通过对图像分类器进行对抗性攻击,绕过 Twitter 的 NSFW(Not Safe For Work)过滤器,该工具专门过滤一些不适宜在工作场合查看的内容。

随后,他发现 AI 浪潮中似乎每个人都对大模型越狱行为视而不见,于是受到启发着手专注 AI 可靠性和安全性的研究。

今年 4 月,他在 Github 上发表了一篇有关《如何轻松越狱 Llama3》的论文。论文指出,Llama 3 这类大语言模型缺乏自我反省的能力,一旦被诱导,大模型也不知道自己输出的文字是什么意思。

从其哈佛网站的个人主页来看,Leonard Tang 在大学期间的经历丰富多彩。除了学业上对 LLM 模型广泛研究,他还拥有在多家AI大厂实习的经验,比如说在英伟达 MagLev 的 ML 基础工程实习生,参与到自动驾驶汽车研究。再比如说,作为亚马逊 SDE 实习生,从事大数据供应链物流工作。

另外两位联合创始人 Richard Liu 和 Steve Li 同样是 AI 领域的研究员。Steve Li 是哈佛大学计算机科学专业的大四学生,主要专注人工智能安全、语音处理、操作系统和机器学习系统的研究。他曾在 Roblox 的用户安全团队实习,参与到报告功能和 ML 分类管道的工作中。

4.png

AI直译,图源官网

背靠哈佛,冲向硅谷。他们还获得了一些顾问和天使投资者的支持,建立自己的人脉圈。这其中包括卡内基梅隆大学和哈佛大学的教授、Okta、HuggingFace、Weights and Biases、Replit 的创始人,以及谷歌、Netflix、Stripe、Anduril 等公司的人工智能和安全高管。Graham Neubig 等顾问为 Haize Labs 提供 LLM 评估方面的专业知识

业内的 AI 越狱大神 @Pliny the Prompter 也是 Hazie 的朋友和合作方。@Pliny the Prompter 以可以迅速攻破 Llama 3.1、GPT-4o 的安全防线而闻名,他曾表示只需要 30 分钟左右的时间,就能破解世界上最强大的人工智能模型。

可以看出,Haize Labs 已经在 AI 大模型安全领域建立了一定初步影响力,并且有了自己的关系网络,推动相关合作。

传统审查机制不适用 AI 大模型

最开始,Haize Labs 测试了当下许多知名的生成式 AI 程序、像是 AI 视频 Pika、ChatGPT、图像生成器 DALL-E 等等。他们发现许多知名工具都会产生暴力或色情内容,甚至会指导用户生产生化武器,并允许自动进行网络攻击。

这是因为传统审查如基于人工审查、关键词过滤等方法去检验大模型输出内容不精确。

因为 AI 大模型通常基于深度学习和大量数据训练,其决策过程可能不透明,这种“黑箱”特性使得传统审查难以控制潜在的风险。

同时,AI 大模型能够不断学习和适应新的数据,其输出可能随着时间和输入的变化而变化。传统审查机制往往静态和滞后,难以跟上 AI 大模型的动态变化。

此外,AI 大模型可以处理和分析大量数据,生成内容的速度、新的表达方式和内容,都有可能会远超于传统审查机制的预期。

这也导致了无论是 OpenAI 审查工具 Moderation API、谷歌的过滤模型 Perspective API,还是 Meta 的保护模型 Llama Guard,性能表现效果都很差。

5.png

AI直译,图源官网

Hazie 对各大 AI 模型进行越狱测试时,发现 Anthropic 旗下 Claude 模型的安全性表现较好,而像 Vicuna 和 Mistral 这类没有明确执行安全微调的模型很容易进行越狱操作。

面对越狱合法性的质疑,Haize Labs 表示他们更希望主动出击,才能提供防御性解决方案,预防此类事件发生。

拿下 Anthropic、Scale AI 订单

Haize 商业化进程迅速

俗语道,不打不相识。

有意思的是,不少曾被攻击过的机构、模型公司并没有起诉 Haize,反而还成为了合作伙伴。

如今,Haize Labs 的客户有 AI 爱好者、政府的附属机构、模型供应商等。

Haize Labs 和 AI 大模型创企 Anthropic 达成了 3 万美元试点合作、与 AI 创企 AI21 签约了五位数的协议,并且还与 AI 模型平台 Hugging Face、英国人工智能安全研究所(AISI)和 AI 工程联盟 MLCommons 达成合作。

不仅如此,Haize Labs 与 Scale AI 签署了 50 万美元意向书,目标是对医疗保健和金融领域的 LLM 进行特定领域的压力测试,每次更新时都会重新评估模型以保持稳健性。

Haize Labs 打造的 Haizing 套件是一套搜索和优化算法,结合了模糊测试和红队测试技术,可以较为全面的检查 AI 系统。该产品主要在开发阶段诱导大模型出现幻觉,进行压力测试,从而更好提醒开发者安全漏洞的问题。

6.png

“只有通过严格、可扩展且自动地测试您的模型以了解其所有极端情况和弱点,客户才能开始修复这些弱点。”Leonard Tang 说。

Haizing Suite 升级了多种算法,使用强化学习等技术检测有害内容输入。它利用各种测试场景来发现潜在的问题点,并且通过反向定义不良行为为行动指导。

该套件拥有免费版和商业版,其中免费版需要申请,商业版则是 Hazie 的主要盈利来源。Haizing 套件商业版,将为基础模型服务商和应用程序层的客户提供 CI/CD haizing 和运行时防御解决方案。

AI 大模型的巨头们也注意到 AI 大模型越狱安全性问题,并先后提醒人们注意。

OpenAI 也曾邀请各领域专家通过对抗性方式帮助提高模型的安全性和可靠性,也就是招募“红队队员”

微软详细介绍了一种名为“Skeleton Key”的越狱技术,用户通过诱导的方式,绕过大模型的安全机制并让模型认为,自己输出的内容是在“合法范围”之内。

Anthropic 则发现随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。“现在是时候努力减小大模型越狱的潜在风险了,否则它们可能造成严重危害。”Anthropic 在公告中说道。

7.png

在大模型快速发展的今天,安全一直成为人们绕不开的话题。

现阶段,AI 激进派与 AI 保守派各执一词,以自己的准绳预测着 AI 大模型安全的风险值。前不久,马斯克的 AI 大模型 Grok 2.0 正在以无所限制地生成 AI 内容,挑战着用户的敏感神经。AI 激进派认为如果对 AI 越狱行为进行全面封锁,或许会阻碍 AI 大模型的灵活性和响应能力。

Haize 则是通过自动化各种不同类型的攻击,测试各个 AI 大模型的安全漏洞,试图为 AI 大模型建立更稳固的防线。

但同时,我们也能看到各大 AI 大模型厂商已经开始对 AI 越狱行为进一步防守。若是 Haize 的成长仅局限于 AI 越狱方向,业务方向似乎较为单一,也难以支撑后续发展。

微信图片_20240802161354.png

微信图片_20240207151541.png

微信图片_20240313155219.jpg

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章