手机大模型爆发:vivo 发布自研蓝心大模型,参数追赶 GPT-3

HelloKitty 2023-11-02 17:08

扫一扫 在手机阅读、分享本文

2163

本文由 AI科技评论 撰写/授权提供,转载请注明原出处。

文章来源于:AI科技评论

作者:郭思

编辑:陈彩娴

11 月 1 日 vivo 开发者大会上,vivo 发布自研 AI "蓝心"大模型,并发布大模型矩阵,包括 1750 亿、1300 亿、700 亿、70 亿、10 亿五款不同参数规模的大模型,并宣布 130 亿蓝心大模型实现端侧跑通,开源 7B 大模型。

其中 1750 亿参数已达到 GPT-3 参数水平,同时 vivo 也是国内首家开源7B大模型的手机厂商。

可以说 vivo 这次开发者大会,给手机行业丢了一枚重磅炸弹。

首个开源自研 7B 大模型的手机厂商

早在 2017 年,vivo 就成立了人工智能全球研究院。

而且 vivo 一直关注通用人工智能的进展,对于 ChatGPT 引发的大模型热潮,vivo 高级副总裁施玉坚的判断是:真正好的自研大模型应该是大而全、算法强、真安全、自进化、广开源五个特征兼具。

在此 vivo 开发者大会,vivo 发布的蓝心的大模型第一大亮点便是便是参数高达 1750 亿,一举达到了 GPT-3 的参数规模。

早在 8 月份小米的大模型 MiLM-6B 就已经公布在了 GitHub上,从 GitHub 上的信息可以得知,MiLM-6B 的参数规模达 64 亿。华为此前盘古 3.0 为客户提供 100 亿参数、380 亿参数、710 参数和 1000 亿参数的系列化基础大模型。

相比起来,vivo 发布的蓝心大模型 1750 亿的参数规模,在一众手机厂商中一骑绝尘。

根据发布会资料现在,除了超大规模的 1750 亿参数和 1300 亿参数模型外, 700 亿参数模型的 vivo 云端主力模型, 70 亿蓝心大模型 7B 则是是面向手机打造的端云两用模型,在语言理解、文本创作等场景下表现非常优秀。综合表现行业领先,在各大中文榜单持续名列前茅。而 10 亿蓝心大模型 1B 则是面向端侧场景打造的专业文本大模型,具备本地化的文本总结、摘要等能力,处理过程准确又安全。

值得一提的是,vivo 此次也开源了 70 亿蓝心大模型 7B,成为了首个开源自研大模型的手机厂商。

大模型浪潮之下,开源和闭源成为商业模式上的交锋之战。

自 Llama 2 后,开源逐渐成为主流趋势,行业内甚至有声音表示未来开源大模型将杀死闭源。

vivo 自研大模型的开源意味着,vivo 正式加入了这场大模型开源之战,赤裸裸的接受行业人士的检验和批判。而另一方面,施玉坚在开发者大会上也表示,vivo 还推出了蓝心大模型开发套件 BlueKit,让其他手机厂商和开发者可以基于这款模型进行二次开发和创新。

跑起来和跑起来好用是两码事

关于华米 OV 的竞争,从智能手机时代的各项功能的角逐,发展到如今大模型时代各家的布局。如何实现轻量化、本地化的端侧部署是一个竞争关键。

某手机厂商内部员工告诉 AI 科技评论,大模型在端侧跑起来这个事儿和跑的好用起来是完全两个概念,只要内存够大,别说 13B、130B 都能跑起来。

端侧大模型本身就不容易,相比起在云端运行,走端侧这条路径意味着厂商需要在很小的算力空间,做出媲美超级大模型的效果。

大模型的特点是参数够大,在运行时需要大量的内存来存储模型参数和临时数据,而手机芯片通常具有有限的内存资源。能跑起来可能只是意味着手机上装有这个大模型,但是一旦使用,手机就会过热、卡顿。离理想的使用体验距离相差较远。

将一个大模型部署在端侧,行业采用的做法是 GPU 与 NPU 结合的方式。GPU 自不用多说,负责端侧的图形渲染处理和并行计算。

NPU(Neural-network Processing Unit,神经网络处理器)则是一类基于 DSA (Domain Specific Architecture) 领域专用架构技术的专用于人工智能(特别是人工神经网络、机器视觉、机器学习等)硬件加速的微处理器。

可以简单理解成 NPU 是去掉图形光栅这些的 GPU。大模型参数太大,也就是说相比起在云端运行,大模型要想在端侧运行就必须借用 NPU 这个助手。

这一点也可以从各家芯片厂商的动态看出端倪,在刚刚过去的高通骁龙发布会上,高通对骁龙 8 Gen3 的 Adreno GPU 和 Hexagon NPU 进行了大幅升级。

一位行业人士告诉 AI 科技评论,自从生成式 A 浪潮掀起之后,高通也在不停地考察,怎么样改变现在大模型与英伟达 GPU 绑定的趋势,高通自己做了一个 NPU 框架,但内部客户用起来,并不是很好用,好多算法在 NPU 的框架上都没有跑起来。

而作为全球移动芯片无冕之王的架构大厂 Arm 而言,对于 NPU 的部署也一直在进行,Arm 很早之前就推出 Arm 智能视觉参考设计,集成了安谋科技开发的玲珑 VPU 和周易 NPU。

此次 vivo 开发者大会,vivo 高级副总裁施玉坚表示,vivo 蓝心大模型在端侧的运行可以直接跳过 NPU,只需要在 GPU 上运行。这句话被一语带过,到底是一句噱头还是行业重大突破,我们暂时还不得而知。但是可以肯定的是,如果 vivo 真的能实现在端侧部署大模型不需要用到 NPU,那将会成为行业的重大突破。

不过从效果上来看,vivo10 亿参数蓝心大模型1B确实惊艳。

在此次开发者大会上,vivo10 亿参数蓝心大模型 1B 的运行效果可达到最快 64 字/秒(3840/分)的出词速度。而资料显示,根据输入的关键词或文章大纲,自动生成相应的文章段落或初稿,ChatGPT 平均速度约为 2000-3000 字每分钟。如果真如宣传所说,那么 vivo10 大模型端侧的运行效果能超过 ChatGPT。

不过值得注意的是,虽然行业一直在谈终端运行大模型,但是我们还是得区分瘦终端与标准终端的区别。

标准终端设备具备自己的硬盘、RAM、控制计算单元,通过安装 full-fledged OS 可以跑计算和存储程序,乃至于具备近场的 AI 算力,具有完整的运算能力。

而瘦终端则是指一个终端只具备最基础的硬件设施和轻量级的 light OS,其所有的功能都必须通过联网/云端实现,终端本身通常只具备基础的显示或者初级的计算存储功能。

简而言之,就是市面很多厂商宣传的终端运算其实模型存储在云,计算也还是在云,终端只负责基础的展示和实现。

这两者概念的混淆也可能会成为大众对于终端运行效果的误解。

1.png

手机厂商做大模型的路径之争

在此次 vivo 开发者大会上,vivo 表示,蓝心大模型在 SuperCLUE-Sagety 安全总榜上超过了讯飞星火与文心一言,以总分 85.17 的分数霸榜第一。榜单当然只是一个辅助标准,但是主打安全这一点确定是 vivo 与现在市面上其他手机大模型厂商的一个显著竞争点。

在大模型布局上,小米注重“轻量化、本地部署”同时也发力了诸如机器人、智能家居等多种产品形态,而和 vivo 同出一脉的 OPPP 近期也有新动作,注重大模型在语音助手上带来的巨大改变。

vivo 的侧重点则回到了手机厂商做大模型最本源的优势,数据与安全。

2.png

手机作为每个人日常生活的必备终端,存储着非常多个性化和隐私化的数据,如果全部在云端运行,隐私泄露等事情比比皆是。

另一方面,在 ChatGPT 浪潮掀起之前,可信 AI 本来就是行业关注的重点,如果避免大模型的幻觉、偏见、毒性等问题也是各方在进行技术研发时所关注的重点。

在安全方面,除了模型的可信性得到了保证,vivo 此次还推出了蓝河操作系统,主打智慧、流畅、安全。值得一提是是蓝河操作系统是行业首个系统框架由 Rust 语言编写的操作系统,用 Rust 语音编写也是保障安全的一个重中之重。

目前常见的操作系统内核都是基于 C 语言,因为 C 语言简单独立十分好用,但也有它的缺点缺少有效的并发支持,导致内存和并发漏洞成为当前操作系统的噩梦,也就是不够安全。

而 Rust 语言具有与 C 一样的硬件控制能力,且大大强化了安全编程。从某种角度上看,新出现的 Rust 语言的核心目标是解决 C 的短板,取代 C。所以用 Rust 写 OS 具有很好的开发和运行的体验。

蓝河 OS 有几个亮点,比如说:和 AI 大模型深度捆绑,能够自动生成桌面,没有虚拟机,直接内核运行,还按 PC 的设计理念做 OS。

可以说对于安全,vivo 打出了一套组合拳,这也是为什么开发者大会上,vivo 一直强调自研大模型必须真安全的原因。

环顾整个手机赛道, 目前竞争已经进入存量博弈阶段,手机厂商需要在新技术上建立竞争优势,也需要通过新的卖点角逐高端市场。

这次 vivo 开发者大会给人明显感觉就是 vivo 在多条腿走路。

而从单一的手机布局到如今的多矩阵走路,这一点,与其说是 vivo 冲向 AI 时代的技术高歌,不如说,是 vivo 面向现今手机行业困境的一次反击。

在这场反击过程,vivo 对于大模型的布局让人眼前一亮,也让人不得不期待后续 vivo 大模型故事的走向。

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章