HelloKitty • 2023-04-19 16:29
2070
本文由 甲子光年 撰写/授权提供,转载请注明原出处。
文章来源于:甲子光年
作者:赵健
在刚刚过去的 3 月,以大模型引领的生成式 AI 浪潮在全球科技圈狂飙,甚至以天为单位迭代。
如今,这股大模型风潮从海外刮到了国内,并且愈演愈烈。
本周,王小川、商汤科技、昆仑万维先后更新大模型动态。在这场争先恐后的大模型浪潮中,创业公司基本还处在招兵买马的阶段,云厂商成为当下唯一对公众开启类 GPT 大模型邀测的公司。
上周五,阿里云刚启动大模型“通义千问”邀测,而在昨天的阿里云峰会上,阿里巴巴集团董事会主席兼 CEO、阿里云智能集团 CEO 张勇正式宣布:阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面改造。目前,钉钉、天猫精灵已经接入测试,将在评估认证后正式发布新功能。
张勇认为,面向 AI 时代,所有产品都值得用大模型重新升级。
以 ChatGPT 为代表的 AI 大模型是一个划时代的里程碑。英伟达 CEO 黄仁勋称之为“AI 的 iPhone 时刻”,比尔·盖茨评价为“不亚于互联网诞生”。
张勇指出,大模型是一场“AI+云计算”的全方位竞争,超万亿参数的大模型研发,并不仅仅是算法问题,而是囊括了底层庞大算力、网络、大数据、机器学习等诸多领域的复杂系统性工程,需要有超大规模 AI 基础设施的支撑。
面对全新的 AI 时代,首次兼任阿里云智能集团 CEO 的张勇表示,阿里云已经做好了准备。通过 IaaS、PaaS、MaaS 三层智算体系的完整平台化打造,阿里云可为各行业及企业打造自己的专属大模型。张勇还表示,未来阿里云面向行业的专属模型的算力成本,有望降低到今天的 1/10 甚至 1/100。
从单纯的 AI 技术比拼,到全面的算力体系竞争,阿里云将云厂商的大模型鏖战,推进到全新的层次。
云厂商打响大模型军备竞赛
大模型的成功背后,云厂商扮演了关键的角色,就连推出了 ChatGPT、站在全世界聚光灯下的 OpenAI,也离不开云厂商——微软 Azure 的助力。
今天,几乎所有的大模型都是基于谷歌在 2017 年发布的论文《Attention is all you need》中所提出的 Transformer 模型。要完成大模型的训练,雄厚的资金实力是必要条件。
比如,OpenAI 的 GPT-3 模型训练耗费了大约 1200 万美元,有人调侃为“Money is all you need”。
2019 年 7 月,OpenAI 获得了微软的 10 亿美元投资,其中一半为 Azure 云计算的代金券。今年1月,微软再次宣布未来几年向 OpenAI 投资 100 亿美元,Azure 将为跨研究、产品和 API 服务的所有 OpenAI 的工作负载提供支持。
这是一个双赢的合作,OpenAI 获得了训练大模型所必需的财力与算力,而微软也成为 OpenAI 的独家云供应商,以及利润优先分成权。
可以说,如果没有微软的支持,今天就不会有 ChatGPT,黄仁勋口中反复强调的“AI 的 iPhone 时刻”也不会到来。
微软四年前这笔 AI 投资获得了巨大回报。在最近一次财报中,微软表示已经有 200 多个客户——从毕马威到半岛电视台——正在使用 Azure OpenAI 服务,仅 Azure ML 的收入就连续五个季度增长超过 100%,安盛、联邦快递和 H&R Block 等公司都选择该服务来部署、管理和治理其模型。
在微软尝到 AI 的甜头之后,其他云厂商也坐不住了。
在微软宣布追加投资 OpenAI 之后不到一个月(2 月 6 日),谷歌向 AI 初创公司 Anthropic 投资了约 3 亿美元,后者开发了一款与 ChatGPT 相抗衡的聊天机器人。谷歌云成为 Anthropic 的首选云提供商。此次合作涉及谷歌云为 Anthropic 构建大规模 GPU 和 TPU 集群,以训练其 AI 系统。
紧接着,2 月 22 日 AWS 宣布与美国 AI 创企 Hugging Face 扩大合作,以加速构建生成式 AI 应用的大型语言模型和大型视觉模型的训练、微调和部署。Hugging Face 是 OpenAI 的主要竞争对手之一。
在国内,同样掀起一股类 ChatGPT 狂潮。
2023 年 1 月,百度内部开始正式规划用大模型做出一款对标 ChatGPT 的产品,不久之后率先发布文心一言,并打包牵引出它的云服务。
阿里则显得更迅猛。
早在阿里巴巴上一季度的财报会上,张勇就首次预告阿里将全力构建好自己的AI预训练大模型,并为市场上风起云涌的模型和应用提供好算力的支撑。更有消息传出,阿里云是国内高端GPU囤货量最大的云厂商。
上周,阿里云启动大模型 “通义千问”邀测;昨天又在云峰会上宣布将阿里所有产品接入通义千问,并开放通义千问的能力,帮助每家企业打造自己的专属大模型。
再加上还未公开亮相但一直声音不断的腾讯混元大模型、华为盘古大模型,大厂们纷纷入局,这场大模型的军备竞赛已经打响了。
必须抓住的机会
业界通常认为,全球云厂商高速增长的“黄金时代”已经过去,一个普遍的事实是,云厂商们都遭遇了增长乏力的现状。
海外三家云巨头亚马逊、微软、谷歌,在 2022 年 Q4 的合计营收虽然同比增长 25.7% 至 439.6 亿美元,但环比却出现了 5.9% 的下降。细分到每一家,亚马逊 AWS、微软 Azure、谷歌云营收同比增速分别为 20.2%、31.0% 和 32.0%,环比下降为 7.3%、4.0% 和 5.6%。
在 2022 年财报电话会上,亚马逊首席财务官 Brian Olsavsky 表示亚马逊已经注重到了 AWS 营收的持续放缓趋势。
云收入放缓的部分原因在于,企业用户对于云计算的支出需求在下滑。亚马逊高管表示,AWS 客户希望减少在云计算方面的支出。
研究机构 TrendForce 今年 2 月也发布预警,Meta、微软、谷歌、亚马逊这四家云厂商的服务器采购量可能从年增 6.9% 放缓至 4.4%,这一举动将拖累 2023 年全球服务器出货量年增长率下滑至 1.87%。
为了应对业务下滑趋势,亚马逊甚至已经开启了两轮裁员,其中就包括 AWS 部门。
但大模型有望改变云增长持续放缓的局面,打开新的增量市场。
在深度学习兴起的头十年之间,AI 模型基本上是针对特定应用场景需求进行训练的“小模型”,属于传统的定制化、作坊式的模型开发方式。但在 2015 年至 2020 年期间,用于训练大模型的计算量增加了 6 个数量级,并且在手写、语音和图像识别、阅读理解和语言理解等方面超过了人类。
大模型的出现能够提高模型的通用性、降低AI落地应用的门槛,实现 AI从“手工作坊”到“工厂模式”的转变。
在 Gartner 发布的 2022 年重要战略技术趋势中,以大模型驱动的生成式 AI 就位列 12 项重要战略之首。同时Gartner预计,到 2025 年,生成式 AI 将占所有生成数据的 10%,而目前这一比例还不到 1%。
但是,训练大模型需要消耗巨大的算力。OpenAI 的研究表明,2012 至 2018 年 6 年间,在最大规模的人工智能模型训练中所使用的计算量呈指数级增长,其中有 3.5 个月的时间计算量翻了一倍,比摩尔定律每 18 个月翻一倍的速度快得多。
在此背景下,公共云将是 AI 新型基础设施的最佳载体。
硅谷知名风投 A16Z 在博客中表示,生成式 AI 的大量资金最终都稳定地流向了基础设施层——以亚马逊 AWS、微软 Azure、谷歌 GCP 为主的云厂商,以及以英伟达为代表的 GPU 厂商。
据 A16Z 估计,应用层厂商将大约 20%~40% 的收入用于推理和模型微调,这部分收入通常直接支付给云厂商或第三方模型提供商,第三方模型提供商也会将大约一半的收入用于云基础设施。因此,总的来看生成式 AI 总收入的 10%~20% 都流向了云提供商。
巨大的市场需求,在收入放缓的背景下,刺激了云厂商对 AI 的投入不降反升。
在新的 AI 时代,率先拿到大模型入场券的云厂商,将有机会改写市场格局。
GPU 是基础但不是全部
作为大模型的“发动机”,以 GPU 为核心的算力也被放在了聚光灯下。
进入 2023 年,英伟达的股价也乘着大模型的东风一飞冲天,仅仅头 3 个月,市值增长超过 80%。
不过,人们常常忽略的一点是,算力只是训练大模型的必要不充分条件。
实际上,微软 Azure 为了支持 OpenAI 训练大模型,除了准备了上万颗英伟达 A100 GPU 芯片之外,也做了大量的优化工作。
微软 Azure 与 OpenAI 一起共同设计了一台超级计算机,专门用来做 GPT 模型的训练,同时要确保它们不与 Azure 提供的其他服务产生冲突。
在某些时候,这些 GPU 需要相互交流来分享他们所做的工作。对于 AI 超级计算机,微软必须确保处理所有芯片之间通信的网络设备能够处理这种负载,并且它必须开发出最大限度地利用 GPU 和网络设备的软件。同时,微软还要考虑数据中心的断电、散热等问题。
在阿里云 CTO 周靖人看来,GPU很重要但不是全部:“大模型的训练往往需要几千甚至上万张 GPU 卡共同协作来完成,卡与卡之间的连接,机器与机器之间的连接,如何构建一个高吞吐、低延迟的网络,以及高效的存储,都是智算基础设施的重要环节。如果没有这些环节,光有 GPU 的卡,就很难跑出规模超级大的模型。”
阿里云是国内最早涉足 AI 大模型研发的云厂商之一,因此对于大模型的训练经验有足够的发言权。
早在 2019 年,阿里就发布大规模预训练语言模型 structBERT,并登顶全球 NLP 权威榜单GLUE,成就国内大厂在 AI 领域的突出贡献之一。此后,2021 年,阿里先后发布国内首个超百亿参数的多模态大模型 M6,并演进至全球首个 10 万亿参数大模型。
OpenAI 的前政策主管 Jack Clark 曾公开点评 M6 模型,称它“规模和设计都非常惊人。这看起来像是众多中国的 AI 研究组织逐渐发展壮大的一种表现。”
像M6这样的超大模型,极其考验算力基础设施,这是阿里云作为亚太第一、全球第三的云厂商的市场地位之外,更重要的技术证明。
周靖人把它总结为全新的 “飞天智算基础设施”,主要包含三层系统服务能力:
. IaaS:阿里云可支持最大十万卡 GPU 单集群规模,是可承载多个万亿参数大模型同时在线训练的智算集群,并可为万卡规模 AI 集群提供无拥塞通讯的自研 RDMA 网络架构等;
. PaaS:以机器学习平台 PAI 为核心,阿里云可支持万卡的单任务分布式训练规模,AI 训练效率提升可达 10 倍,推理效率提升可达6倍,覆盖全链路 AI 开发工具与大数据服务,深度支持了通义大模型的研发;
. MaaS(Model-as-a-Service):阿里云提供通义大模型系列和以之为基础的企业定制大模型,以及国内首个“模型即服务”开放平台魔搭社区。
阿里云全新的智算框架已通过了内部更严苛的考验与实践。周靖人介绍称:“比如 M6 模型从最开始的百亿参数规模,一直训练到后来的 10 万亿参数规模,在训练过程中解决了很多系统问题、网络问题、调度问题、编译系统问题。”他总结到,阿里云的基础设施具备了训练至少 10 万亿参数规模模型的能力,是能够快速推出通义千问这样一个语言大模型的核心基础。
在本次阿里云峰会上,首次兼任阿里云智能集团 CEO 的张勇表示,面向智能化时代,阿里云已经做好了准备。
阿里云把大模型普惠进行到底
作为大模型的探险者,OpenAI 的成功几乎是烧钱烧出来的。据估算,OpenAI 的模型训练成本高达 1200 万美元,GPT-3 的单次训练成本高达 460 万美元。
这当然极大提升了大模型的进入门槛。而把大模型做得更普及、更便宜,将是接下来大模型的主要趋势之一。
在云峰会上,张勇对阿里云的战略定位就两句话:让算力更普惠,让 AI 更普及。
2022 年云栖大会上,周靖人首次提出 model as a service 模型即服务(MaaS)。阿里云是在全球第一个提出 MaaS 概念的大公司。
MaaS 理念来源于市场和实践。周靖人观察到,今天不是所有的企业都需要从头开始训练,也不需要从头去做多种语料训练,消耗大量的机器资源,这无异于“重复造轮子”。
“我们希望今天在通义千问模型之上,结合企业的场景、企业的知识体系、企业的行业特殊需求,产生一个企业的专属模型,比如企业自己的智能客服、智能导购、智能语音助手、文案助手、AI 设计师、自动驾驶模型等。”周靖人说。
阿里云新开辟的MaaS市场一呼百应。
阿里云峰会当天,OPPO 安第斯智能云宣布,将联合阿里云打造大模型基础设施,基于通义千问进行持续学习、精调及前端提示工程,未来建设服务于 OPPO 海量终端用户的AI服务。
同时,中兴通讯、吉利汽车、智己汽车、奇瑞新能源、毫末智行、太古可口可乐、波司登、掌阅科技等多家企业表示,将与阿里云在大模型相关场景展开技术合作的探索和共创。
这还不够。行业专属大模型适合有一定研发能力的大型企业客户,而面向广大的中小企业与个人开发者,阿里云联合达摩院牵头建设了国内规模最大的 AI 模型服务社区“魔搭”。
阿里云联动澜舟科技、深势科技、智谱 AI 等 17 家机构,在魔搭以开源方式提供超 800 个 AI 模型,以及行业和学术热门的公开数据集,以及阿里巴巴集团贡献的专业领域数据集。
社区上线以来,在不到半年的时间内魔搭社区吸引了超百万用户,模型累计下载次数超过 1600 万,已经成为国内规模最大、最活跃的模型社区。
如今,MaaS 的概念基本已经成为全球云厂商的共识,构建行业的专属大模型也成为云厂商正在进行的实践。
在最近一次财报中,微软表示已经有 200 多个客户正在使用 Azure OpenAI 服务;百度文心大模型已经在工业、金融、交通、媒体等领域,发布了 10 多个行业大模型。
周靖人表示:“我们比较欣慰地看到越来越多的行业、云计算厂商还有更多的互联网公司也开始认同这样的一个观点,甚至今天也开始按照这样一个观点去打造自己的产品服务体系。我们已经真正进入到了一个模型的世界。”
除了 MaaS 之外,阿里云的另一个核心战略就是——降价。
过去十年,阿里云提供的算力成本下降了 80%,存储成本下降了近 90%。阿里云通过软硬一体技术的研发来降低成本,先后自研了 CPU 倚天 710、云数据中心处理器 CIPU、数据中心网络等。
放眼全球,自研芯片也是 AWS、谷歌等云大厂的共同趋势。
今年,阿里云将推出一款更接近云计算终极形态的算力产品——通用 Universal 实例,进一步屏蔽了传统 IT 的硬件参数,让数据中心真正成为一台超级计算机。通用 Universa l实例的价格对比上一代主售实例最高可下降 40%。
除此之外,周靖人告诉「甲子光年」:“虽然有技术前瞻性与先发优势,但阿里云并没有停下创新的节奏。今天发布的是通义千问,其实也在做下一代的技术演进与布局。模型的二次开发、推理服务今天仍然非常昂贵,这也是阿里云要攻克的一个方向。”
张勇表示,云计算是 AI 大规模普及的最佳方式,“未来,我们希望在阿里云上训练一个模型的成本,能够降低到现在的十分之一,甚至是百分之一。即使是中小企业,也能通过云平台获得 AI 大模型的能力和服务。”
重构 AI 行业,需要比微软更彻底
当大模型开始普及,AI 行业会发生哪些变化?
对此,张勇表示,AI 大模型的出现是一个划时代的里程碑,人类将进入到一个全新的智能化时代,就像工业革命一样,大模型将会被各行各业广泛应用,带来生产力的巨大提升,并深刻改变我们的生活方式。他认为,面向 AI 时代,所有产品都值得用大模型重新升级。
在阿里云峰会上,张勇宣布,“阿里所有产品将用大模型全面改造。”
将大模型落地为应用实践,国外看微软,国内看阿里云。
微软是全球布局动作最快的云厂商。在 OpenAI 发布 ChatGPT 后不久,其大股东微软便马不停蹄对旗下软件产品进行了 AI 改造,把包括搜索引擎 bing、协作工具 Teams、ERP 和 CRM 系统软件 Dynamics 365 等。
3 月 17 日,微软在 GPT-4 官宣后的第二天,就迫不及待地将其接入 Office 套件,推出全新的 AI 功能 Copilot(副驾驶),通过自言语言指令来自动创建文档、表格与 PPT。
对于微软一系列“光速”变革,前钉钉副总裁、明略科技首席战略官张思成曾对「甲子光年」评价道:“动作快到不像微软。”
国内云厂商中,目前来看动作最快的是阿里云。
对于现有产品接入类 GPT 大模型做改造,并不只是对接一个 API 这么简单,不仅要保证两个产品之间的无缝对接,还要保证向前兼容已有的客户和服务,中间必须经过大量的测试和调试。
钉钉、天猫精灵将率先接入通义千问测试,并将在评估认证后正式发布新功能。
根据钉钉当天披露的 demo 演示,接入通义千问之后的钉钉可实现近 10 项新 AI 功能。通过类似微软 Copilot“副驾驶”的设定,可随时随地唤起 AI,开启全新工作方式。
比如,在钉钉文档中,通义千问可以创作诗歌小说、撰写邮件、生成营销策划方案等;在钉钉会议中,通义千问可以随时生成会议记录并自动总结会议纪要、生成待办事项,通义千问还可以帮助自动总结未读群聊信息中的要点。
最惊艳的是,钉钉展示了拍照生成小程序功能,上传一张功能草图,不用写一行代码,即可立刻生成订餐轻应用——这与 GPT-4 宣传片中展示的一张草图生成网站代码异曲同工。
此外,通义千问还将陆续嵌入阿里电商、搜索、导航、文娱等场景。比如在网购场景,用户如果想开生日 party,通义千问可以帮助生成生日活动方案和购物清单。或许下一个 killer app,就从阿里云的通义千问中长出来。
红杉资本将大模型驱动的生成式 AI 分为文本、代码、图片、语言、视频、3D 等数个应用场景。红杉资本认为,生成式 AI 至少可以提高 10% 的效率或创造力,有潜力产生数万亿美元的经济价值。
黄仁勋将 ChatGPT 的诞生称之为“AI 的 iPhone 时刻”。正如 App Store 产生之后才构建了移动互联网庞大的生态,只有真正构建起大模型的生态,AI 的生产力革命才真正带来价值。
这场大模型的鏖战才刚刚开始。
扫码关注公众号
获取更多技术资讯