HelloKitty • 2023-03-03 11:07
1733
本文由 量子位 撰写/授权提供,转载请注明原出处。
文章来源于:量子位
作者:关注前沿科技
ChatGPT 火遍全世界,与之相关的一切都在风口浪尖。
OpenAI 首席执行官 Sam Altman 看似随意分享的一句话,就成为热议的焦点:
新版摩尔定律很快就要来了,宇宙中的智能每 18 个月翻一倍。
一些人猜测可能指神经网络的参数量,但和过去几年的数据并不对的上。
一些人理解是包括人和AI在内所有智能体的能力,但这个指标如何衡量又成了问题。
也有很多学者、网友并不认同这个判断,IBM 科学家 Grady Booch 表示这是胡说,就被顶成了热评第一。
对于这些讨论,Altman 只是简单的回复了“现在还没开始”。
但不管怎么说,AI 飞速发展的背后,算力是一个明确可衡量的指标,也是必不可少的条件。
早在 2018 年,OpenAI 还发表过另一个与摩尔定律形式相近的观点:
从 2012 年的 AlexNet 到 2017 年底的 AlphaGo Zero,训练最大 AI 模型所需算力每 3.4 个月翻一番。
不久之后,他们自己发布的 GPT-3 又把这个数字缩短到 2 个月翻一番。
到了 ChatGPT 时代,需要考虑的就不只是AI训练算力,全球 1 亿月活用户、接入微软必应搜索等产品,AI 推理算力也是重要支撑。
最直接为 ChatGPT 提供算力的是微软 Azure 云,从 2019 年第一次向 OpenAI 投资 10 亿美元开始就是 OpenAI 的独家云供应商。
最新追加 100 亿美元投资时,双方在声明中再次强调了这一点。
独家供应,意味着 OpenAI 的开发基础设施全部构建在 Azure 云上,使用 Azure 云提供的工具链。
也意味着即将到来的 AI 创业大军,要想基于 ChatGPT 也只能选择 Azure 云。
相应的,谷歌 AI 背后有自家的谷歌云,云计算行业第一的亚马逊也紧急找来 HuggingFace 合作部署开源大模型 Bloom。
……
而云计算并不是算力的源头,就在 ChatGPT 的火爆火热中,算力供应侧出现一批表现亮眼的公司。
有些玩家你或许马上就能想到,但也有一些参与者,由于之前其他业务太出名,可能在意料之外。
这其中,就有一位来自中国的选手。
新摩尔定律,离不开算力
上一波以图像识别、推荐算法为代表的 AI 应用落地,推动数字经济发展的时候,算力从一个技术名词上升成经济学名词,被产业、学界反复强调。
这一波生成式 AI 引爆全球热情的时候,算力再一次升级成了与普通人工作生活相关的,被大众所感知到。
ChatGPT 消耗多少成本?
半导体行业资讯机构 SemiAnalysis 做过一个估算:以 GPU 衡量,需要约 3617 台英伟达 HGX A100 服务器,也就是 28936 块 A100;以资金衡量,用户每一次提问的成本是 0.36 美分,一天就要花费 69 万美元。
得出的结论是:如果让 ChatGPT 承担谷歌搜索的全部访问量,总共需要 410 万张英伟达 A100 GPU。
所以自然而然,英伟达就是那个 ChatGPT 火爆中最知名的获利者。目前英伟达在 AI 芯片市场约占 75%-80% 份额,ChatGPT 每一次热搜,都是老黄账户金币到账的声音,在这波热潮加持下,截至最新财报公布之时,英伟达的股价在 2023 年足足上涨了 45%。
CEO 黄仁勋也在电话会议上有个最新表态:
“生成式 AI,让全球企业都有了开发和部署人工智能的战略紧迫感。”
而且这还只是开始,根据花旗银行则预测,未来 12 个月内英伟达 GPU 销售额可达到 30 亿至 110 亿美元。
英伟达之外,从 GPU 往上游追溯 ChatGPT 红利赢家,是位于芯片制造层的台积电。
近期就有报道称,近期英伟达、AMD 包括苹果都对台积电下紧急订单,希望抢占未来产能。
之前,台积电多年来的收入支柱一直是智能手机业务,但在 2022 年,智能手机销量惨淡,人工智能爆发的双重影响下,高性能计算业务连续三个季度反超——或许也是时代转关的先声。
更重要的是,台积电实际也已经明确了这种变化。在最近的对外发声中,台积电对于接下来的一年给出了乐观预期,表达也非常耐人寻味:尽管全球半导体产业面临衰退,但全年业绩仍有望小幅增长。
当然,如果更加简单粗暴推导,其实英伟达涨的时候,台积电业绩也不会差,毕竟产业链角色和供需关系就放在那里。
那按照这种供需,是不是 ChatGPT 带来的算力层红利,也会到云计算、云服务厂商了?
是,也不全是。
就在 ChatGPT 的火爆中,诸多分析指向了云计算,但也有分析快速把目光集中到了中间环节——GPU 到云计算服务的中间环节——服务器。
芯片要想真正发挥作用,绕不过服务器:芯片之间如何高速互联,整个机柜如何控制能耗和散热,系统设计如何适应不同工作负载,都影响着最终性能和效率。
Gartner 就有预测称,到 2025 年,全球服务器市场规模会达到 1350 亿美元,其中 AI 服务器和 AI 云服务更是会呈爆发态势。
而也就是在这一环节,在 AI 服务器方向,藏着文章开头提到的来自中国的算力参与者。
联想集团,Lenovo。
或许之前,你对联想集团认知更多的是 PC,但 PC 的本质也是个人算力。
联想走过这样一条从 PC 到高性能计算,再到更广泛的算力基础设施之路。
这有最直观的财报数据为证。根据联想集团公布的第三季度财报(2022 年 10-12 月),其ISG(Infrastructure Solutions Group)基础设施方案业务,营收增长 48%,运营利润更是猛增 156%。
与 DigiTimes 统计的同期全球服务器出货量同比下降 7.1%,环比下降 4.3% 形成鲜明对比。
联想集团 ISG,提供的正是算力为核心的基础设施输出和方案,服务器是其中最重要的业务之一。
并且更直接地细分到服务器业务,该季度营收同比增长了 35%,已经成为了全球第三大服务器提供商——来自 GhatGPT 的算力红利功不可没。
但 ChatGPT 的突然爆火,实际也只是把联想集团作为算力赢家的隐秘角色推到了台前。
联想靠什么成为算力“隐形”冠军?
联想集团董事长兼 CEO 杨元庆称,ChatGPT 背后所需要的普慧算力基础设施恰好是联想已经布局多年的强项。
对算力设备的需求联想早已预见,并提出“端-边-云-网-智”的新IT架构。
去年,联想进一步提出普慧算力。即随着数据爆炸式增长,我们进入了一个全新的数字化、智能化的时代,对于计算的需求如雨后春笋,“单兵作战”的设备以及本地化的数据中心已经远远不能满足随时随地的计算需求,需要“端-边-云-网-智”的新 IT 架构为用户提供无处不在的普慧算力。
由此可见,联想想成为的并不是生产算力的“水源”,而是“送水人”——将芯片整合成可高效释放算力的服务器,更不容易被外界感知。
在这个角色和定位中,联想集团很“强”——这种强核心是两个方面。
一是服务器产品性能;二是数量规模。
在该领域,全球高性能计算榜单 TOP500 是观察服务器算力的最佳参考,而如果打开最新一期全球高性能计算榜单 TOP500(2022 年 11 月),就可以感知到上述所说的联想集团之强。
市场份额占比 32%,以 160 台的供给占比全球第一,甚至领先第二名惠普集团近 12 个百分点。
而且联想集团这个算力供应,还具有客户构成上的普遍性和多元性。
在回答日本经济新闻社的提问时,联想集团执行副总裁 Kirk Skaugen 就曾凡尔赛式透露:全球排名前 10 的公有云提供商中,有8个是联想集团的客户。
换句话说,联想服务器得到了全球客户的认可,这对国产服务器厂商来说很不容易。
这些客户中,外界猜测就包括了云领域第二名的微软 Azure 云——ChatGPT 背后的加速引擎、以及“金主爸爸”。
当初微软大手笔投资支持 OpenAI 时,就有评论说,精明的微软 CEO 纳德拉哪里会用真金白银的投资支持,核心提供的还是等价云服务,既获得了 OpenAI 股权,实现了顶级AI研究机构的战略布局,又给自家 Azure 云带来了客户和增涨,简直一石二鸟,这生意亏不了。
只是没想到,疯狂的 OpenAI 还真用大模型搞出了名堂,真用一个偶然创新出的 ChatGPT 点燃了全球科技互联网,让所有玩家陷入大模型、生成式AI的沸腾中。
微软不仅率先获益,还把老对手谷歌逼到墙角,动摇了谷歌搜索的现金奶牛,纳德拉估计最近梦都是甜的。
而与微软合作关系密切、还在 2022 年拿下微软设备合作伙伴奖的联想集团,甜头已经直接展现在财报业绩上了。
另外,也是这层关系,也就能理解 2021 年联想集团创新科技大会上,为什么会出现微软 CEO 纳德拉了,只不过当年的公告还太“行业黑话”,需要结合今日 ChatGPT 红利才能真正看明白,当时公告是这样写的:未来双方在 PC、云计算与边缘计算、服务三个领域展开更深入合作。
不过即便联想集团成为了 ChatGPT 这波热潮的算力提供者,就意味着这种前景可持续吗?毕竟微软和 ChatGPT 的案例有其特殊性,幕后的联想集团尝到甜头有幸运的因素。
但从 ChatGPT 确立的大模型发展方向来看,趋势会持续下去,算力供给侧还会随之发生方向性改变。
据《财经十一人》最近基于多位基础设施人士观点得出的结论称,AI 算力会对云计算的财务模型带来重大影响,背后都是摩尔定律式的指数增长逻辑:
其一,AI 算力消耗量、增速,将远大于通用算力消耗量。信通院 2022 年数据显示,2021 年中国通用算力规模 95 EFlops,增速为 24%,占比 47%。智能算力规模是 104EFlops,增速为85%,占比超 50%。这意味着,智能算力会成为云计算的新一轮增长点。
其二,智能算力的价格高于通用算力。通用算力的价格在不断降低,由于 AI 算力相对稀缺,价格目前正在被推高。理论上看,实现规模化运营的AI算力比通用算力的毛利率高 10% 以上。
其三,AI 算力+大模型在垂直行业的使用可以让新的应用模式产生。比如金融、自动驾驶、医疗研发、智能制造场景下,企业通常需要采购企业的 AI 大模型开源平台,调教适合自己业务的小模型。这种 PaaS 化的 AI 服 务可以带来 60% 以上的毛利润。这是目前加深 AI 算力/AI 模型使用的最佳路径。
这种 AI 算力方向性的变革,具体到中国市场,还可以推演出更具体影响:
目前不可否认的是,中国云厂商的 AI 算力、大模型和微软存在较大的差距。其原因是,算力规模、数据规模、模型精度都存在差距。以算力规模为例,支撑 ChatGPT 的智能算力集群至少需要使用上万张英伟达 GPU A100 显卡。一次完整的模型训练成本超过 1200 万美元。
ChatGPT 背后的智能算力集群,仅 GPU 显卡采购成本就超过 10 亿元。国内目前能够支撑起类似基础设施的企业不超过3家。中国云厂商的数据中心通常只配备了数千张 GPU 显卡。原因是采购一片英伟达顶级 GPU 的成本高达 8 万元。一台服务器通常需要 4 张-8 张 GPU,一台 GPU 服务器的成本通常超过 40 万元。国内服务器均价为 4 万-5 万元。这意味着 GPU 服务器的成本是普通服务器的 10 倍以上。
所以这波大模型驱动的技术变革浪潮,对中国算力供应玩家的挑战和机遇,也基本能推导而出了。
首先,必须具备完整、成熟、稳定的智能算力集群基础设施。
其次,相关产品在综合性能之外,还需要具备能效优势——环保且省成本。
于是明确了这两点结论,大概也就能知晓联想集团作为 ChatGPT 红利背后隐藏赢家,算力前景方向上还会可持续下去的原因了。
如果算力迎来新摩尔定律,不可忽视的就会是能耗问题,国家发展改革委高技术司主要负责人 21 年曾表示,我国数据中心年用电量约占全社会用电的2%。
换个更直观的说法是“每年耗电超过 2.5 个三峡大坝发电量”,摩尔定律是一种指数增长,而三峡大坝发电量是不可能指数增长的。
联想集团为此研发了领先的“海神”温水水冷技术,使用 50°C 温水通过流动循环带走热量,省去了冷水机组和换热器,还可以利用余热为建筑供暖,每年电费节省和排放降低超过 42%
在最新的全球 HPC Green500 榜单上,联想集团交付的 Henri 系统以每瓦特电力消耗可执行 65.091 亿次浮点运算的认证性能,不仅同时符合国内和国际要求,甚至成为全球最节能的高性能计算系统。
实际上,联想已经不是你刻板印象里的那个只有电脑的公司了。总体来看,在算力基础设施业务迎来爆发的同时,联想集团整体也逐渐完成了转型:个人电脑以外的业务总营收占比,已经超过了 40%。
ChatGPT 也好、大模型也好,甚至AI也好,技术创新周期中率先汹涌开来的算力红利,正在刷新联想集团,或者更准确地说,把算力供给侧的幕后隐形冠军推到台前。
扫码关注公众号
获取更多技术资讯