HelloKitty • 2023-04-27 16:25
1456
本文由 阿法兔研究笔记 撰写/授权提供,转载请注明原出处。
文章来源于:阿法兔研究笔记
作者:阿法兔
Jensen Huang:ChatGPT 带来什么影响?
首先,是 ChatGPT 带来的影响:站在英伟达的角度,ChatGPT 带来的影响和变化有哪些?
如果我们往前看,在 2023 年 2 月英伟达的财报会议上,CEO 黄仁勋的原话是这样的:"无论当时的具体观点是什么,现在这些观点,都已发生了巨大的变化。"
GPT-3 已经出来一段时间了,在此之前,ChatGPT 的雏形包括 WebGPT 和 InstructGPT,但是,正是 ChatGPT 的到来,彻底点燃了整个行业。
如何理解“ChatGPT 出现点燃了整个行业”这句话?
所有用户关注的关注点,主要集中于 ChatGPT 的易用性和解决问题的能力。
注意,这里的所有用户,包括对计算机不甚了解的用户,也包括计算机科学家,比较显眼的主要在于ChatGPT的推理能力与解决问题的能力。于是乎,这里就出现了一些迹象:
首先:C 端用户开始关注 ChatGPT
之后:云计算和每个软件公司开始关注 ChatGPT
再然后:创业者和风险投资开始进来这个赛道。
Jensen Huang:ChatGPT 和生成式 AI 的特性
ChatGPT 和生成式人工智能的特性:
一是 ChatGPT 的厉害之处在于,所有用户接受人工智能这个事实的“拐点”提前到来了,因此,训练这件事本身的预算和优先级也被调高,表现出来的就是(计算)需求上升的原因之一;
二是“编程”的定义,被扩张了,更多的事能被自动化
(注释:新的计算模式(prompt或其他),使得计算机访问被二次抽象了,这样就使开发与实际应用的沟通距离大幅度缩短,也就是 accessibility ,言外之意就代表普通应用不再需要程序员了,进入人人都可编程的时代)
对于计算平台来说,无论是工作站、个人电脑、互联网、云、移动云,在编程这件事上,本质是相似的,在每一个平台上,我们都在以不同的方式编程,从需求出发,编写不同的应用程序。
不过工作站、个人 PC 和互联网等云平台的影响力(覆盖面)完全不同。
计算机工作站可以覆盖数十万人;
个人 PC 可以覆盖数亿和数十亿;
移动设备可以覆盖数十亿及以上;
如果从今天的应用格局来看,AppStore 里大概有 500 万个应用;
重要的网站大概有数十万个;
那么,大型语言模型上会长出来多少个应用?
我认为这个数字将会是以数亿级计量,所有人都可以自己编写属于自己的应用。
这就等同于阶段性的范式转变:差异+拐点,这里将涌现全新的计算模式。
而这正是公司、个体和各个平台目前正在面临的变革和机遇。
Jensen Huang:英伟达商业策略的转变
英伟达对 ChatGPT 的看法:在 ChatGPT 横空出世之后,在商业上,英伟达有哪些与之前不同的策略?
首先,是要对市场需求快速做出反应,市场对算力的需求在加速。英伟达也会加强培训,因为几乎所有知名云服务提供商都已经在研究大语言模型,现在大家也意识到,必须更快地进入下一层次:不仅仅是研究方面,还有推理方面。要更快地训练这些模型,更快拿出来更大的模型,并且迅速开发支持模型,用于 Fine-tuning、alignment 、guard railing 和 augmenting ,以及围绕这些大型语言模型的所有支持模型。
第二,因为生成式模型的易用性,于是它被连接到微软办公室和谷歌 doc,突然间,生成式人工智能与很大的应用程序和网络浏览器相连接,因此,推理需求迅速飙升。
所以我认为这两件事都在发生,需求的增加,交付的紧迫性,这两件事都在同时发生。
Jensen Huang:业务策略和公司战略的变化
在 ChatGPT 出现之后,英伟达的策略还有什么变化?思考业务和战略的角度有什么变化?
主要是推理(Inference)业务,推理业务的规模已经经历过步骤层面的功能,毫无疑问,现在正在做的推理类型,我们已经看到,目前已经有各种视频的制作过程,应用了生成式人工智能的功能,从而给视频的背景增强效应,对主体进行增强,调光等等等等。所有这些生成式人工智能工作,全部都是在云端完成的。
拿 RunwayML 举例子,它基本上是用生成式AI进行电影级别质量规模的视频编辑,这就需要不同类型的 GPU。
然后拿大语言模型来说,整个模型超过 1750 亿个参数,在大型语言模型推理中,每个 Token 的响应时间真的很重要,比如说,如果我们处在这样一个场景:无论是整在写一封长信,或者在写一个相对复杂的程序,人们更期待的是实时互动。如果一旦突然掉线,用户的耐心就会受到挑战。
Jensen Huang:关于 DGX Cloud
通过浏览器,每个企业都能即时接入 AI 超级计算机,那么,英伟达推出 DGX Cloud,是基于什么考量?
随着当前的算力需求不断攀升,出现的需求是,企业均需要超级计算能力,但是对于很多不具备 AI 能力与团队搭配的企业,又该怎么办?
基于这样的需求,英伟达推出 DGX
Cloud,DGX Cloud 主要和微软 Azure、甲骨文 Oracle OCI 和谷歌云 Google GCP 合作,而 DGX
Cloud 是一项月租服务,这项服务可以为企业提供训练自己的生成式 AI 模型和其他应用程序所需的超算能力,企业直接应用这项服务,能够降低大型模型训练和开发时间。
Jensen Huang 的原话是这么说的:
We’ve
been very transparent about and very consistent about our desire to
build a computing platform that’s available everywhere and this
computing platform is built at data center scale.
我们没藏着掖着,大家都希望英伟达的 AI 计算能够在每一朵大云(数据中心)上面出现。
Today’s
computers is not a PC, today’s computer is a data center, the data
center is the computer and you have to orchestrate that entire fleet of
computers inside the data centers as if it’s one.
虽然数据中心计算机很多,但它们并不是有机的整体,所以计算归计算,管理归管理,要分开,而通过软件使其分开,好管理。(言外之意就是无论你的计算中心有多少台机器,看起来都像只有一台超大的)
That’s
why they call it single pane of glass, it’s managing one computer and
that’s why it has to be software-defined. That’s why you have to have a
separation of the compute plane and the control plane.
这就是为什么它被称之为“单一管理平台”,而这个“单一管理平台”管理的“这台超大计算机”必须是“软件定义的一大堆计算机的综合”,必须把“Control”和“Compute”分开(说白话就是,调度的,和干活儿的分开)
All
of those architectural reasons leads up to, basically, the data center
is the computer. We build our entire system full stack, and then we
build it end-to-end at data center scale but then when we go to market,
we disaggregate this entire thing.
所以,折腾这些全栈设施(软件和辅助硬件)就是为了让每个数据中心(物理硬件)都能够用上,变成一台超大的机器,然后用户来使用的时候,我们再切出一小块来让他用到
(就理解为自来水公司成本很高,但是我打开水管则 5 毛一吨,英伟达现在有全套自来水公司设施,Azure 等云厂商有水库,自来水设施+水库 = 用户拧开水管用完即走)
This
is the miracle of what we do, we’re full stack, we’re data center
scale, we work in multiple domains, we have quantum computing here, we
have computational lithography there, we have computer graphics here and
this architecture runs all of these different domains, in artificial
intelligence and robotics and such and we operate from the cloud to the
edge and we built it in a full system, vertically integrated, but when
we go to market, we disaggregate everything and we integrate it into the
world’s computing fabric.
意思就是:我们英伟达超厉害,我们啥都会,我们是全才,甚至还会客户的领域,我们能横切系统,还能竖切系统,你需要啥,我就切一块给你。
Jensen: 关于英伟达与 Oracle、Azure 和谷歌合作
在英伟达与 Oracle OCI 合作的案例中,英伟达的团队与甲骨文架构团队一起工作。共同去探讨:“究竟什么是整合到甲骨文云架构中的最佳方式",在这块英伟达不会规定的很死,并不是说,英伟达提供了自己的系统,甲骨文一个人就可以玩起来。
我们和甲骨文密切合作,主要是为了搞清楚——"在甲骨文的云架构里,什么是高效的的架构,可以在英伟达整个技术堆栈中发挥最好的性能"。英伟达的整个技术堆栈必须以原生的方式运行,包括协调层,系统管理层或分布式计算层等等,所有这些都必须在本地运行,因此我们必须与云厂商密切合作,以确保他们的云和我们的软件架构能够和谐地一起工作。
与 Azure 合作时:主要会考虑“到底什么是计算的最佳方式?如何能做到安全整合?如何能做到更优的链接存储?如何最好地托管它,使有很多私人数据安全问题和可能有工业法规问题的客户能够最好地管理它?"
因此,有相当多的合作围绕着为这些不同需求,进行架构的设计。
问题:那么,如果有客户要使用 DGX 云,是否会选自己想要的云厂商?是否必须与甲骨文、Azure 或谷歌云建立关系?还是由 Nvidia 来促成这种合作,去告诉 Nvidia 我们的需求,然后 Nvidia 会帮忙选择云厂商?
Huang: 这取决于你,用户可以由英伟达来协助实施,也可以自己根据自己之前和云厂商的合作进行部署。对Azure来说,DGX Cloud 对企业的吸引力也可以之前的云基础结合,那么无论是微软 Azure 还是谷歌云,都可以在这里找到自己的生态位。
Jensen: 关于合作哲学&英伟达与初创企业的关系
问题:为什么没有 AWS?
我们和 AWS 会有很多其他方面的合作。作为英伟达,我们希望以这种方式与所有人合作,这和我们与惠普、戴尔和联想合作是一样的,这些品牌,他们在英伟达每个平台上的上市时间并不总是同时,但是我们的合作哲学,是一致的。我们有大型团队与亚马逊合作开发 SageMaker。他们需要英伟达大型团队来加速 SageMaker。
英伟达在做的事情,与终端用户和开发者都进行了极其深入的合作,和大量垂直领域合作(医疗保健、汽车,当然还有大量人工智能初创企业,大约有 10000 家 AI 初创企业)如果拿视频游戏行业举例子,基本直接覆盖几乎所有的开发商。英伟达和几乎所有的汽车公司都有直接合作,正在与几乎所有的药物研究公司合作,我们的合作伙伴,还包括台积电和 ASML。
后记By阿法兔
在整个采访中,Jensen Huang 还有一句话,让我记忆深刻:
Notice the way I’ve explained everything so far is exactly that and there’s no inconsistency between celebrating the success of our partners, even if it’s in an abstraction layer where we are further below, versus in conserving our own energy to go work on things that only we should do and we can do, it’s just not a conflict to me. I’m really happy when AWS does well, I’m really happy when OpenAI does well and this is our attitude about our partners and ecosystem, whether they use CUDA or not, it just doesn’t matter to us. CUDA has great value to us, whether it has great value to somebody else or not, so what? The most important thing is that they’re able to do whatever it is they’re trying to do as easily as possible, as cost effectively as possible. If one of our partners is the best answer or if even somebody else is the best answer, so be it. We move on.
大概意思就是,英伟达会对合作伙伴的成功非常开心,也会专门保留自己的精力,去处理只有我们应该做而且能够做的事情。无论是当AWS 还是 OpenAI ,他们做得好时,我也真的会很高兴,而这也就是我们对合作伙伴和生态系统的态度,无论他们是否使用 CUDA,这对我们来说都不重要。CUDA 对英伟达具有重要价值,最重要的,所有人都可以通过 CUDA 能够以尽可能简单、尽可能低廉的成本实现大家的目标。就算是如果别人有最好的方案,我们也为他们感到开心,但我们英伟达,会持续前进。
扫码关注公众号
获取更多技术资讯