Karpathy看好的Agents学会自动退换货了!英伟达H100加持,给LLM插入最强外接大脑

HelloKitty 2023-08-01 15:44

扫一扫 在手机阅读、分享本文

2037

本文由 新智元 撰写/授权提供,转载请注明原出处。

文章来源于:新智元

作者:新智元编辑部

最近,AI 圈依然是大事频发,几天一个爆炸性新闻。

Meta 联手微软高调开源了 Llama 2,它在 2 万亿个 token 上训练,秒杀许多开源语言模型,并且还能免费商用。

OpenAI 科学家 Karpathy 最近搞的明星项目「Baby Llama」,已经可以用 C 语言跑 Llama 2 7B 了。

而就在几天前,Stability AI 正式发布了下一代文生图模型——Stable Diffusion XL 1.0。

这次的 1.0 版本是 Stability AI 的旗舰版生图模型,也是最先进的开源生图模型。

1.png

在目前的开放式图像模型中,SDXL 1.0 是参数数量最多的。官方表示,这次采用的是全新的架构,基础模型的参数规模达到 35 亿,同时还有一个 66 亿参数大小的细化模型。

而如此强大的生图模型,已经可以在 Amazon Bedrock 上一键访问了!

基础模型全面上新

就在上周,亚马逊云科技发布了一大波基础模型上新。

除了刚刚提到的 SDXL 1.0,Amazon Bedrock 还增加了对 Cohere 基础模型以及 ChatGPT 最强竞品——Anthropic 的 Claude 2 的支持。

2.jpg

Cohere 研发的大语言模型 Command,是一个能够接受用户个性化命令训练的模型,专注于提供文本搜索、文本分类和文本生成三大 AI 能力。

3.png

另外,Anthropic 推出的 Claude 2,其处理能力已经更新到 10 万个 token。相较之前版本,Claude 2 在数学、代码、推理能力方面有明显的提升。

4.png

同时,开发者还可以通过机器学习中心 Amazon SageMaker Jumpstart,一键开发各类热门开源模型。

比如,Meta 最新的 Llama 2、世界最大开源社区 Hugging Face托 管的 Falcon、Flan 等等。

5.jpg

Agents 改变游戏规则

不过,基础模型虽然在各种任务上有强大的泛化能力,但随着应用场景的不断扩展,仅靠模型本身已经很难去完成一些复杂的任务了。

比如预定航班或退回购买的商品这种简单的任务,开发者都必须经历多个步骤——通过提供特定的说明和配置、访问相关知识源、编写代码将任务分解,然后应用才能通过一系列 API 调用采取行动。

在这个过程中,开发者必须配置和管理基础架构,设置数据安全和隐私策略,繁琐又耗时。

而前段时间 AutoGPT 的爆火,则给了学界和工业界一个全新的探索方向——集成了大语言模型的 Agents。

6.png

Karpathy 曾将 AutoGPT 称为快速工程的下一个前沿

概括来说,A I智能体可以通过最简单的形式运行循环,并且在每一次的迭代中,都会生成自主指令和操作。因此,它们既无需依赖人类来引导对话,还具有高度的可扩展性。

以 AutoGPT 为例,我们每分配一个任务,它都会给出一个相应的解决计划。

比如,需要浏览互联网或使用新数据,它便会调整其策略,直到任务完成。这就像拥有一个能处理各种任务的私人助手,如市场分析、客户服务、市场营销、财务等。

正如今年加入 OpenAI 的大牛、前特斯拉 AI 总监 Karpathy 所说:「Agents 代表着 AI 的一种未来。」

亚马逊云科技也在这个领域进行了自己的探索,并且创新性地提出了全新的 Amazon Bedrock Agents。

7.jpg

基于 Amazon Bedrock 提供的 Agents 功能,开发者可以轻松创建各种生成式 AI 应用,来完成复杂任务,并根据专有知识源提供最新答案。

以往得耗费几个小时编码来实现的过程,现在无需任何手动编码,只要单击几下,Agents 就能自动分解任务,创建计划。

这样一来,生成式 AI 应用程序分分钟就搞出来了。

8.jpg

那么,Amazon Bedrock Agents 是如何让基础模型加速工作流的呢?具体可分为以下四个步骤:

第一步:定义指令和编排,将复杂任务分解为多个步骤

第二步:检索增强生成(RAG),配置 FM 与公司数据互动

第三步:完成交互,执行 API 调用以满足用户请求

第四步:在云中安全托管

Amazon Bedrock Agents 可以通过简单的 API 链接到公司数据,将其转换为机器可读的格式,就能生成准确响应。然后自动调用 API,满足用户请求。

9.png

基于 Amazon Bedrock,用户可以任意选择适合自己用例的基础模型,然后用自然语言给它下指令。

比如告诉它,「你现在是一个智能体,需要帮助处理保险索赔和管理待处理文书的工作」。

10.png

然后,对 Agents 发出命令「向所有有未结索赔和待处理文书工作的保单持有人发送提醒」,它马上理解了我们的请求,把任务分成多个步骤——收集未结保险索赔、查找索赔 ID、发送提醒,然后执行了相应的操作。

11.png

而且,有了Amazon Bedrock Agents 的功能,用于电商的 AI 程序不仅可以回答简单的问题,还能完成复杂的任务,比如更新订单、管理交易。

比如,客户发出想要退回一双鞋,可以直接说:「我想把这双黑色鞋换成棕色的」。

Agents 收到信息后,就会连接到公司数据,自动将文本转换成机器可读格式,向模型提供相关信息,然后调用正确的 API 来满足这一请求。

12.jpg

英伟达 H100 最强加持

然而,基础模型性能不断提升,所带来的是动辄几百万亿的参数。

这种复杂性的暴涨,也极大地增加了模型训练和微调的时间——最新的 LLM 需要数月的时间来进行训练。

与此同时,HPC 领域也呈现出了类似的趋势。随着精度的提高,用户收集的数据集已经达到了 Exabyte 级别。

为了满足高性能和可扩展性的算力需求,亚马逊云科技全新推出了搭载英伟达最强 GPU——H100 的 Amazon Elastic Compute Cloud(EC2)P5 实例。

相较于上一代,Amazon EC2 P5 实例不仅可以将训练时间缩短高达 6 倍(从几天缩短到几小时),而且还能使训练成本降低高达 40%。

13.png

具体来说,Amazon EC2 P5 实例共搭载了 8 个 NVIDIA H100 Tensor Core GPU,配备 640 GB 高带宽 GPU 显存,同时还有第三代 AMD EPYC 处理器、2 TB 系统内存、30 TB 本地 NVMe 存储,以及高达 3200 Gbps 的总网络带宽。

堪称配置拉满的性能,为最苛刻、计算密集的生成式 AI 应用提供了支持,包括问答系统、代码生成、视频和图像生成、语音识别等,非常适合训练和运行日益复杂的 LLM 和 CV 模型。

基于全新的 Amazon EC2 P5 实例,用户可以探索此前难以触及的问题,并且更快地迭代出解决方案。

14.png

此外,为了满足用户对大规模和低延迟的需求,亚马逊云科技还推出了搭载有 Amazon EC2 P5 实例的第二代 EC2 UltraClusters。

作为云中规模最大的 ML 基础设施,EC2 UltraClusters 可提供高达 20 exaflops 的总计算能力,以及跨 20,000 多个 NVIDIA H100 GPU 的低延迟。

15.png

给模型插入「外接大脑」

从智能体的构建中我们不难看到,所有基于大模型搭建好的应用,想要获取实时数据,都需要建立在检索增强生成(RAG)之上。

而这一技术是向量数据库能够在 AI 应用中发挥重要作用的根本。

为什么这样说?那就得看看,检索增强生成能实现什么。

比如,当你问 ChatGPT「芭比」电影好看吗?

16.png

显然,ChatGPT 是无法及时回复最新的相关信息。这对于企业来讲,用户咨询最新内容时,应用无法做出回应,大大降低了生产力。

有了检索增强生成,便能够补充特定领域的知识。大模型参数虽大,但无法记住许多长尾数据,还需要通过搜索召回相关领域的知识。

这里,对专业领域知识的补充就离不开,向量数据库、搜索引擎等。

17.png

另一方面,大模型的知识很容易过时,仅靠微调模型,让知识更新是行不通的。

微调模型需要耗费大量算力、时间,关键是天天微调根本不现实。

要知道,对于企业来讲,业务数据必须是实时的。因此向量数据库、搜索引擎都能够帮助模型,获得新数据,同时重训模型周期也被拉长。

由于向量数据库对「高维嵌入」有强大的检索能力,与大模型结合较为简单,因此成为 RAG 最常用的数据存储形式。

18.png

微软 Build 大会上,曾介绍了其产品如何将较少的上下文感知 LLM 与向量搜索结合起来,来创造更有吸引力的体验。

这其中基本的想法,也就是在 LLM 中,添加向量搜索,以进行检索增强生成。

而向量化,就是将数据转化为维度,如下你可以看到两种维度:大小,和类型。

其中大小有两个值(大和小),类型有 2 个值(树和动物)。这只是一个概念例子,还可以扩展到更多的值。

19.png

除了图片,还可以进行单词/句子向量搜索,向量搜索能够捕捉到语义表示。

假设你有数百个,甚至数万个文档数据库作为背景,是无法放在 ChatGPT 提示框中,但可以通过向量搜索来缩小最有可能的包含答案的上下文。

20.jpg

对于数据库,既可以储存文档和嵌入,也可以用来存储查询,并根据相关查询来找到最相关文档,这样就可以通过⽂档检索增强 LLM。

今年英伟达 GTC 大会上,黄仁勋首提向量数据库,并推出了新库 RAFT,用于加速索引、数据加载和近邻检索。

其重要意义在于,向量数据库是大模型的「海马体」,能够让 LLM 实时进行信息召回。

通过把实时资讯、市场行情等实时变化的信息置入模型中,就能使其提供更精准的结果。

Amazon OpenSearch Serverless向 量引擎

同样在亚马逊云科技峰会上,首次推出了——Amazon OpenSearch Serverless 向量引擎。

开发者们通过这个工具,就可以轻松使用向量数据库,快速构建基于大模型的搜索体验。

21.jpg

总的来说,Amazon OpenSearch Serverless 向量引擎引入了简单、可扩展和高性能的向量存储和搜索功能。

开发者可以快速存储和查询各种 ML 模型(包括 Amazon BedRock 提供的模型)生成的数十亿个向量嵌入,响应时间仅为毫秒级。

当前,生成式 AI 大爆发,所有垂直领域的企业都在转向这一热潮,并探索通过集成高级对话生成 AI 应用程序,以改变用户体验,以及和数字平台交互的方法。

亚马逊云科技推出的这项工具,通过使用向量嵌入,能够增强 ML 搜索和生成式 AI。

向量嵌入在用户私有数据上进行训练,并能表示信息的语义和上下文属性。

这样做的优势在于,能够及时处理用户的查询,以查找最接近的向量,并将其与其他元数据组合在一起,进而无需依赖外部数据源或其他应用程序代码集成结果。

值得一提的是,向量引擎是基于 Amazon OpenSearch Serverless 构建,因此无需担心后端基础架构的大小、调整和扩展。

所有数据都持久保存在 Amazon Simple Storage Service (Amazon S3) 中。

当向量数量从原型开发时的几千个增长到生产时的上亿个甚至更多,向量引擎将无缝扩展,无需重新索引或重新加载数据来扩展基础架构。

22.jpg

此外,向量引擎还为索引和搜索工作负载提供独立计算,因此开发者可以实时无缝地摄取、更新和删除向量,同时确保用户体验不受查询性能的影响。

借助对 Amazon OpenSearch Serverless 的向量引擎支持,开发人员将拥有一个简单、可扩展和高性能的解决方案,来构建机器学习增强的搜索体验和生成性人工智能应用程序,而无需管理向量数据库基础设施。

全球生成式 AI 领导者

随着数据量大爆发、可高度扩展算力的可用性、以及机器学习技术的进步,让生成式 AI 足以改变每个行业。

因此,越来越多的企业希望快速采用最新技术,创造价值。

选择正确的模型,使用公司数据安全定制模型,并将其集成到应用程序中是一个复杂的过程,都需要花费大量时间、和高度专业化的知识。

恰恰,亚马逊云科技 Amazon Bedrock 简化了这一流程,通过简单的 API 访问一流的基础模型。

通过 Amazon Bedrock Agents 这一完全托管的服务,开发者能够轻松创建基于生成式 AI 的应用程序,以完成各种用例的复杂任务。

其中 Vector Database,能够帮助开发者的应用程序实时存储数据,及时召回信息,提供更好的用户体验。

Amazon EC2 P5 实例更是为模型训练节省大量时间和算力。

基于以上的创新,真正诠释了亚马逊云科技是端到端的生成式 AI 领导者,帮助企业开发者释放生成式 AI 的潜力,创造价值。

同时,亚马逊云科技不断降低生成式 AI 的门槛,更是致力于 GenAI 普惠的领导者。

前段时间,亚马逊云科技刚刚宣布了编程助手 Amazon CodeWhisperer 可用,能够使用底层基础模型帮助开发人员提高工作效率。

它可以根据开发人员使用自然语言留下的注释和 IDE(集成开发环境)中的历史代码实时生成代码建议。

这次,Amazon CodeWhisperer 首次与 Amazon Glue Studio Notebooks 实现集成,能够帮助用户优化使用体验,提高开发效率。

23.png

通过 Amazon Glue Studio Notebooks,开发人员用特定语言来编写任务,然后 Amazon CodeWhisperer 会推荐一个或多个可以完成此任务的代码片段。

Amazon CodeWhisperer 针对最常用的 API 进行了优化,例如 Amazon Lambda或Amazon Simple Storage Service(Amazon S3),使其成为构建应用程序开发者们的绝佳编码伴侣。

除此之外,亚马逊云科技还提供了 7 门免费的技能培训课程,帮助开发者以使用生成式 AI。

其中,还联手吴恩达推出了「用大型语言模型构建生成式 AI」新课程。

24.png

医疗领域已有落地应用

今年这波 AI 大模型的浪潮,也激发了人们对生成式 AI 在医疗行业的应用的探索。

比如前几天,谷歌发布了一个「通才生物医学 AI」——Med-PaLM M 多模态模型。这个多模态生成模型能够利用医学的丰富数据,使用相同的模型权重集解释临床语言、医学图像和基因组学。

25.png

同样,对于 AI 在医疗行业的应用,亚马逊云科技也同样有所行动,发布了一款面向医疗保健软件提供商的全新服务——Amazon HealthScribe。

Amazon HealthScribe 通过使用使用生成式 AI 的机器学习模型和语音识别,能自动起草临床文档,帮助临床医生转录和分析他们与患者的对话。

它的自然语言处理功能,还可以从对话中提取复杂的医学术语,比如药物和医学状况。病史、要点、就诊原因,一应俱全。

Amazon HealthScribe 中的 AI 功能,正是由 Amazon Bedrock 提供支持的,通过预训练模型,用户就可以从初创公司以及亚马逊自身构建生成式 AI 了。

26.png

可以说,作为全球云计算的开创者,亚马逊云科技看到了 AI 浪潮当下,生成式人工智能的潜力和重要性。

生成式 AI 能够有改变每一个应用程序、每一个业务、甚至每一个行业。

数据处理、算力和机器学习的进步,正在加速许多企业从实验到部署的转变。

通过提供 Amazon Bedrock 等服务,以及与行业领导者的合作,这家公司正在普及对生成性人工智能的访问。

在不断创新的基础上,亚马逊云科技正在让开发者,让世界重新构想体验,把最好的产品带入生活。

最新.jpg

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章