击穿全网底价,通义千问GPT-4级大模型直降97%!1块钱能买200万tokens

zhaoling 2024-05-22 17:30

扫一扫 在手机阅读、分享本文

984

本文由 量子位 撰写/授权提供,转载请注明原出处。

文章来源于:量子位(QbitAI)

作者:鱼羊

通义千问 GPT-4 级大模型,直接击穿全网底价!

就在刚刚,阿里突然放出大招,官宣 9 款通义大模型降价。

其中,性能对标 GPT-4 的主力模型 Qwen-Long,API 输入价格从 0.02 元/千 tokens 降至 0.0005 元/千 tokens,也就是 1 块钱能买 200 万 tokens,相当于5本《新华字典》的文字量,堪称全球大模型的性价比之王。

更直观一点对比——

Qwen-Long 支持 1000 万 tokens 的长文本输入,对比 GPT-4,价格仅为 1/400。

超大杯新品,此番也在降价名单中:刚发布不久的通义千问超大杯 Qwen-max,API 输入价格也直降 67%,低至 0.02 元/千 tokens。

开源方面,Qwen1.5-72B、Qwen1.5-110B 等 5 款开源模型的输入价格也分别直降 75% 以上。

这波操作,再次击穿全网最低价,可以说是专属大模型企业、程序员的 618 狂欢了。

1 块钱 200 万 token

来看具体降价情况:

1.png

本次降价,共覆盖 9 款通义千问系列模型,商业化模型、开源模型全都在列。

包括:

Qwen-Long,性能对标 GPT-4,API 输入价格从 0.02 元/千tokens 降至 0.0005 元/千 tokens,降幅 97%;API 输出价格从 0.02 元/千tokens 降至 0.002 元/千 tokens,降幅 90%。

Qwen-max,在权威基准 OpenCompass上性能追平 GPT-4-turbo,API 输入价格从 0.12 /千 tokens 降至 0.04 元/千 tokens,降幅 67%。

上榜大模型竞技场排名的 Qwen1.5 系列开源模型方面,Qwen1.5-72B 的 API 输入价格从 0.02 元/千 tokens 降至 0.005 元/千 tokens,降幅 75%;API 输出价格从 0.02 元/千 tokens 降至 0.01 元/千 tokens,降幅 50%。

2.png

与 OpenAI 的 GPT 系列相比,降价后的通义千问系列,基本上都是 1 折购,性价比拉满。

以降幅最大的 Qwen-Long 为例,价格仅为 GPT-4 的 1/400,性能指标上却并不逊色。

3.png

尤其在长文本方面,Qwen-Long 支持最长 1000 万 tokens 的超长上下文对话,也就是能轻松处理约 1500 万字或 1.5 万页的文档。配合同步上线的文档服务,还可支持 word、pdf、Markdown、epub、mobi 等多种文档格式的解析和对话。

值得关注的是,不同于国内大部分厂商输入输出价格相同的定价方式,这次 Qwen-Long 的输入价格比输出价格降幅更大。

对此,阿里官方也给出了解释:

现在,用户结合长文本(论文、文档等)对大模型提问已经成为最常见的需求之一,所以模型输入调用量往往大于输出调用量。

根据统计,真实的模型输入调用量一般是输出的 8 倍左右。我们把用户使用量最大的输入 token 价格大幅降下去,对企业来说更划算,可以更好地做到普惠。

也是希望大家把长文本用起来。

阿里一出手就是大招

说起来,这已经不是阿里云第一次击穿行业底价。

就在今年的 2 月 29 日,阿里云刚刚整过一个云产品“疯狂星期四”的大活儿:全线云产品价格直降 20%,最高降幅达 55%。

属实是砍自己一大刀了。

如此大手笔,底气来源是阿里云作为国内第一大公有云厂商,在长期技术积累和规模效应下,已经构建起完备的 AI 基础设施和 Infra 技术优势。

而此番诚意满满的降价,背后更是显露出大模型应用时代,这种技术红利正在成为公有云厂商的“杀手锏”之一。

在 AI 基础设施层面,从芯片层到平台层,阿里云已经基于自研的异构芯片互联、高性能网络 HPN7.0、高性能存储 CPFS、人工智能平台 PAI 等核心技术和产品,构建起了高弹性的 AI 算力调度系统。

举个例子,PAI 支持 10 万卡量级的集群可扩展规模,超大规模训练线性拓展效率达 96%。在大模型训练任务中,达到同样效果可节省超 50% 算力资源,性能达到全球领先水平。

推理优化方面,阿里云主要提供了三大能力:

其一,高性能优化。包括系统级的推理优化技术,以及高性能算子、高效推理框架、编译优化的能力。

其二,自适应调优。随着 AI 应用的多样化,一个单一的模型很难在所有场景中都保持最佳效能,自适应推理技术允许模型根据输入数据的特性和计算环境的约束,动态调整推理技术应用和计算资源选型。

其三,可扩展部署。模型推理部署资源的扩展和弹性,能解决推理服务在一定时期内的潮汐现象。

此前,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光也表示,公有云的技术红利和规模效应,会带来巨大的成本和性能优势。

这将促使“公有云+API 成为企业调用大模型的主流方式”。

大模型应用时代主流路线:公有云+API

这也正是阿里云把大模型“价格战”再度推向高潮的核心原因。

尤其对于中小企业、创业团队而言,公有云+API 一直以来被视作做大模型应用的性价比之选:

尽管开源模型发展势头迅猛,以 Llama 3 为代表的最强模型们更被认为已经有媲美 GPT-4 的表现,但私有化部署仍然面临着成本高昂的问题。

以使用 Qwen-72B 开源模型、每月 1 亿 token 用量为例,在阿里云百炼上直接调用 API,每月仅需 600 元,私有化部署成本则平均每月超 10000 元。

除此之外,公有云+API 模式还便于多模型调用,能提供企业级的数据安全保障。以阿里云为例,阿里云可以为企业提供专属 VPC 环境,做到计算隔离、存储隔离、网络隔离、数据加密。目前,阿里云已主导、深度参与 10 多项大模型安全相关国际国内技术标准的制定。

云厂商的开放性,还能为开发者提供更丰富的模型和工具链选择。比如,阿里云百炼平台在通义千问之外,还支持 Llama 系列、百川、ChatGLM 等上百款国内外大模型,同时提供大模型应用一站式开发环境,可以做到 5 分钟开发一款大模型应用、5 到 10 行代码即可搭建企业级 RAG 应用。

量子位智库在《中国 AIGC 应用全景报告》中提到,AIGC 应用产品中,基于自建垂直大模型和 API 接入的产品占到将近 7 成。

这一数据同样从侧面佐证了“公有云+API”模式的市场潜力:在应用市场,对业务的理解和数据积累才是破局关键,在公有云+API 的基础上做应用,在成本和启动速度方面都是更现实的选择。

4.png

实际上,无论是直观的价格之争,还是更深层次的 AI 基础设施之卷,反映出的都是,当大模型发展焦点逐步从基础模型迈向落地应用,平台厂商如何降低大模型的使用门槛,已经成为竞争的关键所在。

刘伟光指出:

作为中国第一大云计算公司,阿里云这次将主流大模型 API 输入价格降低 97%,就是希望加速 AI 应用的爆发。

我们预计未来大模型 API 的调用量会有成千上万倍的增长。

总结起来就是,一方面,对于平台厂商而言,“价格战”背后其实是基础设施、技术能力之争;另一方面,对于整个大模型行业而言,应用是否能持续爆发、进一步普及,入局门槛、运营成本已成关键因素。

如此看来,近来卷起的降价趋势,对于开发者和期待更多大模型应用的胖友们而言,不可谓不是利好消息。

你觉得呢?

*插播一条消息:在全球化的时代浪潮中,AI+跨境电商正迎来前所未有的发展机遇,为了让不同领域的企业聚集在一起,展示在AI跨境电商领域的服务和产品,促进行业内的信息流通和合作机会,白鲸跨境与白鲸技术栈正在招募一群富有激情和创造力的伙伴,共同绘制AI+跨境电商的生态图谱!如有感兴趣者,可点击下方链接进行报名。

AI+跨境电商图谱招募令报名链接:https://www.baijing.cn/activity/1636

微信图片_20240222160346.png

微信图片_20240207151541.png

微信图片_20240313155219.jpg

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章