推广 热搜: 商会  郑鹏  韩长安  郝金玉  王殿辉  制造业500强  国源科技  晋商年会  胡润  牛扎根 

不想跟英伟达玩了

   发布时间:2026-04-28 09:26     来源:功夫财经    浏览:3837    
核心提示:我点开 DeepSeek 的 API 定价页,想看看 V4 具体售价多少,结果在价格表下方看到一行灰色小字。字体特别小,不留意的话很容易直
中国晋商俱乐部致力于建设服务创新型商业化晋商生态 | 主办全球晋商年度峰会“晋商年会”与“晋商国际论坛”

我点开 DeepSeek 的 API 定价页,想看看 V4 具体售价多少,结果在价格表下方看到一行灰色小字。

字体特别小,不留意的话很容易直接划走。

上面写着「受限于高端算力,目前 Pro 的服务吞吐十分有限,预计下半年昇腾 950 超节点批量上市后,Pro 的价格会大幅下调」。

简单来说,DeepSeek 把自己未来能不能降价、降多少,公开绑定到了华为昇腾 950 这颗芯片的出货节奏上。

早在 DeepSeek 正式发布前,就有不少传闻将它和昇腾关联在一起,只是一直没有实锤,现在来看,双方的深度合作已经落地。

所以,在我看来,这行不起眼的灰色小字,蕴含的关键信息,比所有跑分加起来都大。

想要看懂这行小字到底有多关键,得先弄懂一个技术细节;DeepSeek V4 训练时,用了一种叫 mxFP4 的精度方案。这名词听着特别高大上,其实我也不懂啊。

于是,索性了解了下,意思是:

大模型有着上万亿个参数,每个参数本质上是一串数字,这些数字全都要存放在芯片的储存空间里;行业里普遍用的是 FP8 方案,靠 8 位比特记录一个数字,FP4 只需要 4 位比特就行。

打个通俗的比方:

FP8 就像用常规字号在 A4 纸上记笔记,一页纸能承载的内容很有限,FP4 把字号缩小一半,同一张纸能装下两倍内容。

虽说精细度稍微差一点,完全不影响正常识别和使用。

我专门查过实测数据,FP4 对比 FP8,问答的准确度几乎没怎么掉,日常使用的绝大多数场景里,普通人完全感受不到区别,还能直接省下一半储存空间。

简单讲,FP4 的优势,是更少的存储空间,更低的计算成本,跑差不多效果的模型。

搞懂 FP4 之后,接下来的事情有意思了。

目前英伟达的整个生态体系,主流用 FP8。国内芯片这边,华为昇腾 950 是唯一一款已经商用、并且明确支持 FP4 的 AI 加速卡。

重点是:唯一一款。

DeepSeek V4 在训练阶段选了 FP4,昇腾 950 恰好是国内唯一支持 FP4 的芯片,这两件事放在一起,不需要任何人告诉你结论。

这根本不是模型做完再临时去兼容国产芯片,早在模型训练起步阶段,选择精度规格的时候,已经专门为这颗芯片量身铺路了。

就像你设计一把钥匙时,已经知道它要开的那把锁长什么样。

那 DeepSeek 为什么要这么做?单纯立场问题,或是情怀加持?我觉得根本没这么简单,毕竟它一直坚持开源,海外也有大量用户在使用。

本质上,背后有一笔实打实的商业账单。

要知道 DeepSeek 是开源企业,核心收入全靠 API 调用;它的核心打法是极致低价,V4-Flash 输入只要 0.2 元每百万 tokens,比 OpenAI 同档次产品便宜几十倍,妥妥的行业价格杀手。

「价格屠夫」的名头听着亮眼,背后却有个绕不开的硬性要求,那就是算力成本必须压到极致。

如果一直绑定英伟达,两大难题永远躲不开:

一,显卡造价昂贵,高昂的算力成本会直接压缩利润;二,供应链完全不受自己掌控,一旦相关管制收紧,随时会被卡脖子。

开源模型厂商利润本来就十分微薄,这种盈利模式下,把核心算力命脉,攥在无法自主掌控的外部供应商手里,无异于慢慢等死。

所以,拥抱国产芯片是 DeepSeek 能持续走低价路线、长久活下去的核心关键。

对了,这还没完。V4 是周五上午发的,同一天之内,华为昇腾、寒武纪、海光信息、摩尔线程率先官宣完成适配。

到收盘前,加上沐曦、昆仑芯、平头哥、天数智芯,一共 8 家国产 AI 芯片品牌全部完成「Day 0 适配」。

Day 0,发布当天就能跑。

不光是芯片厂商,华为云、腾讯云、百度智能云、阿里云、天翼云、联想智能云这些云服务商,也在同一天宣布把 V4 上架到自己的平台;宁畅、长江计算这些做服务器的厂商,也跟着同步跟进。

一个模型发布,整条产业链当天就集体响应,这速度绝对不可能是看到发布才开始动手的。

你想啊,一个万亿参数的全新模型,从拿到权重,到完成适配、跑通推理、测出性能数据,几个小时根本不可能做完。

那答案就只有一个了:这些厂商,早就提前拿到了 V4 的模型,早就开始做准备了。

我查了一下,The Information 的报道也印证了这一点。DeepSeek 在 V4 发布之前,特意给国产芯片厂商开了提前适配的窗口,给了他们好几周的时间做调试、做优化,反倒是英伟达和 AMD,没拿到这个优先权。

所以,你再回头看周五那天的场面,它更像一场提前排练好的集体亮相。

DeepSeek 是领唱,几家芯片厂商是和声,云服务商和服务器厂商是伴奏,所有人在同一天一起上台。

以前聊 AI 产业链,基本上都沿着同一条线说:

模型突破了,算力需求爆发,所以要建更多算力中心,需要更多芯片,英伟达吃肉,台积电代工跟着喝汤,台积电产能不够就得买设备,半导体设备是下一个主线。

我承认,这条逻辑过去两年完全成立,V4 这次释放的信号,是旁边正在长出另一条链路。

前面我说的,FP4 精度选择、几家芯片同天适配、云服务商同步上架,串起来看,这条新链路的轮廓已经很清晰了。

它的核心驱动力是「软硬件从源头协同设计」。堆量和协同,受益的方向几乎没有重叠,用旧地图去找新链路上的机会,大概率会走偏。

这件事的影响范围还不止于「利好谁」。

我查了一下,据路透社 3 月 27 日报道,字节跳动和阿里巴巴均计划大规模采购昇腾 950,华为今年计划出货约 75 万颗。

国内财经媒体援引的数据更具体,字节约 25 万颗,阿里约 15 万颗,光这两家加起来就 40 万颗,占了全年出货计划的一半以上。

需要说明,这组采购数字,几家当事方既没有回应、也没有承认,芯片采购量级本身属于高度敏感的商业信息,不公开确认是正常的。

因为供需关系的变化,昇腾 950 已经涨价 20%,这些订单在 V4 发布之前就已经下了。

这里有一个很微妙的关系,大厂们买了芯片,准备用国产算力来跑大模型、做云服务。

这个商业决策最终成不成立,取决于一个前提:得有一个足够强的模型,在这颗芯片上真的跑通了,效果经得起验证。

V4,正是那个验证。

它是整个国产算力产业链的一张验收单,验收通过,40 万颗芯片的订单才有意义,后续更大规模的采购才有依据。

当然,这件事也没有那么完美,不能为了吹捧忽略客观事实。

训练侧,V4 最核心预训练过程,仍然跑在英伟达的体系上,国产芯片目前接住的是推理侧,用户实际调用模型时的那部分算力。

训练和推理是两件事,推理跑通了不代表训练也能脱离英伟达。

昇腾 950 的产能也是另一个未知数,全年 75 万颗的出货计划,光字节和阿里两家就要走一半以上,后面排队的还有腾讯、百度和一众中小厂商;供不应求的局面下,产能能不能跟上,直接决定这条新链路的传导速度。

换句话说,闭环在推理侧跑通了,训练侧还要时间。

我认为,看这件事得看方向,过去几年,中国 AI 产业的底色一直是「用别人的芯片,追别人的模型」;V4 释放的信号不一样,有人开始用自己的芯片跑自己的模型了,芯片和模型从一开始就在一起长。

路还很长,产能瓶颈、训练侧的硬骨头、CUDA 生态十几年积累的护城河,这些都是真的;当然,中国 AI 第一次在顶级模型层面跑通国产算力闭环,这也是真的。

 

投诉邮箱:tougao@shanxishangren.com
 
更多>同类晋商资讯

鹏飞集团·郑鹏【中国晋商俱乐部名誉主席】
理事会企业动态
最新活动动态
优秀晋商资讯
推荐图文
推荐晋商资讯
点击排行
网站首页  |  京ICP备13017153号 |  极贸易  |  网站地图  |  联系方式