欧易

您数字货币与 Web3的直通车

数字货币交易和 Web3 - 为您轻松实现

欧易交易所
当前位置:首页-资讯-详情

DeepSeek-V3外网刷屏爆火,训练成本只有600万,把AI大佬都炸出来了

DeepSeek V3 发布并同步开源,直接在外网刷屏了。

延续便宜大碗特点的基础之上,DeepSeek V3发布即完全开源,直接用了53页论文把训练细节和盘托出的那种。

怎么说呢,QLoRA一作的一个词评价就是:优雅。

 

具体来说,DeepSeek V3是一个参数量为671B的MoE模型,激活37B,在14.8T高质量token上进行了预训练。

在多项测评上,DeepSeek V3达到了开源SOTA,超越Llama 3.1 405B,能和GPT-4o、Claude 3.5 Sonnet等TOP模型正面掰掰手腕——

而其价格比Claude 3.5 Haiku还便宜,仅为Claude 3.5 Sonnet的9%。

我们整理了外网上对于DeepSeek V3的热议,综合了「量子位」和「新智元」的内容。

01 只用了550万美元, 大概是7b Llama2 的成本

DeepSeek V3整个训练过程仅用了不到 280万个GPU小时,相比之下,Llama 3 405B的训练时长是3080万GPU小时(p.s. GPU型号也不同)。

直观地从钱上来对比就是,训练671B的DeepSeek V3的成本是557.6万美元(约合4070万人民币),而只是训练一个7B的Llama 2,就要花费76万美元(约合555万人民币)。

OpenAI创始成员Karpathy对此赞道:

Meta科学家田渊栋也惊叹DeepSeek V3的训练看上去是“黑科技”:

02 贾扬清力赞, 各路评测碾压

贾扬清针对推理提出了几点自己的思考:

首先最重要的是,我们正式进入了分布式推理时代。一台单GPU机器(80×8=640G)的显存已经无法容纳所有参数。虽然更新大显存机器确实可以装下模型,但不论如何,都需要分布式推理来保证性能和未来扩展。

即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。

论文中特别提到引入「redundantexpert」概念,正是为了解决这个问题。这已经不再是「一个模型多个副本」的问题、而是「每个模型子模块都有多个副本」,然后独立扩缩容。

输入token很容易实现盈利。根据个人专业判断,需要大量优化才能使输出token盈利或实现收支平衡。但如果我们相信「软件摩尔定律」,这就不 从模型能力来看,其评测跑分不仅超越了Qwen2.5-72B和Llama-3.1-405B等开源模型,甚至还和一些顶尖闭源模型(如GPT-4o以及Claude-3.5-Sonnet)不分伯仲。

从实际响应来看,其生成速度提升了3倍,每秒生成60个tokens。

在又快又好的同时,DeepSeek V3的API价格也被打下来了。

单论价格,正如一开始提到的,它几乎是Claude 3.5 Sonnet的1/53(后者每百万输入3美元、输出15美元)。

而如果要平衡性能和成本,它成了DeepSeek官方绘图中唯一闯进“最佳性价比”三角区的模型。

在搜索产品Kagi的评测中,V3 也是站在了开源之首,紧追Sonnet-3.5 与GPT-4o。

03 网友评测整活

DeepSeek-V3现在已经在官方平台上直接可以测试,而且代码全部开源可以直接下载。国外AI发烧友们纷纷开启了测试,有人直接将4/8个M4 Mac mini堆叠在一起来运行DeepSeek-V3了…一位开发者惊讶地表示,DeepSeek-V3无需我解释就能如此准确地理解一切,这种感觉真让人毛骨悚然。就好像机器里真的住着一个幽灵似的。另有开发者通过DeepSeek-V3创建了一个用AI公司logo制作的小行星游戏,分分钟就完成了。还有的人对用如此低成本,训练出一个强大得模型,难以置信。Stability AI前CEO表示,以每秒60个token(相当于人类阅读速度5倍)的速度全天候运行DeepSeek v3,每天仅需要2美元。那么,你是要选择一杯拿铁咖啡,还是一个AI助手呢?

04 预训练细节 我们继续掰开论文细节。先来看最受关注的预训练部分:

官方介绍,通过在算法、框架和硬件方面的协同优化,DeepSeek V3的训练成本变得非常经济。

预训练阶段,在每万亿token上训练DeepSeek V3仅需要18万GPU小时,就是说,在官方2048卡集群上,3.7天就能完成这一训练过程。

研发团队用了不到2个月的时间就完成了DeepSeek V3的预训练,耗费了266.4万GPU小时,再加上上下文长度扩展的11.9万GPU小时,和后训练的5000 GPU小时,总训练成本为278.8万GPU小时。

假设GPU租赁价格为每GPU小时2美元,那成本换算过来就是557.6万美元

所以,具体是什么样的协同优化?

官方标注了几个重点:

首先,架构方面,DeepSeek V3采用了创新的负载均衡策略和训练目标。

研发团队在DeepSeek-V2架构的基础上,提出了一种无辅助损失的负载均衡策略,能最大限度减少负载均衡而导致的性能下降。

具体而言,该策略为MoE中的每个专家引入了一个偏置项(bias term),并将其添加到相应的亲和度分数中,以确定top-K路由。

研发团队还证明,多Token预测目标(Multi-Token Prediction,MTP)有利于提高模型性能,可以用于推理加速的推测解码。

预训练方面,DeepSeek V3采用FP8训练。研发团队设计了一个FP8混合精度训练框架,首次验证了FP8训练在极大规模模型上的可行性和有效性。

论文中还提到了跨节点MoE训练中的通信瓶颈问题。解决策略包括,设计DualPipe高效流水线并行算法:在单个前向和后向块对内,重叠计算和通信。

这种重叠能确保随着模型的进一步扩大,只要保持恒定的计算和通信比率,就仍然可以跨节点使用细粒度专家,实现接近于0的all-to-all通信开销。

另外,研发团队还开发了高效的跨节点all-to-all通信内核等。

后训练方面,DeepSeek V3引入了一种创新方法,将推理能力从长思维链模型(DeepSeek R1)中,蒸馏到标准模型上。这在显著提高推理性能的同时,保持了DeepSeek V3的输出风格和长度控制。

其他值得关注的细节还包括,DeepSeek V3的MoE由256个路由专家和1个共享专家组成。在256个路由专家中,每个token会激活8个专家,并确保每个token最多被发送到4个节点。

DeepSeek V3还引入了冗余专家(redundant experts)的部署策略,即复制高负载专家并冗余部署。这主要是为了在推理阶段,实现MoE不同专家之间的负载均衡。

最后,来看部分实验结果。

大海捞针实验:

可以看到,在各项基准测试中,DeepSeek V3在开源模型中达到SOTA。

 

相关报道

Wintermute CEO 自述:做市商不是新的“坏人”,人们需要一个被责怪的对象 2025-05-14

Wintermute CEO 自述:做市商不是新的“坏人”,人们需要一个被责怪的对象

“很多时候人们只是想找个能责怪的对象,而不是深入了解市场结构和流动性运作的机制。”

Read More
中美脱钩与 CeDeFi 崛起:2025 年全球金融新格局 2025-05-14

中美脱钩与 CeDeFi 崛起:2025 年全球金融新格局

全球流动性正在悄然汇聚于无边界的去中心化金融网络中。

Read More
Abraxas Capital近一周购入的ETH持仓已达5.61亿美元 2025-05-14

Abraxas Capital近一周购入的ETH持仓已达5.61亿美元

PANews5月14日消息,据Lookonchain监测,AbraxasCapital借入USDT来购买更多的以太坊,截止昨日的监测,以太坊的价格是2460美元,而现在它已突破了2700美元——涨幅约...

Read More
报告:Solana的DeFi生态已从公开、被动流动池转向私有执行DEX 2025-05-14

报告:Solana的DeFi生态已从公开、被动流动池转向私有执行DEX

PANews5月14日消息,PineAnalytics发布报告指出,Solana的DeFi生态已从公开、被动流动池转向私有执行DEX。SolFi、Obricv2和ZeroFi等新型DEX虽然不运营前端...

Read More
某“Hyperliquid高胜率巨鲸”昨天建仓的ETH已浮盈24.1万美元 2025-05-14

某“Hyperliquid高胜率巨鲸”昨天建仓的ETH已浮盈24.1万美元

PANews5月14日消息,据链上分析师@ai_9684xtpa监测,“Hyperliquid获利超2,112.8万美元的高胜率巨鲸”昨天建仓的ETH已浮盈24.1万美元(ETH已从当时的2457美元...

Read More
分析:缓慢的区块链治理使加密货币面临量子计算技术的威胁 2025-05-14

分析:缓慢的区块链治理使加密货币面临量子计算技术的威胁

PANews5月14日消息,据CoinDesk报道,QuipNetwork联合创始人ColtonDillion表示,量子计算技术可能对区块链安全构成实质性威胁。尽管该技术尚处早期阶段,但谷歌、微软等企...

Read More

立即创建 账号,开始交易!

创建账号