新闻资讯

四平塑料挤出机 DeepSeekV3.2技术报告还是老外看得细

发布日期:2025-12-20 21:21 点击次数:55
塑料挤出机

ChatGPT 三岁生日这一天四平塑料挤出机,硅谷热议的新模型来自DeepSeek。

准确说是两款开源模型——DeepSeek-V3.2和DeepSeek-V3.2-Speciale。

这俩模型火到什么程度呢?

有网友表示,在去圣地亚哥的(疑似赶场 NeurIPS 2025)航班上,有 30% 的乘客都在对着 DeepSeek 的 PDF 两眼冒光。

而上周嘲讽 DeepSeek "昙花一现"的推特更是在发布的当晚被刷到了500 万浏览。

除了普通网友,奥特曼也是急急急急:不仅启动红色警报,还临时推迟了在 ChatGPT 上投放广告的计划。

与此同时,那一头的谷歌也没被放过。

网友直接 "灵魂喊话" 谷歌 Gemini 团队:别睡了,DeepSeek 回来了。

这是怎么一回事?

闭源精锐?打的就是闭源精锐!

总的来说,DeepSeek-V3.2 模型在智能体评测中达到了当前开源模型的最高水平,大幅缩小了开源模型与顶尖闭源模型的差距,并宣告了闭源落后开源的结束。

其中,标准版 DeepSeek-V3.2 在推理测试中,达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro。

而"特别版" DeepSeek-V3.2-Speciale 不仅全方位超越了 GPT-5,还能在主流推理任务中和 Gemini-3.0-Pro 掰掰手腕。

此外,V3.2-Special 还拿下了 IMO、CMO、ICPC 及 IOI 的金牌,并在 ICPC 和 IOI 上达到了人类选手第二名与第十名的水平。

这不仅击碎了开源模型落后闭源模型半年的质疑,又顺便给硅谷的闭源 AI 公司好好上了一波压力。

而且,这还不是 V4/R2。

换句话说,大菜还没上呢,光凉菜就已经让硅谷吃饱了。

对于 DeepSeek-V3.2 这次的成绩,DeepSeek 研究院苟志斌(Zhibin Gou)在推特上给出了相当直觉性的解答:

文安县建仓机械厂

强化学习在长上下文长度下也能持续扩展。

为了理解这句话,我们简要地回顾一下论文。

简单来说,DeepSeek-V3.2 其实干了这么几件事:

首先,利用 DSA 稀疏注意力解决了长上下文的效率问题,为后续的长序列强化学习打下了计算基础。

接下来,通过引入可扩展的 RL,并投入超过预训练成本 10% 的算力进行后训练,大幅提升模型的通用推理和智能体能力。

最后,DeepSeek-V3.2-Speciale 版本为了探索推理能力的极限,特意放宽了 RL 的长度限制,允许模型生成极长的"思维链",迫使模型通过大量的 Token 生成来进行深度的自我修正和探索。

这也就是说,通过长思维链让模型思考更多,通过自我修正探索让模型思考更久,进而解锁更强的推理能力。

由此,模型就能在不增加预训练规模的情况下,通过极长的思考(消耗更多 token)过程实现性能的飞跃。

而上面的实验结果,恰恰证明了这套"在超长上下文下持续扩展强化学习"路线的正确性。

正如苟志斌所说:四平塑料挤出机

如果说 Gemini-3 证明了:预训练可以持续扩展,那么 DeepSeek-V3.2-Speciale 则证明了:强化学习在长上下文长度下也能持续扩展。

我们花了一年时间把 DeepSeek-V3 逼到极限。得到的教训是:

后训练阶段的瓶颈,不是等"更好的底座模型"来解决,而是靠方法和数据本身的精炼(refine)来解决。

换句话说,如果说 Gemini-3 靠"堆知识(预训练)"赢得了上半场,那么 DeepSeek-V3.2-Speciale 则通过"堆思考(长上下文 RL)"赢回了下半场。

此外,对于大模型已经撞到天花板了的论调,他表示:

预训练能 scaling,RL 也能 scaling,context 也能 scaling,所有维度都还在上涨。

这表明RL 不仅有效,还能通过 scaling(更大 batch、更长 context、更丰富任务)获得巨额收益。

了解世界,从了解自己开始。人体就像一座大型的游乐园,里头藏着许多惊奇的机关和秘密。每个孩子都对自己的身体无比好奇,在成长的过程中,他们会冒出许多有关身体的小问号。

12 月 6 日至 8 日,由粤港澳三地政府主办的 2025 大湾区科学论坛将举行,论坛以"智创湾区 产研共融"为主题,设置开幕式、主论坛,隔热条设备并在香港、澳门、广州、深圳等地同步举办超过 20 个分论坛及特色活动等系列活动。本次大湾区科学论坛云集国内外知名院士、知名科学家,汇聚科创领域"最强大脑",聚焦前沿技术及新兴产业、未来产业发展,为大湾区科技创新与产业创新深度融合建言献策。

深演智能是一家决策 AI 技术公司,主营业务是将 AI 技术应用于企业的营销和销售场景。

《红楼梦》第四十一回,刘姥姥二进大观园,贾母设宴款待。

小米公司新媒体总监 @神得强 Steven、REDMI 产品经理胡馨心也在徐洁云该条微博下评论:我也收到过。

上个周末,我同朋友去了一家北京的洗浴中心。6 小时的门票 70 元出头,对于从小就常去澡堂子的我来说,这里价格不算便宜,但在北京的线下生活中,也算不上昂贵。

同时,在论文中,也有网友发现了为什么 DeepSeek-V3.2 在 HLE 和 GPQA 等知识基准测试中表现稍逊:

因为计算资源有限!而单靠强化学习是无法达到这样的水平的。

换句话说,DeepSeek 与顶尖模型的差距已经不是技术问题,而是经济问题。

只要卡够,好的开源不比闭源差!

想到会便宜,没想到会便宜这么多

除了性能上持平顶尖闭源模型外,DeepSeek-V3.2 系列这次也着实让大家见识到了"智能便宜到不用计费"。

如果从百万 token 输出成本来看,DeepSeek-V3.2 比 GPT-5 便宜近24 倍,比 Gemini 3 Pro,便宜近29倍。

而随着输出 token 个数的增加,这个差距最高可拉大到43 倍。

这是什么概念呢?就好比你让大模型一次性"写"出一套《三体》三部曲,用 GPT-5 你大概需要八百块,Gemini 3 Pro 需要一千块。

用 DeepSeekV3.2 只需要差不多 35 块钱!

所以,性能差不多,价格却能差出几十倍。该选哪边,答案不用多说了吧?

对此,有网友表示,DeepSeek-V3.2 这一经济实惠的开源模型正在挑战 Gemini3.0 Pro。

而另一头 OpenAI 昂贵的订阅费,瞬间就不顺眼了。

当然,这并不是说 DeepSeekV3.2 毫无缺点。

正如一位网友指出的,同样解决一个问题,Gemini 只需要 2 万个 token,而 Speciale 则需要花费 7.7 万个。

(这实际上也是上面长下文 RL 的 trade off)

不过,低廉的价格也在一定程度上弥补了现阶段 Speciale 版本的弱点。

总的来说,DeepSeek 仍旧是更实惠的那个。

除此之外,也许更让硅谷感到头疼的就是 DeepSeek-V3.2 还可能直接在国产算力(华为、寒武纪)中部署,而这将进一步拉低模型推理的成本。

此前,在发布 DeepSeek-V3.2-Exp 时,DeepSeek 在发布首日就针对华为 Ascend 硬件和 CANN 软件栈进行了优化。

这次的 DeepSeek-V3.2 系列虽然没有明确表示,但大概率也会延续此前的战略。

换句话说,难过可能的不止是谷歌和 OpenAI,还有他们的好兄弟——英伟达。

然而,这里的价格还只是模型公司的定价,并非推理的实际成本。

尽管我们无法得知各家模型实际的推理成本,但从 DeepSeek 的技术报告中可以看到一个清晰趋势:

相较于前一代模型 DeepSeek-V3.1-Terminus,DeepSeek-V3.2 在最长上下文(128K)场景下,成本降低了75%到83%左右。

这意味着随着注意力机制与后训练的不断优化,底层推理成本正在持续下探。

正如一位网友所总结的那样:

DeepSeek 证明了:实现强大的 AI,并不一定需要夸张的资本投入。

参考链接

[ 1 ] https://x.com/airesearch12/status/1995465802040983960

[ 2 ] https://www.nbcnews.com/tech/innovation/silicon-valley-building-free-chinese-ai-rcna242430

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  完  —

� �  不到 2 周,量子位 MEET2026 智能未来大会就要来了!

‍张亚勤、孙茂松等 AI 行业重磅嘉宾,以及百度、高通、亚马逊等头部 AI 企业已确认出席,RockAI、太初元碁、自变量、小宿科技等业内新秀也将参与分享,还有更多嘉宾即将揭晓 � �  了解详情

‍    � �   12 月 10 日

    � � 北京金茂万丽酒店

,期待与你共论 AI 行业破局之道  

� � 点亮星标 � �

科技前沿进展每日见四平塑料挤出机

关于我们 新闻资讯 产品展示
18631662662
电话:18631662662
地址:文安县兴隆宫镇大郭庄工业区
隔热条PA66生产设备厂_建仓机械

Powered by 隔热条PA66生产设备厂_建仓机械 RSS地图 HTML地图

Copyright Powered by站群系统 © 2025-2035