国产AI软硬协同加速:DeepSeek新模型上线 一众芯片厂商官宣Day 0适配
作者:微信文章9月29日晚间,国产人工智能(AI)技术厂商深度求索(DeepSeek)宣布正式发布DeepSeek-V3.2-Exp模型,正如其名称所示的那样,这是一个基于V3.2实验性(Experimental)的版本。
作为迈向新一代架构的中间步骤,Deepseek V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。
据介绍,DeepSeek Sparse Attention(DSA)稀疏注意力机制首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。
为了严谨地评估引入稀疏注意力带来的影响,我们特意把 DeepSeek-V3.2-Exp 的训练设置与 V3.1-Terminus 进行了严格的对齐。在各领域的公开评测集上,DeepSeek-V3.2-Exp 的表现与 V3.1-Terminus 基本持平。
目前,Deepseek官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时 API 大幅度降价。
国产AI软硬件的生态协同正呈现加速之态势。
昨日,DeepSeek-V3.2-Exp大模型一经发布,几家芯片厂商便完成“Day 0适配”。
据“华为计算”微信公众号消息,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。
寒武纪在官方微信号宣布,已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配。依托DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。
海光信息宣布,其DCU实现对DeepSeek-V3.2-Exp的无缝适配+深度调优,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。
在国内硬件厂商逐步发力的同时,互联网大厂也与之“双向奔赴”。9月16日,腾讯云宣布已全面适配主流国产芯片,并积极投身开源社区,参与并回馈其中;在日前举办的2025阿里云栖大会上,吴泳铭指出,通义千问将选择开放路线,旨在吸引更多第三方GPU和交换机厂商加入,共同构建一个支持异构计算的开放算力体系。
来源 | 财联社推荐阅读——
DeepSeek-V3.1引爆国产GPU
DeepSeek-V3.1发布:专为国产AI芯片设计
DeepSeek母公司总监被查
DeepSeek使用率从50%暴跌至3%?
消息称DeepSeek-R2 AI模型开发延迟
一文梳理98家国资央企DeepSeek应用进展
梁文锋新论文!DeepSeek降本秘籍公开!DeepSeek V3深夜低调升级,代码进化令人震惊
DeepSeek赋能网络安全产业迎来发展新机遇
OpenAI提交15页信函攻击DeepSeek
机器人基座大模型--下一个“DeepSeek”从这里来?
https://mmbiz.qpic.cn/mmbiz_jpg/y1Jg03epjVD0QnEvHMuxbMwtbcaonF123icblic2MB8LThNS9YUtDMjdpw1mpu2Luhv2WhzpY0PRplUP5gSGaqKQ/640?wx_fmt=jpeg&from=appmsg&wxfrom=5&wx_lazy=1&randomid=1w41l8xe&tp=webp#imgIndex=3
☞商务合作:☏ 请致电 010-82306118 / ✐ 或致件 Tiger@chinaaet.com
https://mmbiz.qpic.cn/mmbiz_jpg/y1Jg03epjVAkwfUeiaQaW7jfprWfiaIZGNpXZJJCIXA6cciajprc8BEQESyvrklEy4FZtAuPuib5L6wuAX9UR2yPIg/640?wx_fmt=other&from=appmsg&wxfrom=5&wx_lazy=1&wx_co=1&randomid=9sksykcx&tp=webp#imgIndex=4
https://mmbiz.qpic.cn/mmbiz_jpg/y1Jg03epjVBq0qhJCV4rib6r3QZFzy38ehj0NgMqs44Dm68FIicY20GiaOAmcjib8OLl9kCwZwV89ibdib6oIWM1kicpw/640?wx_fmt=other&wxfrom=5&wx_lazy=1&wx_co=1&randomid=lx2rzbtz&tp=webp#imgIndex=5
页:
[1]