深度求索DeepSeek-V3.2-Exp架构发布,寒武纪同步适配并开源vLLM-MLU。中国AI顶尖企业深度协同,助力大模型长文本处理降本增效。
原文标题:强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码
原文作者:机器之心
冷月清谈:
引人注目的是,寒武纪公司紧随其后,同步宣布完成了对DeepSeek-V3.2-Exp的适配,并开源了大模型推理引擎vLLM-MLU的源代码,方便开发者在寒武纪软硬件平台上第一时间体验新模型。
业内专家普遍认为,这种模型与芯片厂商的“高能”同步发布和适配,标志着中国顶尖科技企业间深度协同的新趋势。考虑到DeepSeek-V3.2模型的庞大体量(671GB)以及芯片适配的复杂性,专家分析这绝非短期内能完成的工作,而是双方长期低调协作的成果。这种拒绝炒作、专注于技术的务实风格,正体现了中国高科技企业的典型特征。
在全球AI竞争日益激烈的背景下,国内头部企业间的深度协同被视为中国AI产业实现国际领先的关键。此次深度求索与寒武纪的联手,不仅是中国高科技企业协同创新的有力例证,也预示着未来大模型用户在长序列场景下的训练和推理成本将大幅降低,从而加速AI应用的普及和多样化“涌现”。
怜星夜思:
2、DeepSeek-V3.2-Exp引入的“稀疏注意力机制”对大模型处理长文本到底有多大提升?这种技术未来会成为主流吗?有没有可能带来新的挑战?
3、文章提到“产业链上下游领军企业的深度协同将大幅降低大模型用户在长序列场景下的训推成本”。除了成本降低,这种协同对国内AI生态,比如中小企业或者个人开发者来说,还意味着什么?
原文内容
机器之心编辑部
2025 年 9 月 29 日,深度求索公司发布新一代模型架构 DeepSeek-V3.2 ,引发行业广泛关注。令人瞩目的是,在该大模型发布的同时,寒武纪也官宣了对 DeepSeek-V3.2 的适配,并开源大模型推理引擎 vLLM 源代码。
深度求索公司正式发布的 DeepSeek-V3.2-Exp 模型,是一个实验性(Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。
目前,DeepSeek 官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时 API 大幅度降价,欢迎广大用户体验测试并提供反馈意见。
这一同步发布适配的“高能”操作,在业内专家看来,背后蕴含着中国顶尖科技企业深度协同的重要信号。
从技术层面来看,这款新大模型的体量相当可观,达到了 671GB 。据行业测算,在带宽充足的理想条件下,仅完成该大模型的下载,就需要耗费约 8-10 个小时。而芯片与大模型的适配,涉及底层架构优化、算力资源匹配、兼容性调试等一系列复杂工作,绝非短时间内能够完成。
有 AI 行业资深专家分析指出:“如此快速的适配响应,充分说明寒武纪早在 DeepSeek-V3.2 发布前就已启动适配研发,双方在技术层面的沟通与协作早已悄然展开。双方都是低调务实的公司,前期秘而不宣,估计早就已经相向而行了。”拒绝炒作、专注技术,正是当下中国顶尖科技企业行事风格的典型体现。
全球 AI 竞争日趋激烈,中国 AI 产业要想在国际舞台上站稳脚跟、占据优势地位,离不开头部企业间的深度协同合作。此次大模型与 AI 芯片领军企业的快速联动,正是国内高科技企业协同创新的有力例证。
我们可以期待,本次产业链上下游领军企业的深度协同,将大幅降低大模型用户在长序列场景下的训推成本,助力 AI 应用的 “涌现”。
DeepSeek开源模型获取方式:
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
vLLM-MLU DeepSeek-V3.2-Exp适配的源码获取方式:
https://github.com/Cambricon/vllm-mlu
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com