DeepSeek-R1 推理模型迎来重大更新,性能显著提升

DeepSeek发布R1推理模型更新(0528),采用MIT许可证,参数量达6850亿,实测性能提升显著,尤其在代码能力方面表现突出。网友期待R2。

原文标题:DeepSeek-R1今天一次「小更新」,颠覆了大模型格局,网友:尽快放R2

原文作者:机器之心

冷月清谈:

DeepSeek 近日发布了 R1 推理模型的最新版本(0528),参数量高达 6850 亿。虽然模型体量巨大,但采用了 MIT 许可证,可用于商业用途。实测表明,新版模型性能提升明显,尤其在编程任务上表现突出。在 LiveCodeBench 基准测试中,新模型几乎与 O3(High)打平。此外,Extended NYT Connections 基准上的成绩也显著提升,从 38.6 增至 49.8。网友实测表明,DeepSeek-R1-0528 在代码生成和问题解决方面表现出色,但可能存在过度思考的问题。尽管如此,这次更新仍然令人期待 DeepSeek R2 的发布。

怜星夜思:

1、DeepSeek R1 的这次更新对整个开源社区意味着什么?除了性能提升,你认为它最大的价值体现在哪里?
2、文章提到 DeepSeek R1-0528 在解决简单问题时存在“过度思考”的现象,你认为这是所有大模型的通病吗?如果是,有哪些可能的解决方案?
3、DeepSeek R1 的快速迭代更新,是否预示着大模型领域的技术进步速度正在加快?对于开发者和普通用户来说,这种快速变化意味着什么?

原文内容

机器之心报道

编辑:泽南、Panda

超出所有人的期待。


千呼万唤始出来,DeepSeek 迎来了推理模型更新。



昨晚,DeepSeek 官方宣布其 R1 推理模型升级到了最新版本(0528),并在今天凌晨公开了模型及权重。



HuggingFace 链接:https://huggingface.co/deepseek-ai/DeepSeek-R1-0528


模型文件上传时间是凌晨 1 点,不知 DeepSeek 工程师们是不是加班到了最后一刻。也有网友表示,这回又在端午节假期前发新模型,简直比放假通知还靠谱。



这次更新的升级版 R1 参数量高达 6850 亿,体量巨大,虽然开源了出来,但大多数人只能围观。如果「满血版」不进行蒸馏,是肯定无法在消费级硬件上本地运行的。


不过这种不说话直接放链接的态度还是引来了网友们的普遍欢迎。



根据 DeepSeek 的小范围通知,更新后的 R1 版本采用 MIT 许可证,这意味着它可以用于商业用途,从版本号看来这是一个「小」升级,不过人们大量实测后发现,新版大模型的性能提升颇为明显。


我们也能在新版 DeepSeek-R1 模型的配置文件中看到更多但并不出人意料的信息,包括采用了 DeepSeek-V3 作为基础模型以及 MoE、隐藏层大小、量化等配置。



我们现在已经可以在 DeepSeek 的网页端和 App 上直接用上这个最新版本的大模型。


有网友总结表示,新的 DeepSeek-R1-0528 可以进行更加深度的推理,输出的文本更加自然,结构更有层次感,它展现出了独特的推理风格,不仅速度很快,而且进行了充分的思考。与上周发布的 Claude4 类似,现在的 DeepSeek 也可以进行长时间的思考了,据说能持续 30-60 分钟。




已经有一些网友实测时遇到了 DeepSeek 的长考,这 deep research 可够深度的:



基准评分,成绩大幅提升


DeepSeek R1 发布以来,大模型领域的格局已经发生了变化。原版 R1 的成绩如今已不再领先,R1-0528 的出现修正了结果。


R1-0528 模型的第一个 Benchmark 成绩是 LiveCodeBench,它超越了 O3-Mini,几乎与 O3(High)的评分相当,在编程任务上相比上个版本有了显著的提升。



要知道 DeepSeek 模型是完全开源的,App 目前为止也完全免费,这可以说是开源的胜利。


另外,其在 Extended NYT Connections 基准上的成绩也已经出炉,相比于前一代 DeepSeek-R1,最新的 0528 版本的提升非常明显,从 38.6 增至了 49.8,接近 Claude Opus 4 Thinking 16k;不过在该基准上,DeepSeek-R1-0528 仍旧没有挤进 OpenAI o 系列模型占据的第一梯队。



目前,ChatBot Arena 上也已经更新了新版本的 DeepSeek R1,让我们看看大家充分测试过后它的排名能爬到多高。



网友实测:代码能力大幅提升


虽然 DeepSeek-R1-0528 才刚出来不久,但已经有不少网友分享了自己的实测结果。


比如开发者 Haider 就通过一个编程挑战赛(构建一个词评分系统)挑战了当前主流的前沿模型,结果发现,目前只有 o3 和新版 DeepSeek-R1 能够完成这个挑战。这不禁让他感叹:DeepSeek is so back...



也有网友通过一个小球撞墙实验直观地对比了 Claude-4-Sonnet 与 DeepSeek-R1-0528 的实际表现。可以看到,DeepSeek-R1 生成的代码在模拟物理碰撞方面表现会更好一些。



Hyperbolic Labs CTO 和联创 Yuchen Jin 也进行了简单测试,发现 R1-0528 是目前唯一一个始终能正确回答「what is 9.9 - 9.11?」的模型。



下面是他录制的演示视频:



机器之心也做了一次简单的尝试,让其用 Python 编写了一个可以将 Word 文档中的图片提取到固定路径的小程序。



可以看到,DeepSeek-R1 用一分多钟完成了任务,那实际效果如何呢?很遗憾,出现了一个报错:



这是一个简单的句法错误,下面我们直接将其反馈给 R1-0528。结果出现了一个有趣的现象,对于这个简单报错,R1 模型思考的时间(212 秒)远远超过了之前写出整个程序的时间。


图片


查看其思考过程可知,新版本的 R1 与之前的版本一样存在过度思考的问题,即反复思考和验证原本很简单的问题。


不过好在,修改后的程序成功完成了指定任务,就是这 UI 字体有点不协调:


图片


我们还进行了另一些简单测试。整体来说,我们感觉新版 DeepSeek-R1 相比前一版本确实提升不小,完成一个任务所需的对话轮次也少了许多。


最后,尽管 R1 这次提升很大,网友们还是期待 DeepSeek 尽快放出 R2。



一个小版本更新就如此惊艳,DeepSeek R2 会是什么样子?这一次,我们是不是要等到国庆节?


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

快!太快了!感觉今天刚学会用一个模型,明天就被新的模型取代了。这种快速变化对开发者来说绝对是挑战,逼着你不停学习。但也带来了机遇,你能更快地接触到最前沿的技术,做出更酷的应用。对普通用户来说,可能有点眼花缭乱,但最终受益的还是咱们,能用上更强大、更智能的AI服务。

技术进步速度加快是肯定的!这就像军备竞赛一样,大家都在拼命往前跑。对开发者来说,意味着要不断学习新知识、掌握新技能,才能跟上时代的步伐。同时也意味着更多的机会,因为新的模型、新的工具层出不穷,总能找到自己擅长的领域。对于普通用户来说,可能感觉变化不大,但实际上,AI正在悄悄地改变我们的生活,比如更智能的搜索、更个性化的推荐等等。

这不叫通病!这叫“AI的倔强”!哈哈,开玩笑。认真说,我觉得这反映了目前大模型的一个局限:它们还不太会“偷懒”。人脑会根据经验快速判断问题的难度,然后采取相应的策略,但大模型往往会一视同仁地进行深入分析。解决办法可能是引入一些模仿人类认知过程的机制,比如注意力机制,让模型能够更有效地分配计算资源。

我觉得这次 DeepSeek R1 的更新对开源社区意义重大!最直接的当然是提供了一个更高性能的开源模型,让大家有更多选择。但更重要的是,它证明了开源模型也能达到甚至超越一些闭源模型,这能激励更多人参与到开源项目中来,形成一个良性循环。而且,DeepSeek 采用 MIT 许可证,允许商业使用,这大大拓宽了开源模型的应用场景,让更多企业能从中受益。

从计算角度来说,我认为这可能是模型在面对不确定性时的一种自我保护机制。简单的问题,模型可能存在多种潜在的解决方案,为了确保选择最优解,模型会进行大量的搜索和评估。要解决这个问题,可能需要引入一些先验知识,或者让模型能够更好地利用已有的经验,减少不必要的计算。

与其说是技术上的突破,不如说是理念上的胜利。DeepSeek R1 的更新,代表着开源社区的崛起。它让更多人意识到,知识不应该被垄断,而应该共享和传播。这种开放的精神,才是推动技术进步的根本动力。当然,模型本身性能的提升也很重要,但更重要的是它背后的价值观。

这种加速进步是必然的,因为大模型的研究已经进入了一个正反馈循环:更多的资源投入,更多的研究人员参与,更多的应用场景出现,都会推动技术更快地发展。对于开发者来说,这意味着要保持开放的心态,拥抱变化,不断学习新的知识。对于普通用户来说,这意味着要提高自身的数字素养,学会正确地使用和评估AI技术,避免被虚假信息误导。

格局要变了!DeepSeek R1 这波操作,感觉就像鲶鱼效应,给整个大模型市场都注入了活力。之前大家卷参数、卷速度,现在DeepSeek告诉你,开源也能做出好东西。它最大的价值在于,让更多人用得起、改得起大模型,降低了AI的门槛。以后说不定人人都能定制自己的专属AI了。

过度思考,我觉得这确实是大模型一个挺普遍的问题。你想啊,模型为了追求更高的准确率,会在各种可能性之间反复验证,就像一个学霸做小学算术题,非要用微积分验算一遍,结果反而浪费了时间。解决方案的话,一方面可以优化模型结构,减少冗余计算;另一方面可以引入一些自适应机制,让模型能够根据问题的难度自动调整思考深度。