DeepSeek官方发布R1模型推荐设置,提升使用效果

DeepSeek官方发布R1模型推荐设置,包括温度参数、提示词模板及防止模型绕过思考的指南。

原文标题:刚刚,DeepSeek官方发布R1模型推荐设置,这才是正确用法

原文作者:机器之心

冷月清谈:

DeepSeek 官方更新了 R1 模型的推荐设置,旨在帮助用户更好地使用该模型。主要包括四个方面:
1. 不使用系统提示词,许多开发者也提出过这项建议。
2. 温度参数设置为 0.6,官方解释这样可以防止模型输出无休止的重复或不连贯的内容。
3. 提供了用于搜索和文件上传的官方提示词模板,方便用户根据自身需求进行调整。
4. 提供了缓解模型绕过思考问题的指南,建议强制模型对每个输出都以
开头,确保模型进行充分的推理。

怜星夜思:

1、除了官方推荐的设置外,还有哪些技巧可以提升DeepSeek-R1模型的性能?
2、DeepSeek-R1模型的温度参数设置为0.6,这个值是如何确定的?是否有其他推荐值?
3、模型绕过思考的问题是如何产生的?除了官方提供的方案外,还有其他解决方法吗?

原文内容

机器之心报道
机器之心编辑部

自春节以来,DeepSeek 就一直是 AI 领域最热门的关键词,甚至可能没有之一,其官方 App 成为了史上最快突破 3000 万日活的应用。最近一段时间,各家 AI 或云服务厂商更是掀起了部署 DeepSeek-R1 服务的狂潮,甚至让薅羊毛的用户们都有点忙不过来了。

就在刚刚,DeepSeek 官网 X 帐号终于更新了(上一次更新还是在 1 月 28 日),官方下场推荐了部署 DeepSeek-R1 的设置。DeepSeek 强调官方部署的版本跟开源版本模型完全一致。


刚刚发出,就吸引了全网围观。


内容不多,分为四项。

第一项是:不要使用系统提示词。这个建议其实已经被很多开发者提出过了。


第二项是:温度参数设置为 0.6。至于原因,DeepSeek-R1 项目中写到:「将温度设置在 0.5-0.7 范围内(建议为 0.6),以防止无休止的重复或不连贯的输出。」

第三项,DeepSeek 分享了用于搜索和文件上传的官方提示词。

对于文件上传,建议用户按照模板创建提示,其中 {file_name}、{file_content} 和 {question} 是参数。

filetemplate = \ """[file name]: {filename} [file content begin] {file_content} [file content end] {question}"""

对于网页搜索,参数包括 {search_results}、{cur_data} 和 {question} 。

对于中文查询,使用的提示词是:


对于英文查询,使用的提示词是:


第四项则是一个指南,说明了可以如何缓解模型绕过思考的问题。DeepSeek 写到:「我们观察到 DeepSeek-R1 系列模型在响应某些查询时倾向于绕过思考模式(即输出 <think>\n\n</think>),这可能会对模型的性能产生不利影响。为了确保模型进行彻底的推理,我们建议强制模型对每个输出都以 <think>\n 为其响应的开头。」

虽然这一次实际上就只是更新了 DeepSeek-R1 项目的 README.md 文件,但依然收获了不少好评。


当然,也有用户对 DeepSeek 官方推荐的设置有所困惑:


最后,虽然这种开源奉献精神令网友们感动,不过,大家当前最大的痛还是这个:



参考链接:
https://x.com/deepseek_ai/status/1890324295181824107
https://github.com/deepseek-ai/DeepSeek-R1


© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]

对于“除了官方推荐的设置外,还有哪些技巧可以提升DeepSeek-R1模型的性能?”这个问题,我想到的是,可以结合其他工具一起使用,比如用一些可视化工具分析模型输出的结果,或者用一些脚本批量处理数据等等。

针对模型绕过思考这个问题,我觉得可能是模型训练数据或者训练方式导致的。除了官方的方案,或许可以尝试修改模型结构,或者使用不同的训练策略。不过这需要更深入的研究。

针对“除了官方推荐的设置外,还有哪些技巧可以提升DeepSeek-R1模型的性能?”这个问题,我觉得可以尝试微调模型。虽然官方说模型跟开源版本一致,但针对特定任务的微调应该还是有帮助的。

对于温度参数设置为0.6,我感觉可以试试不同的值,看看效果有什么变化。说不定0.5或者0.7更适合你的需求,可以多做一些对比实验。

关于模型绕过思考的解决方法,除了官方的方案,我想到的是,可以分析一下导致模型绕过思考的原因,看看是哪些类型的输入容易触发这个问题,然后针对性的进行优化。

关于如何提升DeepSeek-R1模型性能,除了官方的设置,我觉得还可以试试不同的提示词组合,即使是同样的问题,换个问法也许能得到更好的结果。之前用其他模型的时候我就发现这个问题。

关于温度参数的问题,我猜DeepSeek官方应该是做过一些实验,最终确定0.6是比较合适的范围。文章里也说了可以是0.5-0.7之间。具体哪个值好可能也跟你的应用场景有关系。

模型绕过思考,我理解就是模型偷懒了,没有认真思考问题。除了强制它以开头,或许可以换种问法,引导它进行更深入的思考。就像跟人对话一样,有时候需要引导对方。

DeepSeek-R1模型的温度参数为什么是0.6?我觉得可以看看官方有没有更详细的解释,或者查查相关的论文。说不定能找到更优的值。