Ollama 0.9版本推出“思考功能”控制选项:启用或禁用模型推理过程

早报6个月前发布 小马良
3,397 0

Ollama在0.9版本更新中新增了一项重要功能:支持用户启用或禁用模型的“思考”行为。这项功能为开发者和终端用户提供了更高的灵活性,可以根据不同应用场景选择是否展示模型的推理过程。

什么是“思考功能”?

 启用思考功能 时,模型会在输出最终答案前,先展示其内部的推理过程;而当 禁用思考功能 时,模型将直接输出结果,跳过中间的思考步骤。

这对于需要高效响应的场景(如自动化脚本、快速问答)非常实用;而对于教学、演示、调试等用途,则可以通过开启思考功能,帮助用户更好地理解模型是如何得出结论的。

当前支持该功能的模型

目前,以下模型已支持“思考功能”:

  • DeepSeek R1
  • Qwen 3

更多模型正在逐步加入“可思考模型列表”,未来将陆续开放支持。

如何在不同场景中使用思考功能?

✅ 命令行界面(CLI)

在命令行中,默认是 启用思考功能 的,这意味着你可以看到模型完整的推理过程。

启用思考:
--think
禁用思考:
--think=false

你也可以在交互式会话中动态切换:

在对话中启用:
/set think
在对话中禁用:
/set nothink

✅ 脚本编写

如果你希望使用具备思考能力的模型,但又不希望输出中包含推理过程,可以使用 --hidethinking 参数来隐藏思考内容,只显示最终答案。

示例:

ollama run deepseek-r1:8b --hidethinking "9.9 比 9.11 大吗?"

✅ API 使用(生成与聊天接口)

Ollama 的 /api/generate  /api/chat 接口也已更新,支持通过参数控制是否启用模型的思考功能。

新增参数:

{
"think": true | false
}
  • 设置为 true:返回模型的思考过程 + 最终答案;
  • 设置为 false:仅返回最终答案,不进行推理展示。
示例:使用聊天 API 启用思考功能
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1",
  "messages": [
    {
      "role": "user",
      "content": "how many r in the word strawberry?"
    }
  ],
  "think": true,
  "stream": false
}'

应用场景举例

场景是否启用思考功能说明
教学演示✅ 是展示模型如何一步步分析问题,增强学习效果
自动化脚本❌ 否提升响应速度,避免冗余输出
游戏 NPC 对话✅ 是可用于构建“NPC 思考气泡”动画,提升沉浸感
快速问答系统❌ 否直接给出答案,提高效率

开始使用

要体验这一新功能,请确保你已安装 最新版本的 Ollama。你可以在 官网 下载并更新至当前支持思考功能的版本。

© 版权声明

相关文章

暂无评论

none
暂无评论...