
DeepSeek R1 模型已完成小版本升级,当前版本为 DeepSeek-R1-0528。用户通过官方网站、APP 或小程序进入对话界面后,开启“深度思考”功能即可体验最新版本。API 也已同步更新,调用方式不变。
深度思考能力强化
DeepSeek-R1-0528 仍然使用 2024 年 12 月所发布的 DeepSeek V3 Base 模型作为基座,但在后训练过程中投入了更多算力,显著提升了模型的思维深度与推理能力。
更新后的 R1 模型在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如 o3 与 Gemini-2.5-Pro。

相较于旧版 R1,新版在复杂推理任务中的表现有了显著提升。例如在 AIME 2025 测试中,新版模型准确率由旧版的 70% 提升至 87.5%。这一进步得益于模型在推理过程中的思维深度增强:在 AIME 2025 测试集上,旧版模型平均每题使用 12K tokens,而新版模型平均每题使用 23K tokens,表明其在解题过程中进行了更为详尽和深入的思考。
同时,我们蒸馏 DeepSeek-R1-0528 的思维链后训练 Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。该 8B 模型在数学测试 AIME 2024 中仅次于 DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),与 Qwen3-235B 相当。我们相信,DeepSeek-R1-0528 的思维链对于学术界推理模型的研究和工业界针对小模型的开发都将具有重要意义。

其他能力更新
- 幻觉改善: 新版 DeepSeek R1 针对“幻觉”问题进行了优化。与旧版相比,更新后的模型在改写润色、总结摘要、阅读理解等场景中,幻觉率降低了 45~50% 左右,能够有效地提供更为准确、可靠的结果
- 创意写作: 在旧版 R1 的基础上,更新后的 R1 模型针对议论文、小说、散文等文体进行了进一步优化,能够输出篇幅更长、结构内容更完整的长篇作品,同时呈现出更加贴近人类偏好的写作风格。

- 工具调用: DeepSeek-R1-0528 支持工具调用(不支持在 thinking 中进行工具调用)。当前模型 Tau-Bench 测评成绩为 airline 53.5% / retail 63.9%,与 OpenAI o1-high 相当,但与 o3-High 以及 Claude 4 Sonnet 仍有差距。

此外,DeepSeek-R1-0528 在前端代码生成、角色扮演等领域的能力均有更新和提升。

API 更新
API 已同步更新,接口与调用方式保持不变。新版 R1 API 仍支持查看模型思考过程,同时还增加了 Function Calling 和 JsonOutput 的支持。
我们对新版 R1 API 中 max_tokens 参数的含义做了调整:现在 max_tokens用于限制模型单次输出的总长度(包括思考过程),默认为 32K,最大为 64K。请 API 用户及时调整 max_tokens 参数以防输出被提前截断。
R1 模型的使用方法详见 API 指南:https://api-docs.deepseek.com/zh-cn/guides/reasoning_model。
本次 R1 更新后,官方网站、小程序、App 端和 API 中的模型上下文长度仍为 64K。如果用户对更长的上下文长度有需求,可以通过其他第三方平台调用上下文长度为 128K 的开源版本 R1-0528 模型。
模型开源
DeepSeek-R1-0528 与之前的 DeepSeek-R1 使用同样的 base 模型,仅改进了后训练方法。私有化部署时只需要更新 checkpoint 和 tokenizer_config.json(tool calls 相关变动)。模型参数为 685B(其中 14B 为 MTP 层),开源版本上下文长度为 128K(网页端、App 和 API 提供 64K 上下文)。
DeepSeek-R1-0528 模型权重下载请参考:
Model Scope: https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-0528
Huggingface: https://huggingface.co/deepseek-ai/DeepSeek-R1-0528
与旧版本的 DeepSeek-R1 保持一致,此次我们的开源仓库(包括模型权重)仍然统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。
相关图书
同样的提示词分别发给 Claude Opus 4、Sonnet 4、Gemini 2.5 Pro 以及 DeepSeek R1-0528 ,让它们在六个越来越变态的前端开发任务中一决高下,让你清晰的看到 DeepSeek R1 0528 有多强。
对话 DeepSeek-Prover 核心作者辛华剑
辛华剑,现在是爱丁堡大学人工智能专业的一年级博士生,研究方向是使用大语言模型进行形式化数学定理自动证明的任务。本科就读于中山大学哲学系逻辑学专业,深入学习了这类形式化方法的理论基础,后来在中山大学梁小丹老师的指导下开始以 AI 研究的视角切入这个问题,随后分别在华为诺亚方舟实验室和 DeepSeek AI 做了一系列探索性的工作,现在在读博士的同时也在字节跳动 Seed 团队继续进行这一方向的研究实习。
写AI提示词,完全遵循“不确定性原理”
最近因为Gemini、Claude都升级了模型,所以在试着更新提示词,利用模型的最新性能,过程真是痛并痛着。当然,不改也行,但是多数时候,都需要根据模型变化,调整一下。同一个模型版本迭代要改,换到其他模型执行任务更要改。(我称之为提示词移植)
Google AI Edge Gallery – 谷歌开源项目|完全本地运行大模型APP
Google AI Edge 画廊是一款实验性应用,将最先进的生成式 AI 模型直接交到您的手中,在您的 Android (现已上线) 和 iOS (即将推出) 设备上完全本地运行。探索一个充满创意和实用 AI 应用场景的世界,在加载模型后无需网络连接即可运行。