-
Notifications
You must be signed in to change notification settings - Fork 7.7k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
feat(route): add Deepseek news route #17967
Merged
Merged
Conversation
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
github-actions
bot
added
the
Auto: Route Test Complete
Auto route test has finished on given PR
label
Dec 23, 2024
Successfully generated as following: http://localhost:1200/deepseek/news - Success ✔️<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
<channel>
<title>DeepSeek 新闻</title>
<link>https://api-docs.deepseek.com/zh-cn</link>
<atom:link href="http://localhost:1200/deepseek/news" rel="self" type="application/rss+xml"></atom:link>
<description>DeepSeek 新闻 - Powered by RSSHub</description>
<generator>RSSHub</generator>
<webMaster>[email protected] (RSSHub)</webMaster>
<language>en</language>
<lastBuildDate>Mon, 23 Dec 2024 14:50:02 GMT</lastBuildDate>
<ttl>5</ttl>
<item>
<title>DeepSeek V2 系列收官,联网搜索上线官网</title>
<description><p>今天,我们发布 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210。本版模型将是我们开启下一个全新基座模型系列前对 V2 系列的最后一次更新。</p>
<p>与之前版本相比,本次更新通过 Post-Training 全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。</p>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型通用能力提升">模型通用能力提升<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E6%A8%A1%E5%9E%8B%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B%E6%8F%90%E5%8D%87" class="hash-link" aria-label="模型通用能力提升的直接链接" title="模型通用能力提升的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本通过 Post-Training 阶段的迭代,全面提升了模型在各个领域的能力:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<p>遵循我们一贯的开源精神,新版模型权重已经开源在 Huggingface:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210</a></p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_hf.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="联网搜索功能">联网搜索功能<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E8%81%94%E7%BD%91%E6%90%9C%E7%B4%A2%E5%8A%9F%E8%83%BD" class="hash-link" aria-label="联网搜索功能的直接链接" title="联网搜索功能的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本支持了<strong>联网搜索</strong>功能,并已上线网页端。登陆 <a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">https://chat.deepseek.com/</a>,在输入框中打开 <strong>“联网搜索”</strong> 即可体验。目前,API 暂不支持搜索功能。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<p>在“联网搜索”模式下,模型将深入阅读海量网页,为用户生成全面、准确、满足个性化需求的回答。面对用户的复杂问题,模型将自动提取多个关键词并行搜索,在更短时间内提供更加多样的搜索结果。</p>
<p>以下是搜索效果示例:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_example_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="v25-的最后版本">V2.5 的最后版本<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#v25-%E7%9A%84%E6%9C%80%E5%90%8E%E7%89%88%E6%9C%AC" class="hash-link" aria-label="V2.5 的最后版本的直接链接" title="V2.5 的最后版本的直接链接"></a></h2></div>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_timeline.png" width="768" referrerpolicy="no-referrer"></div>
<p>DeepSeek-V2.5-1210 将会是 DeepSeek V2.5 模型的最后一个版本。随着本次模型的发布,我们 DeepSeek V2系列模型的迭代更新也将告一段落。</p>
<p>DeepSeek V2 系列模型自今年 5 月发布开源以来,已经陪伴大家走过了半年的时间,期间历经 5 次迭代,而广大用户朋友们的支持与肯定,正是我们一直以来坚持不断更新进步的动力。</p>
<p><strong>“有善始者实繁,能克终者盖寡。”</strong></p>
<p>终版模型是暂时的收束,更是全新的起点。</p>
<p><strong>DeepSeek正在打造更加强大的下一代基座模型 DeepSeek V3,敬请期待!</strong></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1210</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1210</guid>
<pubDate>Mon, 09 Dec 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek推理模型预览版上线,解密o1推理过程</title>
<description><p>今天,DeepSeek 全新研发的推理模型 DeepSeek-R1-Lite 预览版正式上线。</p>
<p>所有用户均可登录官方网页(<a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">chat.deepseek.com</a>),一键开启与 R1-Lite 预览版模型的超强推理对话体验。</p>
<p>DeepSeek R1 系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。</p>
<p>该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。</p>
<div align="center"><h3 class="anchor anchorWithStickyNavbar_YAqC" id="全面提升的推理性能">全面提升的推理性能<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E6%8F%90%E5%8D%87%E7%9A%84%E6%8E%A8%E7%90%86%E6%80%A7%E8%83%BD" class="hash-link" aria-label="全面提升的推理性能的直接链接" title="全面提升的推理性能的直接链接"></a></h3></div>
<ul>
<li>DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,均取得了卓越的成绩,大幅超越了 GPT-4o 等知名模型。</li>
<li>下表为 DeepSeek-R1-Lite 在各项相关评测中的得分结果:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="深度思考的效果与潜力">深度思考的效果与潜力<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%B7%B1%E5%BA%A6%E6%80%9D%E8%80%83%E7%9A%84%E6%95%88%E6%9E%9C%E4%B8%8E%E6%BD%9C%E5%8A%9B" class="hash-link" aria-label="深度思考的效果与潜力的直接链接" title="深度思考的效果与潜力的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 的推理过程长,并且包含了大量的反思和验证。下图展示了模型在数学竞赛上的得分与测试所允许思考的长度紧密相关。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_scaling_law_zh.jpg" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>红色实线展示了模型所能达到的准确率与所给定的推理长度呈正相关;</li>
<li>相比传统的多次采样+投票(Majority Voting),模型思维链长度增加展现出了更高的效率。</li>
</ul>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="全面上线尝鲜体验">全面上线,尝鲜体验<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E4%B8%8A%E7%BA%BF%E5%B0%9D%E9%B2%9C%E4%BD%93%E9%AA%8C" class="hash-link" aria-label="全面上线,尝鲜体验的直接链接" title="全面上线,尝鲜体验的直接链接"></a></h2></div>
<p>登录 chat.deepseek.com,在输入框中选择“深度思考”模式,即可开启与 DeepSeek-R1-Lite 预览版的对话。</p>
<p>“深度思考” 模式专门针对数学、代码等各类复杂逻辑推理问题而设计,相比于普通的简单问题,能够提供更加全面、清晰、思路严谨的优质解答,充分展现出较长思维链的更多优势。</p>
<ul>
<li>对话开启示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_demo_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>适用场景与效果示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_1_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_2_zh.png" width="768" referrerpolicy="no-referrer"></div>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="新的开始敬请期待">新的开始,敬请期待<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%96%B0%E7%9A%84%E5%BC%80%E5%A7%8B%E6%95%AC%E8%AF%B7%E6%9C%9F%E5%BE%85" class="hash-link" aria-label="新的开始,敬请期待的直接链接" title="新的开始,敬请期待的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 目前仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。</p>
<p>当前,我们正在持续迭代推理系列模型。之后,正式版 DeepSeek-R1 模型将完全开源,我们将公开技术报告,并部署 API 服务。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_deepseek_com_qr_code.png" width="300" referrerpolicy="no-referrer"><p><strong>扫码与 DeepSeek 开启对话</strong></p></div></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1120</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1120</guid>
<pubDate>Tue, 19 Nov 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek-V2.5:融合通用与代码能力的全新开源模型</title>
<description><p>今天,我们完成了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2 两个模型的合并,正式发布 <strong>DeepSeek-V2.5</strong>。</p>
<p>DeepSeek-V2.5 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。</p>
<p>DeepSeek-V2.5 现已在网页端及 API 全面上线,API 接口向前兼容,用户通过deepseek-coder或deepseek-chat均可以访问新的模型。同时,Function Calling、FIM 补全、Json Output 等功能保持不变。</p>
<p>All-in-One 的 DeepSeek-V2.5 将为用户带来更简洁、智能、高效的使用体验。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="升级历史">升级历史<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E5%8D%87%E7%BA%A7%E5%8E%86%E5%8F%B2" class="hash-link" aria-label="升级历史的直接链接" title="升级历史的直接链接"></a></h2>
<p>DeepSeek 一直专注于模型的改进和优化。在 6 月份,我们对 DeepSeek-V2-Chat 进行了重大升级,用 Coder V2 的 Base 模型替换原有的 Chat 的 Base 模型,显著提升了其代码生成和推理能力,并发布了 DeepSeek-V2-Chat-0628 版本。紧接着,DeepSeek-Coder-V2 在原有 Base 模型的基础上,通过对齐优化,大大提升通用能力后推出了 DeepSeek-Coder-V2 0724 版本。最终,我们成功将 Chat 和 Coder 两个模型合并,推出了全新的DeepSeek-V2.5 版本。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/version_history.png" width="768" referrerpolicy="no-referrer">
<p><strong>由于本次模型版本变动较大,如出现某些场景效果变差,建议重新调整 System Prompt 和 Temperature,以获得最佳性能。</strong></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="通用能力">通用能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="通用能力的直接链接" title="通用能力的直接链接"></a></h2>
<ul>
<li>通用能力评测</li>
</ul>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_1.jpeg" width="768" referrerpolicy="no-referrer">
<p>首先,我们使用业界通用的测试集对 DeepSeek-V2.5 的能力进行测评,在中文和英文四个测试集上,DeepSeek-V2.5 均优于之前的 DeepSeek-V2-0628 以及 DeepSeek-Coder-V2-0724。</p>
<p>在我们内部的中文评测中,和 GPT-4o mini、ChatGPT-4o-latest 的对战胜率(裁判为 GPT-4o)相较于 DeepSeek-V2-0628 均有明显提升。此测评中涵盖创作、问答等通用能力,用户使用体验将得到提升:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_2.jpg" width="768" referrerpolicy="no-referrer">
<ul>
<li>安全能力评测</li>
</ul>
<p>Safety 和 Helpful 之间的权衡是我们在迭代开发中一直重点关注的问题。在 DeepSeek-V2.5 版本中,我们对于模型安全问题的边界做了更加清晰的划分,在强化模型对于各种越狱攻击的安全性的同时,减少了安全策略过度泛化到正常问题中去的倾向。</p>
<table><thead><tr><th>Model</th><th>安全综合得分(越高越好)*</th><th>安全外溢比例(越低越好)**</th></tr></thead><tbody><tr><td>DeepSeek-V2-0628</td><td>74.4%</td><td>11.3%</td></tr><tr><td>DeepSeek-V2.5</td><td>82.6%</td><td>4.6%</td></tr></tbody></table>
<p>* 基于内部测试集合的得分,分数越高代表模型的整体安全性越高</p>
<p>** 基于内部测试集合的得分,比例越低代表模型的安全策略对于正常问题的影响越小</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="代码能力">代码能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E4%BB%A3%E7%A0%81%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="代码能力的直接链接" title="代码能力的直接链接"></a></h2>
<p>在代码方面,DeepSeek-V2.5 保留了 DeepSeek-Coder-V2-0724 强大的代码能力。在 HumanEval Python 和LiveCodeBench(2024 年 1 月 - 2024 年 9 月)测试中,DeepSeek-V2.5 显示了较为显著的改进。在 HumanEval Multilingual 和 Aider 测试中,DeepSeek-Coder-V2-0724 略胜一筹。在 SWE-verified 测试中,两个版本的表现都较低,表明在此方面仍需进一步优化。另外,在FIM补全任务上,内部评测集DS-FIM-Eval的评分提升了 5.1%,可以带来更好的插件补全体验。</p>
<p>另外,DeepSeek-V2.5对代码常见场景进行了优化,以提升实际使用的表现。在内部的主观评测 DS-Arena-Code 中,DeepSeek-V2.5 对战竞品的胜率(GPT-4o 为裁判)取得了显著提升。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_3.png" width="768" referrerpolicy="no-referrer">
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_4.jpg" width="768" referrerpolicy="no-referrer">
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型开源">模型开源<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E6%A8%A1%E5%9E%8B%E5%BC%80%E6%BA%90" class="hash-link" aria-label="模型开源的直接链接" title="模型开源的直接链接"></a></h2>
<p>一如既往,秉持着持久开源的精神,DeepSeek-V2.5 现已开源到了 HuggingFace:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5</a></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0905</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0905</guid>
<pubDate>Wed, 04 Sep 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 创新采用硬盘缓存,价格再降一个数量级</title>
<description><p>在大模型 API 的使用场景中,用户的输入有相当比例是重复的。举例说,用户的 prompt 往往有一些重复引用的部分;再举例说,多轮对话中,每一轮都要将前几轮的内容重复输入。</p>
<p>为此,DeepSeek 启用上下文硬盘缓存技术,把预计未来会重复使用的内容,缓存在分布式的硬盘阵列中。如果输入存在重复,则重复的部分只需要从缓存读取,无需计算。该技术不仅降低服务的延迟,还大幅削减最终的使用成本。</p>
<p>缓存命中的部分,DeepSeek 收费 0.1元 每百万 tokens。至此,大模型的价格再降低一个数量级。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_price.JPEG" width="512" referrerpolicy="no-referrer">
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何使用-deepseek-api-的缓存服务">如何使用 DeepSeek API 的缓存服务<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8-deepseek-api-%E7%9A%84%E7%BC%93%E5%AD%98%E6%9C%8D%E5%8A%A1" class="hash-link" aria-label="如何使用 DeepSeek API 的缓存服务的直接链接" title="如何使用 DeepSeek API 的缓存服务的直接链接"></a></h2>
<p>硬盘缓存服务已经全面上线,用户无需修改代码,无需更换接口,硬盘缓存服务将自动运行,系统自动按照实际命中情况计费。</p>
<p>注意,只有当两个请求的前缀内容相同时(从第 0 个 token 开始相同),才算重复。中间开始的重复不能被缓存命中。</p>
<p>以下为两个经典场景的缓存举例:</p>
<p><strong>1. 多轮对话场景,下一轮对话会命中上一轮对话生成的上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_1.JPEG" width="512" referrerpolicy="no-referrer">
<p><strong>2. 数据分析场景,后续具有相同前缀的请求会命中上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_2.JPEG" width="512" referrerpolicy="no-referrer">
<p>多种应用能从上下文硬盘缓存中受益:</p>
<ul>
<li>具有长预设提示词的问答助手类应用</li>
<li>具有长角色设定与多轮对话的角色扮演类应用</li>
<li>针对固定文本集合进行频繁询问的数据分析类应用</li>
<li>代码仓库级别的代码分析与排障工具</li>
<li>通过 Few-shot 提升模型输出效果</li>
<li>...</li>
</ul>
<p>更详细的使用方法,请参考指南<a href="https://api-docs.deepseek.com/zh-cn/guides/kv_cache">使用硬盘缓存</a></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何查询缓存命中情况">如何查询缓存命中情况<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E6%9F%A5%E8%AF%A2%E7%BC%93%E5%AD%98%E5%91%BD%E4%B8%AD%E6%83%85%E5%86%B5" class="hash-link" aria-label="如何查询缓存命中情况的直接链接" title="如何查询缓存命中情况的直接链接"></a></h2>
<p>在 API 返回的 usage 中,增加了两个字段,帮助用户实时监测缓存的命中情况:</p>
<ol>
<li><code>prompt_cache_hit_tokens</code>:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)</li>
<li><code>prompt_cache_miss_tokens</code>:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)</li>
</ol>
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低服务延迟">降低服务延迟<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%9C%8D%E5%8A%A1%E5%BB%B6%E8%BF%9F" class="hash-link" aria-label="降低服务延迟的直接链接" title="降低服务延迟的直接链接"></a></h2>
<p>输入长、重复内容多的请求,API 服务的首 token 延迟将大幅降低。</p>
<p>举个极端的例子,对 128K 输入且大部分重复的请求,实测首 token 延迟从 13 秒降低到 500 毫秒。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低整体费用">降低整体费用<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%95%B4%E4%BD%93%E8%B4%B9%E7%94%A8" class="hash-link" aria-label="降低整体费用的直接链接" title="降低整体费用的直接链接"></a></h2>
<p>最高可以节省 90% 的费用(需要针对缓存特性进行优化)。</p>
<p>即使不做任何优化,按历史使用情况,用户整体节省的费用也超过 50%。</p>
<p>缓存没有其它额外的费用,只有0.1 元每百万 tokens。缓存占用存储无需付费。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="缓存的安全性问题">缓存的安全性问题<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E7%BC%93%E5%AD%98%E7%9A%84%E5%AE%89%E5%85%A8%E6%80%A7%E9%97%AE%E9%A2%98" class="hash-link" aria-label="缓存的安全性问题的直接链接" title="缓存的安全性问题的直接链接"></a></h2>
<p>本缓存系统在设计的时候已充分考虑了各种潜在的安全问题。</p>
<p>每个用户的缓存是独立的,逻辑上相互不可见,从底层确保用户数据的安全和隐私。</p>
<p>长时间不用的缓存会自动清空,不会长期保留,且不会用于其他用途。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="为何-deepseek-api-能率先采用硬盘缓存">为何 DeepSeek API 能率先采用硬盘缓存<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E4%B8%BA%E4%BD%95-deepseek-api-%E8%83%BD%E7%8E%87%E5%85%88%E9%87%87%E7%94%A8%E7%A1%AC%E7%9B%98%E7%BC%93%E5%AD%98" class="hash-link" aria-label="为何 DeepSeek API 能率先采用硬盘缓存的直接链接" title="为何 DeepSeek API 能率先采用硬盘缓存的直接链接"></a></h2>
<p>根据公开的信息,DeepSeek 可能是全球第一家在 API 服务中大范围采用硬盘缓存的大模型厂商。</p>
<p>这得益于 DeepSeek V2 提出的 MLA 结构,在提高模型效果的同时,大大压缩了上下文 KV Cache 的大小,使得存储所需要的传输带宽和存储容量均大幅减少,因此可以缓存到低成本的硬盘上。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="deepseek-api-的并发和限流">DeepSeek API 的并发和限流<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#deepseek-api-%E7%9A%84%E5%B9%B6%E5%8F%91%E5%92%8C%E9%99%90%E6%B5%81" class="hash-link" aria-label="DeepSeek API 的并发和限流的直接链接" title="DeepSeek API 的并发和限流的直接链接"></a></h2>
<p>DeepSeek API 服务按照每天 1 万亿的容量进行设计。对所有用户均不限流、不限并发、同时保证服务质量。请放心加大并发使用。</p>
<hr>
<p><small>注1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存</small></p>
<p><small>注2. 缓存系统是“尽力而为”,不保证 100% 缓存命中</small></p>
<p><small>注3. 缓存不再使用后会自动被清空,时间一般为几个小时到几天</small></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0802</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0802</guid>
<pubDate>Thu, 01 Aug 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 升级,支持续写、FIM、Function Calling、JSON Output</title>
<description><p>今天,DeepSeek API 迎来更新,装备了新的接口功能,来释放模型的更多潜力:</p>
<ul>
<li><strong>更新接口 <code>/chat/completions</code></strong>
<ul>
<li>JSON Output</li>
<li>Function Calling</li>
<li>对话前缀续写(Beta)</li>
<li>8K 最长输出(Beta)</li>
</ul>
</li>
<li><strong>新增接口 <code>/completions</code></strong>
<ul>
<li>FIM 补全(Beta)</li>
</ul>
</li>
</ul>
<p>所有新功能,均可使用 <code>deepseek-chat</code> 和 <code>deepseek-coder</code> 模型调用。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="一更新接口-chatcompletions">一、更新接口 <code>/chat/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%B8%80%E6%9B%B4%E6%96%B0%E6%8E%A5%E5%8F%A3-chatcompletions" class="hash-link" aria-label="一更新接口-chatcompletions的直接链接" title="一更新接口-chatcompletions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-json-output��增强内容格式化">1. JSON Output,增强内容格式化<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-json-output%E5%A2%9E%E5%BC%BA%E5%86%85%E5%AE%B9%E6%A0%BC%E5%BC%8F%E5%8C%96" class="hash-link" aria-label="1. JSON Output,增强内容格式化的直接链接" title="1. JSON Output,增强内容格式化的直接链接"></a></h4>
<p>DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。</p>
<p>在进行数据处理等任务时,该功能可以让模型按预定格式返回 JSON,方便后续对模型输出内容进行解析,提高程序流程的自动化能力。</p>
<p>要使用 JSON Output 功能,需要:</p>
<ol>
<li>设置 <code>response_format</code> 参数为 <code>{'type': 'json_object'}</code></li>
<li>用户需要在提示词中,指导模型输出 JSON 的格式,来确保输出格式符合预期</li>
<li>合理设置 <code>max_tokens</code>,防止 JSON 字符串被中途截断</li>
</ol>
<p>以下为一个 JSON Output 功能的使用样例。在这个样例中,用户给出一段文本,模型对文本中的问题&amp;答案进行格式化输出。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/json_mode.jpg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/json_mode">JSON Output 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="2-function连接物理世界">2. Function,连接物理世界<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#2-function%E8%BF%9E%E6%8E%A5%E7%89%A9%E7%90%86%E4%B8%96%E7%95%8C" class="hash-link" aria-label="2. Function,连接物理世界的直接链接" title="2. Function,连接物理世界的直接链接"></a></h4>
<p>DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,来增强模型与物理世界交互的能力。</p>
<p>Function Calling 功能支持传入多个 Function(最多 128 个),支持并行 Function 调用。</p>
<p>下图展示了将 <code>deepseek-coder</code> 整合到开源大模型前端 <a href="https://github.com/lobehub/lobe-chat" target="_blank" rel="noopener noreferrer">LobeChat</a> 的效果。在这个例子中,我们开启了“网站爬虫”插件,来实现对网站的爬取和总结。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo.gif" width="512" referrerpolicy="no-referrer">
<p>下图展示了使用 Function Calling 功能的交互过程:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo_2.jpeg" width="600" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/function_calling">Function Calling 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="3-对话前缀续写beta更灵活的输出控制">3. 对话前缀续写(Beta),更灵活的输出控制<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#3-%E5%AF%B9%E8%AF%9D%E5%89%8D%E7%BC%80%E7%BB%AD%E5%86%99beta%E6%9B%B4%E7%81%B5%E6%B4%BB%E7%9A%84%E8%BE%93%E5%87%BA%E6%8E%A7%E5%88%B6" class="hash-link" aria-label="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接" title="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接"></a></h4>
<p>对话前缀续写沿用了<a href="https://api-docs.deepseek.com/zh-cn/api/create-chat-completion">对话补全</a>的 API 格式,允许用户指定最后一条 <code>assistant</code> 消息的前缀,来让模型按照该前缀进行补全。该功能也可用于输出长度达到 <code>max_tokens</code> 被截断后,将被截断的消息进行拼接,重新发送请求对被截断内容进行续写。</p>
<p>要使用对话前缀续写功能,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li>确保 messages 列表里最后一条消息的 <code>role</code> 为 <code>assistant</code>,并设置最后一条消息的 <code>prefix</code> 参数为 <code>True</code>,如:<code>{"role": "assistant": "content": "在很久很久以前,", "prefix": True}</code></li>
</ol>
<p>以下为对话前缀续写功能的使用样例。在这个例子里,设置了 assistant 消息开头为<code>'```python\n'</code>,以强制其以代码块开始,并设置 stop 参数为 <code>'```'</code>,让模型不输出多余的内容。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_prefix_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/chat_prefix_completion">对话前缀续写指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="4-8k-最长输出beta释放更长可能">4. 8K 最长输出(Beta),释放更长可能<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#4-8k-%E6%9C%80%E9%95%BF%E8%BE%93%E5%87%BAbeta%E9%87%8A%E6%94%BE%E6%9B%B4%E9%95%BF%E5%8F%AF%E8%83%BD" class="hash-link" aria-label="4. 8K 最长输出(Beta),释放更长可能的直接链接" title="4. 8K 最长输出(Beta),释放更长可能的直接链接"></a></h4>
<p>为了满足更长文本输出的场景,我们在 Beta 版 API 中,将 <code>max_tokens</code> 参数的上限调整为 8K。</p>
<p>要提高到 8K 最长输出,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li><code>max_tokens</code> 默认为 4096。开启 Beta 功能后,<code>max_tokens</code> 最大可设置为 8192</li>
</ol>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="二新增接口-completions">二、新增接口 <code>/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%BA%8C%E6%96%B0%E5%A2%9E%E6%8E%A5%E5%8F%A3-completions" class="hash-link" aria-label="二新增接口-completions的直接链接" title="二新增接口-completions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-fim-补全beta使能续写场景">1. FIM 补全(Beta),使能续写场景<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-fim-%E8%A1%A5%E5%85%A8beta%E4%BD%BF%E8%83%BD%E7%BB%AD%E5%86%99%E5%9C%BA%E6%99%AF" class="hash-link" aria-label="1. FIM 补全(Beta),使能续写场景的直接链接" title="1. FIM 补全(Beta),使能续写场景的直接链接"></a></h4>
<p>DeepSeek API 新增 FIM (Fill-In-the-Middle) 补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。FIM 补全接口收费与对话补全相同。</p>
<p>要使用 FIM 补全接口,需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>以下为 FIM 补全接口的使用样例。在这个例子中,用户提供斐波那契数列函数的开头和结尾,模型对中间内容进行补全。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fim_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/fim_completion">FIM 补全指南</a>。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="更新说明">更新说明<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E6%9B%B4%E6%96%B0%E8%AF%B4%E6%98%8E" class="hash-link" aria-label="更新说明的直接链接" title="更新说明的直接链接"></a></h3>
<p>Beta 接口已开放给所有用户使用,用户需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>Beta 接口属于不稳定接口,后续测试、发布计划会灵活变动,敬请谅解。</p>
<p>相关模型版本,在功能稳定后会发布到开源社区,敬请期待。</p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0725</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0725</guid>
<pubDate>Wed, 24 Jul 2024 16:00:00 GMT</pubDate>
</item>
</channel>
</rss> |
Successfully generated as following: http://localhost:1200/deepseek/news - Success ✔️<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
<channel>
<title>DeepSeek 新闻</title>
<link>https://api-docs.deepseek.com/zh-cn</link>
<atom:link href="http://localhost:1200/deepseek/news" rel="self" type="application/rss+xml"></atom:link>
<description>DeepSeek 新闻 - Powered by RSSHub</description>
<generator>RSSHub</generator>
<webMaster>[email protected] (RSSHub)</webMaster>
<language>en</language>
<lastBuildDate>Mon, 23 Dec 2024 15:45:31 GMT</lastBuildDate>
<ttl>5</ttl>
<item>
<title>DeepSeek V2 系列收官,联网搜索上线官网</title>
<description><p>今天,我们发布 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210。本版模型将是我们开启下一个全新基座模型系列前对 V2 系列的最后一次更新。</p>
<p>与之前版本相比,本次更新通过 Post-Training 全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。</p>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型通用能力提升">模型通用能力提升<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E6%A8%A1%E5%9E%8B%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B%E6%8F%90%E5%8D%87" class="hash-link" aria-label="模型通用能力提升的直接链接" title="模型通用能力提升的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本通过 Post-Training 阶段的迭代,全面提升了模型在各个领域的能力:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<p>遵循我们一贯的开源精神,新版模型权重已经开源在 Huggingface:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210</a></p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_hf.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="联网搜索功能">联网搜索功能<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E8%81%94%E7%BD%91%E6%90%9C%E7%B4%A2%E5%8A%9F%E8%83%BD" class="hash-link" aria-label="联网搜索功能的直接链接" title="联网搜索功能的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本支持了<strong>联网搜索</strong>功能,并已上线网页端。登陆 <a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">https://chat.deepseek.com/</a>,在输入框中打开 <strong>“联网搜索”</strong> 即可体验。目前,API 暂不支持搜索功能。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<p>在“联网搜索”模式下,模型将深入阅读海量网页,为用户生成全面、准确、满足个性化需求的回答。面对用户的复杂问题,模型将自动提取多个关键词并行搜索,在更短时间内提供更加多样的搜索结果。</p>
<p>以下是搜索效果示例:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_example_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="v25-的最后版本">V2.5 的最后版本<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#v25-%E7%9A%84%E6%9C%80%E5%90%8E%E7%89%88%E6%9C%AC" class="hash-link" aria-label="V2.5 的最后版本的直接链接" title="V2.5 的最后版本的直接链接"></a></h2></div>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_timeline.png" width="768" referrerpolicy="no-referrer"></div>
<p>DeepSeek-V2.5-1210 将会是 DeepSeek V2.5 模型的最后一个版本。随着本次模型的发布,我们 DeepSeek V2系列模型的迭代更新也将告一段落。</p>
<p>DeepSeek V2 系列模型自今年 5 月发布开源以来,已经陪伴大家走过了半年的时间,期间历经 5 次迭代,而广大用户朋友们的支持与肯定,正是我们一直以来坚持不断更新进步的动力。</p>
<p><strong>“有善始者实繁,能克终者盖寡。”</strong></p>
<p>终版模型是暂时的收束,更是全新的起点。</p>
<p><strong>DeepSeek正在打造更加强大的下一代基座模型 DeepSeek V3,敬请期待!</strong></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1210</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1210</guid>
<pubDate>Mon, 09 Dec 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek推理模型预览版上线,解密o1推理过程</title>
<description><p>今天,DeepSeek 全新研发的推理模型 DeepSeek-R1-Lite 预览版正式上线。</p>
<p>所有用户均可登录官方网页(<a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">chat.deepseek.com</a>),一键开启与 R1-Lite 预览版模型的超强推理对话体验。</p>
<p>DeepSeek R1 系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。</p>
<p>该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。</p>
<div align="center"><h3 class="anchor anchorWithStickyNavbar_YAqC" id="全面提升的推理性能">全面提升的推理性能<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E6%8F%90%E5%8D%87%E7%9A%84%E6%8E%A8%E7%90%86%E6%80%A7%E8%83%BD" class="hash-link" aria-label="全面提升的推理性能的直接链接" title="全面提升的推理性能的直接链接"></a></h3></div>
<ul>
<li>DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,均取得了卓越的成绩,大幅超越了 GPT-4o 等知名模型。</li>
<li>下表为 DeepSeek-R1-Lite 在各项相关评测中的得分结果:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="深度思考的效果与潜力">深度思考的效果与潜力<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%B7%B1%E5%BA%A6%E6%80%9D%E8%80%83%E7%9A%84%E6%95%88%E6%9E%9C%E4%B8%8E%E6%BD%9C%E5%8A%9B" class="hash-link" aria-label="深度思考的效果与潜力的直接链接" title="深度思考的效果与潜力的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 的推理过程长,并且包含了大量的反思和验证。下图展示了模型在数学竞赛上的得分与测试所允许思考的长度紧密相关。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_scaling_law_zh.jpg" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>红色实线展示了模型所能达到的准确率与所给定的推理长度呈正相关;</li>
<li>相比传统的多次采样+投票(Majority Voting),模型思维链长度增加展现出了更高的效率。</li>
</ul>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="全面上线尝鲜体验">全面上线,尝鲜体验<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E4%B8%8A%E7%BA%BF%E5%B0%9D%E9%B2%9C%E4%BD%93%E9%AA%8C" class="hash-link" aria-label="全面上线,尝鲜体验的直接链接" title="全面上线,尝鲜体验的直接链接"></a></h2></div>
<p>登录 chat.deepseek.com,在输入框中选择“深度思考”模式,即可开启与 DeepSeek-R1-Lite 预览版的对话。</p>
<p>“深度思考” 模式专门针对数学、代码等各类复杂逻辑推理问题而设计,相比于普通的简单问题,能够提供更加全面、清晰、思路严谨的优质解答,充分展现出较长思维链的更多优势。</p>
<ul>
<li>对话开启示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_demo_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>适用场景与效果示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_1_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_2_zh.png" width="768" referrerpolicy="no-referrer"></div>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="新的开始敬请期待">新的开始,敬请期待<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%96%B0%E7%9A%84%E5%BC%80%E5%A7%8B%E6%95%AC%E8%AF%B7%E6%9C%9F%E5%BE%85" class="hash-link" aria-label="新的开始,敬请期待的直接链接" title="新的开始,敬请期待的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 目前仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。</p>
<p>当前,我们正在持续迭代推理系列模型。之后,正式版 DeepSeek-R1 模型将完全开源,我们将公开技术报告,并部署 API 服务。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_deepseek_com_qr_code.png" width="300" referrerpolicy="no-referrer"><p><strong>扫码与 DeepSeek 开启对话</strong></p></div></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1120</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1120</guid>
<pubDate>Tue, 19 Nov 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek-V2.5:融合通用与代码能力的全新开源模型</title>
<description><p>今天,我们完成了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2 两个模型的合并,正式发布 <strong>DeepSeek-V2.5</strong>。</p>
<p>DeepSeek-V2.5 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。</p>
<p>DeepSeek-V2.5 现已在网页端及 API 全面上线,API 接口向前兼容,用户通过deepseek-coder或deepseek-chat均可以访问新的模型。同时,Function Calling、FIM 补全、Json Output 等功能保持不变。</p>
<p>All-in-One 的 DeepSeek-V2.5 将为用户带来更简洁、智能、高效的使用体验。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="升级历史">升级历史<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E5%8D%87%E7%BA%A7%E5%8E%86%E5%8F%B2" class="hash-link" aria-label="升级历史的直接链接" title="升级历史的直接链接"></a></h2>
<p>DeepSeek 一直专注于模型的改进和优化。在 6 月份,我们对 DeepSeek-V2-Chat 进行了重大升级,用 Coder V2 的 Base 模型替换原有的 Chat 的 Base 模型,显著提升了其代码生成和推理能力,并发布了 DeepSeek-V2-Chat-0628 版本。紧接着,DeepSeek-Coder-V2 在原有 Base 模型的基础上,通过对齐优化,大大提升通用能力后推出了 DeepSeek-Coder-V2 0724 版本。最终,我们成功将 Chat 和 Coder 两个模型合并,推出了全新的DeepSeek-V2.5 版本。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/version_history.png" width="768" referrerpolicy="no-referrer">
<p><strong>由于本次模型版本变动较大,如出现某些场景效果变差,建议重新调整 System Prompt 和 Temperature,以获得最佳性能。</strong></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="通用能力">通用能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="通用能力的直接链接" title="通用能力的直接链接"></a></h2>
<ul>
<li>通用能力评测</li>
</ul>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_1.jpeg" width="768" referrerpolicy="no-referrer">
<p>首先,我们使用业界通用的测试集对 DeepSeek-V2.5 的能力进行测评,在中文和英文四个测试集上,DeepSeek-V2.5 均优于之前的 DeepSeek-V2-0628 以及 DeepSeek-Coder-V2-0724。</p>
<p>在我们内部的中文评测中,和 GPT-4o mini、ChatGPT-4o-latest 的对战胜率(裁判为 GPT-4o)相较于 DeepSeek-V2-0628 均有明显提升。此测评中涵盖创作、问答等通用能力,用户使用体验将得到提升:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_2.jpg" width="768" referrerpolicy="no-referrer">
<ul>
<li>安全能力评测</li>
</ul>
<p>Safety 和 Helpful 之间的权衡是我们在迭代开发中一直重点关注的问题。在 DeepSeek-V2.5 版本中,我们对于模型安全问题的边界做了更加清晰的划分,在强化模型对于各种越狱攻击的安全性的同时,减少了安全策略过度泛化到正常问题中去的倾向。</p>
<table><thead><tr><th>Model</th><th>安全综合得分(越高越好)*</th><th>安全外溢比例(越低越好)**</th></tr></thead><tbody><tr><td>DeepSeek-V2-0628</td><td>74.4%</td><td>11.3%</td></tr><tr><td>DeepSeek-V2.5</td><td>82.6%</td><td>4.6%</td></tr></tbody></table>
<p>* 基于内部测试集合的得分,分数越高代表模型的整体安全性越高</p>
<p>** 基于内部测试集合的得分,比例越低代表模型的安全策略对于正常问题的影响越小</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="代码能力">代码能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E4%BB%A3%E7%A0%81%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="代码能力的直接链接" title="代码能力的直接链接"></a></h2>
<p>在代码方面,DeepSeek-V2.5 保留了 DeepSeek-Coder-V2-0724 强大的代码能力。在 HumanEval Python 和LiveCodeBench(2024 年 1 月 - 2024 年 9 月)测试中,DeepSeek-V2.5 显示了较为显著的改进。在 HumanEval Multilingual 和 Aider 测试中,DeepSeek-Coder-V2-0724 略胜一筹。在 SWE-verified 测试中,两个版本的表现都较低,表明在此方面仍需进一步优化。另外,在FIM补全任务上,内部评测集DS-FIM-Eval的评分提升了 5.1%,可以带来更好的插件补全体验。</p>
<p>另外,DeepSeek-V2.5对代码常见场景进行了优化,以提升实际使用的表现。在内部的主观评测 DS-Arena-Code 中,DeepSeek-V2.5 对战竞品的胜率(GPT-4o 为裁判)取得了显著提升。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_3.png" width="768" referrerpolicy="no-referrer">
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_4.jpg" width="768" referrerpolicy="no-referrer">
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型开源">模型开源<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E6%A8%A1%E5%9E%8B%E5%BC%80%E6%BA%90" class="hash-link" aria-label="模型开源的直接链接" title="模型开源的直接链接"></a></h2>
<p>一如既往,秉持着持久开源的精神,DeepSeek-V2.5 现已开源到了 HuggingFace:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5</a></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0905</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0905</guid>
<pubDate>Wed, 04 Sep 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 创新采用硬盘缓存,价格再降一个数量级</title>
<description><p>在大模型 API 的使用场景中,用户的输入有相当比例是重复的。举例说,用户的 prompt 往往有一些重复引用的部分;再举例说,多轮对话中,每一轮都要将前几轮的内容重复输入。</p>
<p>为此,DeepSeek 启用上下文硬盘缓存技术,把预计未来会重复使用的内容,缓存在分布式的硬盘阵列中。如果输入存在重复,则重复的部分只需要从缓存读取,无需计算。该技术不仅降低服务的延迟,还大幅削减最终的使用成本。</p>
<p>缓存命中的部分,DeepSeek 收费 0.1元 每百万 tokens。至此,大模型的价格再降低一个数量级。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_price.JPEG" width="512" referrerpolicy="no-referrer">
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何使用-deepseek-api-的缓存服务">如何使用 DeepSeek API 的缓存服务<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8-deepseek-api-%E7%9A%84%E7%BC%93%E5%AD%98%E6%9C%8D%E5%8A%A1" class="hash-link" aria-label="如何使用 DeepSeek API 的缓存服务的直接链接" title="如何使用 DeepSeek API 的缓存服务的直接链接"></a></h2>
<p>硬盘缓存服务已经全面上线,用户无需修改代码,无需更换接口,硬盘缓存服务将自动运行,系统自动按照实际命中情况计费。</p>
<p>注意,只有当两个请求的前缀内容相同时(从第 0 个 token 开始相同),才算重复。中间开始的重复不能被缓存命中。</p>
<p>以下为两个经典场景的缓存举例:</p>
<p><strong>1. 多轮对话场景,下一轮对话会命中上一轮对话生成的上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_1.JPEG" width="512" referrerpolicy="no-referrer">
<p><strong>2. 数据分析场景,后续具有相同前缀的请求会命中上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_2.JPEG" width="512" referrerpolicy="no-referrer">
<p>多种应用能从上下文硬盘缓存中受益:</p>
<ul>
<li>具有长预设提示词的问答助手类应用</li>
<li>具有长角色设定与多轮对话的角色扮演类应用</li>
<li>针对固定文本集合进行频繁询问的数据分析类应用</li>
<li>代码仓库级别的代码分析与排障工具</li>
<li>通过 Few-shot 提升模型输出效果</li>
<li>...</li>
</ul>
<p>更详细的使用方法,请参考指南<a href="https://api-docs.deepseek.com/zh-cn/guides/kv_cache">使用硬盘缓存</a></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何查询缓存命中情况">如何查询缓存命中情况<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E6%9F%A5%E8%AF%A2%E7%BC%93%E5%AD%98%E5%91%BD%E4%B8%AD%E6%83%85%E5%86%B5" class="hash-link" aria-label="如何查询缓存命中情况的直接链接" title="如何查询缓存命中情况的直接链接"></a></h2>
<p>在 API 返回的 usage 中,增加了两个字段,帮助用户实时监测缓存的命中情况:</p>
<ol>
<li><code>prompt_cache_hit_tokens</code>:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)</li>
<li><code>prompt_cache_miss_tokens</code>:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)</li>
</ol>
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低服务延迟">降低服务延迟<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%9C%8D%E5%8A%A1%E5%BB%B6%E8%BF%9F" class="hash-link" aria-label="降低服务延迟的直接链接" title="降低服务延迟的直接链接"></a></h2>
<p>输入长、重复内容多的请求,API 服务的首 token 延迟将大幅降低。</p>
<p>举个极端的例子,对 128K 输入且大部分重复的请求,实测首 token 延迟从 13 秒降低到 500 毫秒。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低整体费用">降低整体费用<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%95%B4%E4%BD%93%E8%B4%B9%E7%94%A8" class="hash-link" aria-label="降低整体费用的直接链接" title="降低整体费用的直接链接"></a></h2>
<p>最高可以节省 90% 的费用(需要针对缓存特性进行优化)。</p>
<p>即使不做任何优化,按历史使用情况,用户整体节省的费用也超过 50%。</p>
<p>缓存没有其它额外的费用,只有0.1 元每百万 tokens。缓存占用存储无需付费。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="缓存的安全性问题">缓存的安全性问题<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E7%BC%93%E5%AD%98%E7%9A%84%E5%AE%89%E5%85%A8%E6%80%A7%E9%97%AE%E9%A2%98" class="hash-link" aria-label="缓存的安全性问题的直接链接" title="缓存的安全性问题的直接链接"></a></h2>
<p>本缓存系统在设计的时候已充分考虑了各种潜在的安全问题。</p>
<p>每个用户的缓存是独立的,逻辑上相互不可见,从底层确保用户数据的安全和隐私。</p>
<p>长时间不用的缓存会自动清空,不会长期保留,且不会用于其他用途。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="为何-deepseek-api-能率先采用硬盘缓存">为何 DeepSeek API 能率先采用硬盘缓存<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E4%B8%BA%E4%BD%95-deepseek-api-%E8%83%BD%E7%8E%87%E5%85%88%E9%87%87%E7%94%A8%E7%A1%AC%E7%9B%98%E7%BC%93%E5%AD%98" class="hash-link" aria-label="为何 DeepSeek API 能率先采用硬盘缓存的直接链接" title="为何 DeepSeek API 能率先采用硬盘缓存的直接链接"></a></h2>
<p>根据公开的信息,DeepSeek 可能是全球第一家在 API 服务中大范围采用硬盘缓存的大模型厂商。</p>
<p>这得益于 DeepSeek V2 提出的 MLA 结构,在提高模型效果的同时,大大压缩了上下文 KV Cache 的大小,使得存储所需要的传输带宽和存储容量均大幅减少,因此可以缓存到低成本的硬盘上。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="deepseek-api-的并发和限流">DeepSeek API 的并发和限流<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#deepseek-api-%E7%9A%84%E5%B9%B6%E5%8F%91%E5%92%8C%E9%99%90%E6%B5%81" class="hash-link" aria-label="DeepSeek API 的并发和限流的直接链接" title="DeepSeek API 的并发和限流的直接链接"></a></h2>
<p>DeepSeek API 服务按照每天 1 万亿的容量进行设计。对所有用户均不限流、不限并发、同时保证服务质量。请放心加大并发使用。</p>
<hr>
<p><small>注1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存</small></p>
<p><small>注2. 缓存系统是“尽力而为”,不保证 100% 缓存命中</small></p>
<p><small>注3. 缓存不再使用后会自动被清空,时间一般为几个小时到几天</small></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0802</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0802</guid>
<pubDate>Thu, 01 Aug 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 升级,支持续写、FIM、Function Calling、JSON Output</title>
<description><p>今天,DeepSeek API 迎来更新,装备了新的接口功能,来释放模型的更多潜力:</p>
<ul>
<li><strong>更新接口 <code>/chat/completions</code></strong>
<ul>
<li>JSON Output</li>
<li>Function Calling</li>
<li>对话前缀续写(Beta)</li>
<li>8K 最长输出(Beta)</li>
</ul>
</li>
<li><strong>新增接口 <code>/completions</code></strong>
<ul>
<li>FIM 补全(Beta)</li>
</ul>
</li>
</ul>
<p>所有新功能,均可使用 <code>deepseek-chat</code> 和 <code>deepseek-coder</code> 模型调用。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="一更新接口-chatcompletions">一、更新接口 <code>/chat/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%B8%80%E6%9B%B4%E6%96%B0%E6%8E%A5%E5%8F%A3-chatcompletions" class="hash-link" aria-label="一更新接口-chatcompletions的直接链接" title="一更新接口-chatcompletions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-json-output��增强内容格式化">1. JSON Output,增强内容格式化<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-json-output%E5%A2%9E%E5%BC%BA%E5%86%85%E5%AE%B9%E6%A0%BC%E5%BC%8F%E5%8C%96" class="hash-link" aria-label="1. JSON Output,增强内容格式化的直接链接" title="1. JSON Output,增强内容格式化的直接链接"></a></h4>
<p>DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。</p>
<p>在进行数据处理等任务时,该功能可以让模型按预定格式返回 JSON,方便后续对模型输出内容进行解析,提高程序流程的自动化能力。</p>
<p>要使用 JSON Output 功能,需要:</p>
<ol>
<li>设置 <code>response_format</code> 参数为 <code>{'type': 'json_object'}</code></li>
<li>用户需要在提示词中,指导模型输出 JSON 的格式,来确保输出格式符合预期</li>
<li>合理设置 <code>max_tokens</code>,防止 JSON 字符串被中途截断</li>
</ol>
<p>以下为一个 JSON Output 功能的使用样例。在这个样例中,用户给出一段文本,模型对文本中的问题&amp;答案进行格式化输出。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/json_mode.jpg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/json_mode">JSON Output 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="2-function连接物理世界">2. Function,连接物理世界<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#2-function%E8%BF%9E%E6%8E%A5%E7%89%A9%E7%90%86%E4%B8%96%E7%95%8C" class="hash-link" aria-label="2. Function,连接物理世界的直接链接" title="2. Function,连接物理世界的直接链接"></a></h4>
<p>DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,来增强模型与物理世界交互的能力。</p>
<p>Function Calling 功能支持传入多个 Function(最多 128 个),支持并行 Function 调用。</p>
<p>下图展示了将 <code>deepseek-coder</code> 整合到开源大模型前端 <a href="https://github.com/lobehub/lobe-chat" target="_blank" rel="noopener noreferrer">LobeChat</a> 的效果。在这个例子中,我们开启了“网站爬虫”插件,来实现对网站的爬取和总结。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo.gif" width="512" referrerpolicy="no-referrer">
<p>下图展示了使用 Function Calling 功能的交互过程:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo_2.jpeg" width="600" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/function_calling">Function Calling 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="3-对话前缀续写beta更灵活的输出控制">3. 对话前缀续写(Beta),更灵活的输出控制<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#3-%E5%AF%B9%E8%AF%9D%E5%89%8D%E7%BC%80%E7%BB%AD%E5%86%99beta%E6%9B%B4%E7%81%B5%E6%B4%BB%E7%9A%84%E8%BE%93%E5%87%BA%E6%8E%A7%E5%88%B6" class="hash-link" aria-label="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接" title="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接"></a></h4>
<p>对话前缀续写沿用了<a href="https://api-docs.deepseek.com/zh-cn/api/create-chat-completion">对话补全</a>的 API 格式,允许用户指定最后一条 <code>assistant</code> 消息的前缀,来让模型按照该前缀进行补全。该功能也可用于输出长度达到 <code>max_tokens</code> 被截断后,将被截断的消息进行拼接,重新发送请求对被截断内容进行续写。</p>
<p>要使用对话前缀续写功能,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li>确保 messages 列表里最后一条消息的 <code>role</code> 为 <code>assistant</code>,并设置最后一条消息的 <code>prefix</code> 参数为 <code>True</code>,如:<code>{"role": "assistant": "content": "在很久很久以前,", "prefix": True}</code></li>
</ol>
<p>以下为对话前缀续写功能的使用样例。在这个例子里,设置了 assistant 消息开头为<code>'```python\n'</code>,以强制其以代码块开始,并设置 stop 参数为 <code>'```'</code>,让模型不输出多余的内容。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_prefix_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/chat_prefix_completion">对话前缀续写指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="4-8k-最长输出beta释放更长可能">4. 8K 最长输出(Beta),释放更长可能<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#4-8k-%E6%9C%80%E9%95%BF%E8%BE%93%E5%87%BAbeta%E9%87%8A%E6%94%BE%E6%9B%B4%E9%95%BF%E5%8F%AF%E8%83%BD" class="hash-link" aria-label="4. 8K 最长输出(Beta),释放更长可能的直接链接" title="4. 8K 最长输出(Beta),释放更长可能的直接链接"></a></h4>
<p>为了满足更长文本输出的场景,我们在 Beta 版 API 中,将 <code>max_tokens</code> 参数的上限调整为 8K。</p>
<p>要提高到 8K 最长输出,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li><code>max_tokens</code> 默认为 4096。开启 Beta 功能后,<code>max_tokens</code> 最大可设置为 8192</li>
</ol>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="二新增接口-completions">二、新增接口 <code>/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%BA%8C%E6%96%B0%E5%A2%9E%E6%8E%A5%E5%8F%A3-completions" class="hash-link" aria-label="二新增接口-completions的直接链接" title="二新增接口-completions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-fim-补全beta使能续写场景">1. FIM 补全(Beta),使能续写场景<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-fim-%E8%A1%A5%E5%85%A8beta%E4%BD%BF%E8%83%BD%E7%BB%AD%E5%86%99%E5%9C%BA%E6%99%AF" class="hash-link" aria-label="1. FIM 补全(Beta),使能续写场景的直接链接" title="1. FIM 补全(Beta),使能续写场景的直接链接"></a></h4>
<p>DeepSeek API 新增 FIM (Fill-In-the-Middle) 补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。FIM 补全接口收费与对话补全相同。</p>
<p>要使用 FIM 补全接口,需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>以下为 FIM 补全接口的使用样例。在这个例子中,用户提供斐波那契数列函数的开头和结尾,模型对中间内容进行补全。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fim_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/fim_completion">FIM 补全指南</a>。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="更新说明">更新说明<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E6%9B%B4%E6%96%B0%E8%AF%B4%E6%98%8E" class="hash-link" aria-label="更新说明的直接链接" title="更新说明的直接链接"></a></h3>
<p>Beta 接口已开放给所有用户使用,用户需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>Beta 接口属于不稳定接口,后续测试、发布计划会灵活变动,敬请谅解。</p>
<p>相关模型版本,在功能稳定后会发布到开源社区,敬请期待。</p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0725</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0725</guid>
<pubDate>Wed, 24 Jul 2024 16:00:00 GMT</pubDate>
</item>
</channel>
</rss> |
TonyRL
reviewed
Dec 23, 2024
lib/routes/deepseek/news.ts
Outdated
Comment on lines
51
to
53
const items: DataItem[] = await Promise.all( | ||
newsList.toArray().map((li) => createDataItem(li, $)) // 移除 async | ||
); |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Please cache the returned object
Successfully generated as following: http://localhost:1200/deepseek/news - Success ✔️<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
<channel>
<title>DeepSeek 新闻</title>
<link>https://api-docs.deepseek.com/zh-cn</link>
<atom:link href="http://localhost:1200/deepseek/news" rel="self" type="application/rss+xml"></atom:link>
<description>DeepSeek 新闻 - Powered by RSSHub</description>
<generator>RSSHub</generator>
<webMaster>[email protected] (RSSHub)</webMaster>
<language>en</language>
<lastBuildDate>Tue, 24 Dec 2024 07:11:09 GMT</lastBuildDate>
<ttl>5</ttl>
<item>
<title>DeepSeek V2 系列收官,联网搜索上线官网</title>
<description><p>今天,我们发布 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210。本版模型将是我们开启下一个全新基座模型系列前对 V2 系列的最后一次更新。</p>
<p>与之前版本相比,本次更新通过 Post-Training 全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。</p>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型通用能力提升">模型通用能力提升<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E6%A8%A1%E5%9E%8B%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B%E6%8F%90%E5%8D%87" class="hash-link" aria-label="模型通用能力提升的直接链接" title="模型通用能力提升的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本通过 Post-Training 阶段的迭代,全面提升了模型在各个领域的能力:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<p>遵循我们一贯的开源精神,新版模型权重已经开源在 Huggingface:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210</a></p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_hf.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="联网搜索功能">联网搜索功能<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E8%81%94%E7%BD%91%E6%90%9C%E7%B4%A2%E5%8A%9F%E8%83%BD" class="hash-link" aria-label="联网搜索功能的直接链接" title="联网搜索功能的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本支持了<strong>联网搜索</strong>功能,并已上线网页端。登陆 <a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">https://chat.deepseek.com/</a>,在输入框中打开 <strong>“联网搜索”</strong> 即可体验。目前,API 暂不支持搜索功能。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<p>在“联网搜索”模式下,模型将深入阅读海量网页,为用户生成全面、准确、满足个性化需求的回答。面对用户的复杂问题,模型将自动提取多个关键词并行搜索,在更短时间内提供更加多样的搜索结果。</p>
<p>以下是搜索效果示例:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_example_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="v25-的最后版本">V2.5 的最后版本<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#v25-%E7%9A%84%E6%9C%80%E5%90%8E%E7%89%88%E6%9C%AC" class="hash-link" aria-label="V2.5 的最后版本的直接链接" title="V2.5 的最后版本的直接链接"></a></h2></div>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_timeline.png" width="768" referrerpolicy="no-referrer"></div>
<p>DeepSeek-V2.5-1210 将会是 DeepSeek V2.5 模型的最后一个版本。随着本次模型的发布,我们 DeepSeek V2系列模型的迭代更新也将告一段落。</p>
<p>DeepSeek V2 系列模型自今年 5 月发布开源以来,已经陪伴大家走过了半年的时间,期间历经 5 次迭代,而广大用户朋友们的支持与肯定,正是我们一直以来坚持不断更新进步的动力。</p>
<p><strong>“有善始者实繁,能克终者盖寡。”</strong></p>
<p>终版模型是暂时的收束,更是全新的起点。</p>
<p><strong>DeepSeek正在打造更加强大的下一代基座模型 DeepSeek V3,敬请期待!</strong></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1210</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1210</guid>
<pubDate>Mon, 09 Dec 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek推理模型预览版上线,解密o1推理过程</title>
<description><p>今天,DeepSeek 全新研发的推理模型 DeepSeek-R1-Lite 预览版正式上线。</p>
<p>所有用户均可登录官方网页(<a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">chat.deepseek.com</a>),一键开启与 R1-Lite 预览版模型的超强推理对话体验。</p>
<p>DeepSeek R1 系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。</p>
<p>该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。</p>
<div align="center"><h3 class="anchor anchorWithStickyNavbar_YAqC" id="全面提升的推理性能">全面提升的推理性能<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E6%8F%90%E5%8D%87%E7%9A%84%E6%8E%A8%E7%90%86%E6%80%A7%E8%83%BD" class="hash-link" aria-label="全面提升的推理性能的直接链接" title="全面提升的推理性能的直接链接"></a></h3></div>
<ul>
<li>DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,均取得了卓越的成绩,大幅超越了 GPT-4o 等知名模型。</li>
<li>下表为 DeepSeek-R1-Lite 在各项相关评测中的得分结果:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="深度思考的效果与潜力">深度思考的效果与潜力<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%B7%B1%E5%BA%A6%E6%80%9D%E8%80%83%E7%9A%84%E6%95%88%E6%9E%9C%E4%B8%8E%E6%BD%9C%E5%8A%9B" class="hash-link" aria-label="深度思考的效果与潜力的直接链接" title="深度思考的效果与潜力的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 的推理过程长,并且包含了大量的反思和验证。下图展示了模型在数学竞赛上的得分与测试所允许思考的长度紧密相关。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_scaling_law_zh.jpg" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>红色实线展示了模型所能达到的准确率与所给定的推理长度呈正相关;</li>
<li>相比传统的多次采样+投票(Majority Voting),模型思维链长度增加展现出了更高的效率。</li>
</ul>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="全面上线尝鲜体验">全面上线,尝鲜体验<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E4%B8%8A%E7%BA%BF%E5%B0%9D%E9%B2%9C%E4%BD%93%E9%AA%8C" class="hash-link" aria-label="全面上线,尝鲜体验的直接链接" title="全面上线,尝鲜体验的直接链接"></a></h2></div>
<p>登录 chat.deepseek.com,在输入框中选择“深度思考”模式,即可开启与 DeepSeek-R1-Lite 预览版的对话。</p>
<p>“深度思考” 模式专门针对数学、代码等各类复杂逻辑推理问题而设计,相比于普通的简单问题,能够提供更加全面、清晰、思路严谨的优质解答,充分展现出较长思维链的更多优势。</p>
<ul>
<li>对话开启示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_demo_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>适用场景与效果示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_1_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_2_zh.png" width="768" referrerpolicy="no-referrer"></div>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="新的开始敬请期待">新的开始,敬请期待<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%96%B0%E7%9A%84%E5%BC%80%E5%A7%8B%E6%95%AC%E8%AF%B7%E6%9C%9F%E5%BE%85" class="hash-link" aria-label="新的开始,敬请期待的直接链接" title="新的开始,敬请期待的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 目前仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。</p>
<p>当前,我们正在持续迭代推理系列模型。之后,正式版 DeepSeek-R1 模型将完全开源,我们将公开技术报告,并部署 API 服务。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_deepseek_com_qr_code.png" width="300" referrerpolicy="no-referrer"><p><strong>扫码与 DeepSeek 开启对话</strong></p></div></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1120</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1120</guid>
<pubDate>Tue, 19 Nov 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek-V2.5:融合通用与代码能力的全新开源模型</title>
<description><p>今天,我们完成了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2 两个模型的合并,正式发布 <strong>DeepSeek-V2.5</strong>。</p>
<p>DeepSeek-V2.5 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。</p>
<p>DeepSeek-V2.5 现已在网页端及 API 全面上线,API 接口向前兼容,用户通过deepseek-coder或deepseek-chat均可以访问新的模型。同时,Function Calling、FIM 补全、Json Output 等功能保持不变。</p>
<p>All-in-One 的 DeepSeek-V2.5 将为用户带来更简洁、智能、高效的使用体验。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="升级历史">升级历史<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E5%8D%87%E7%BA%A7%E5%8E%86%E5%8F%B2" class="hash-link" aria-label="升级历史的直接链接" title="升级历史的直接链接"></a></h2>
<p>DeepSeek 一直专注于模型的改进和优化。在 6 月份,我们对 DeepSeek-V2-Chat 进行了重大升级,用 Coder V2 的 Base 模型替换原有的 Chat 的 Base 模型,显著提升了其代码生成和推理能力,并发布了 DeepSeek-V2-Chat-0628 版本。紧接着,DeepSeek-Coder-V2 在原有 Base 模型的基础上,通过对齐优化,大大提升通用能力后推出了 DeepSeek-Coder-V2 0724 版本。最终,我们成功将 Chat 和 Coder 两个模型合并,推出了全新的DeepSeek-V2.5 版本。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/version_history.png" width="768" referrerpolicy="no-referrer">
<p><strong>由于本次模型版本变动较大,如出现某些场景效果变差,建议重新调整 System Prompt 和 Temperature,以获得最佳性能。</strong></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="通用能力">通用能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="通用能力的直接链接" title="通用能力的直接链接"></a></h2>
<ul>
<li>通用能力评测</li>
</ul>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_1.jpeg" width="768" referrerpolicy="no-referrer">
<p>首先,我们使用业界通用的测试集对 DeepSeek-V2.5 的能力进行测评,在中文和英文四个测试集上,DeepSeek-V2.5 均优于之前的 DeepSeek-V2-0628 以及 DeepSeek-Coder-V2-0724。</p>
<p>在我们内部的中文评测中,和 GPT-4o mini、ChatGPT-4o-latest 的对战胜率(裁判为 GPT-4o)相较于 DeepSeek-V2-0628 均有明显提升。此测评中涵盖创作、问答等通用能力,用户使用体验将得到提升:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_2.jpg" width="768" referrerpolicy="no-referrer">
<ul>
<li>安全能力评测</li>
</ul>
<p>Safety 和 Helpful 之间的权衡是我们在迭代开发中一直重点关注的问题。在 DeepSeek-V2.5 版本中,我们对于模型安全问题的边界做了更加清晰的划分,在强化模型对于各种越狱攻击的安全性的同时,减少了安全策略过度泛化到正常问题中去的倾向。</p>
<table><thead><tr><th>Model</th><th>安全综合得分(越高越好)*</th><th>安全外溢比例(越低越好)**</th></tr></thead><tbody><tr><td>DeepSeek-V2-0628</td><td>74.4%</td><td>11.3%</td></tr><tr><td>DeepSeek-V2.5</td><td>82.6%</td><td>4.6%</td></tr></tbody></table>
<p>* 基于内部测试集合的得分,分数越高代表模型的整体安全性越高</p>
<p>** 基于内部测试集合的得分,比例越低代表模型的安全策略对于正常问题的影响越小</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="代码能力">代码能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E4%BB%A3%E7%A0%81%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="代码能力的直接链接" title="代码能力的直接链接"></a></h2>
<p>在代码方面,DeepSeek-V2.5 保留了 DeepSeek-Coder-V2-0724 强大的代码能力。在 HumanEval Python 和LiveCodeBench(2024 年 1 月 - 2024 年 9 月)测试中,DeepSeek-V2.5 显示了较为显著的改进。在 HumanEval Multilingual 和 Aider 测试中,DeepSeek-Coder-V2-0724 略胜一筹。在 SWE-verified 测试中,两个版本的表现都较低,表明在此方面仍需进一步优化。另外,在FIM补全任务上,内部评测集DS-FIM-Eval的评分提升了 5.1%,可以带来更好的插件补全体验。</p>
<p>另外,DeepSeek-V2.5对代码常见场景进行了优化,以提升实际使用的表现。在内部的主观评测 DS-Arena-Code 中,DeepSeek-V2.5 对战竞品的胜率(GPT-4o 为裁判)取得了显著提升。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_3.png" width="768" referrerpolicy="no-referrer">
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_4.jpg" width="768" referrerpolicy="no-referrer">
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型开源">模型开源<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E6%A8%A1%E5%9E%8B%E5%BC%80%E6%BA%90" class="hash-link" aria-label="模型开源的直接链接" title="模型开源的直接链接"></a></h2>
<p>一如既往,秉持着持久开源的精神,DeepSeek-V2.5 现已开源到了 HuggingFace:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5</a></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0905</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0905</guid>
<pubDate>Wed, 04 Sep 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 创新采用硬盘缓存,价格再降一个数量级</title>
<description><p>在大模型 API 的使用场景中,用户的输入有相当比例是重复的。举例说,用户的 prompt 往往有一些重复引用的部分;再举例说,多轮对话中,每一轮都要将前几轮的内容重复输入。</p>
<p>为此,DeepSeek 启用上下文硬盘缓存技术,把预计未来会重复使用的内容,缓存在分布式的硬盘阵列中。如果输入存在重复,则重复的部分只需要从缓存读取,无需计算。该技术不仅降低服务的延迟,还大幅削减最终的使用成本。</p>
<p>缓存命中的部分,DeepSeek 收费 0.1元 每百万 tokens。至此,大模型的价格再降低一个数量级。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_price.JPEG" width="512" referrerpolicy="no-referrer">
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何使用-deepseek-api-的缓存服务">如何使用 DeepSeek API 的缓存服务<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8-deepseek-api-%E7%9A%84%E7%BC%93%E5%AD%98%E6%9C%8D%E5%8A%A1" class="hash-link" aria-label="如何使用 DeepSeek API 的缓存服务的直接链接" title="如何使用 DeepSeek API 的缓存服务的直接链接"></a></h2>
<p>硬盘缓存服务已经全面上线,用户无需修改代码,无需更换接口,硬盘缓存服务将自动运行,系统自动按照实际命中情况计费。</p>
<p>注意,只有当两个请求的前缀内容相同时(从第 0 个 token 开始相同),才算重复。中间开始的重复不能被缓存命中。</p>
<p>以下为两个经典场景的缓存举例:</p>
<p><strong>1. 多轮对话场景,下一轮对话会命中上一轮对话生成的上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_1.JPEG" width="512" referrerpolicy="no-referrer">
<p><strong>2. 数据分析场景,后续具有相同前缀的请求会命中上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_2.JPEG" width="512" referrerpolicy="no-referrer">
<p>多种应用能从上下文硬盘缓存中受益:</p>
<ul>
<li>具有长预设提示词的问答助手类应用</li>
<li>具有长角色设定与多轮对话的角色扮演类应用</li>
<li>针对固定文本集合进行频繁询问的数据分析类应用</li>
<li>代码仓库级别的代码分析与排障工具</li>
<li>通过 Few-shot 提升模型输出效果</li>
<li>...</li>
</ul>
<p>更详细的使用方法,请参考指南<a href="https://api-docs.deepseek.com/zh-cn/guides/kv_cache">使用硬盘缓存</a></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何查询缓存命中情况">如何查询缓存命中情况<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E6%9F%A5%E8%AF%A2%E7%BC%93%E5%AD%98%E5%91%BD%E4%B8%AD%E6%83%85%E5%86%B5" class="hash-link" aria-label="如何查询缓存命中情况的直接链接" title="如何查询缓存命中情况的直接链接"></a></h2>
<p>在 API 返回的 usage 中,增加了两个字段,帮助用户实时监测缓存的命中情况:</p>
<ol>
<li><code>prompt_cache_hit_tokens</code>:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)</li>
<li><code>prompt_cache_miss_tokens</code>:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)</li>
</ol>
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低服务延迟">降低服务延迟<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%9C%8D%E5%8A%A1%E5%BB%B6%E8%BF%9F" class="hash-link" aria-label="降低服务延迟的直接链接" title="降低服务延迟的直接链接"></a></h2>
<p>输入长、重复内容多的请求,API 服务的首 token 延迟将大幅降低。</p>
<p>举个极端的例子,对 128K 输入且大部分重复的请求,实测首 token 延迟从 13 秒降低到 500 毫秒。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低整体费用">降低整体费用<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%95%B4%E4%BD%93%E8%B4%B9%E7%94%A8" class="hash-link" aria-label="降低整体费用的直接链接" title="降低整体费用的直接链接"></a></h2>
<p>最高可以节省 90% 的费用(需要针对缓存特性进行优化)。</p>
<p>即使不做任何优化,按历史使用情况,用户整体节省的费用也超过 50%。</p>
<p>缓存没有其它额外的费用,只有0.1 元每百万 tokens。缓存占用存储无需付费。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="缓存的安全性问题">缓存的安全性问题<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E7%BC%93%E5%AD%98%E7%9A%84%E5%AE%89%E5%85%A8%E6%80%A7%E9%97%AE%E9%A2%98" class="hash-link" aria-label="缓存的安全性问题的直接链接" title="缓存的安全性问题的直接链接"></a></h2>
<p>本缓存系统在设计的时候已充分考虑了各种潜在的安全问题。</p>
<p>每个用户的缓存是独立的,逻辑上相互不可见,从底层确保用户数据的安全和隐私。</p>
<p>长时间不用的缓存会自动清空,不会长期保留,且不会用于其他用途。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="为何-deepseek-api-能率先采用硬盘缓存">为何 DeepSeek API 能率先采用硬盘缓存<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E4%B8%BA%E4%BD%95-deepseek-api-%E8%83%BD%E7%8E%87%E5%85%88%E9%87%87%E7%94%A8%E7%A1%AC%E7%9B%98%E7%BC%93%E5%AD%98" class="hash-link" aria-label="为何 DeepSeek API 能率先采用硬盘缓存的直接链接" title="为何 DeepSeek API 能率先采用硬盘缓存的直接链接"></a></h2>
<p>根据公开的信息,DeepSeek 可能是全球第一家在 API 服务中大范围采用硬盘缓存的大模型厂商。</p>
<p>这得益于 DeepSeek V2 提出的 MLA 结构,在提高模型效果的同时,大大压缩了上下文 KV Cache 的大小,使得存储所需要的传输带宽和存储容量均大幅减少,因此可以缓存到低成本的硬盘上。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="deepseek-api-的并发和限流">DeepSeek API 的并发和限流<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#deepseek-api-%E7%9A%84%E5%B9%B6%E5%8F%91%E5%92%8C%E9%99%90%E6%B5%81" class="hash-link" aria-label="DeepSeek API 的并发和限流的直接链接" title="DeepSeek API 的并发和限流的直接链接"></a></h2>
<p>DeepSeek API 服务按照每天 1 万亿的容量进行设计。对所有用户均不限流、不限并发、同时保证服务质量。请放心加大并发使用。</p>
<hr>
<p><small>注1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存</small></p>
<p><small>注2. 缓存系统是“尽力而为”,不保证 100% 缓存命中</small></p>
<p><small>注3. 缓存不再使用后会自动被清空,时间一般为几个小时到几天</small></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0802</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0802</guid>
<pubDate>Thu, 01 Aug 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 升级,支持续写、FIM、Function Calling、JSON Output</title>
<description><p>今天,DeepSeek API 迎来更新,装备了新的接口功能,来释放模型的更多潜力:</p>
<ul>
<li><strong>更新接口 <code>/chat/completions</code></strong>
<ul>
<li>JSON Output</li>
<li>Function Calling</li>
<li>对话前缀续写(Beta)</li>
<li>8K 最长输出(Beta)</li>
</ul>
</li>
<li><strong>新增接口 <code>/completions</code></strong>
<ul>
<li>FIM 补全(Beta)</li>
</ul>
</li>
</ul>
<p>所有新功能,均可使用 <code>deepseek-chat</code> 和 <code>deepseek-coder</code> 模型调用。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="一更新接口-chatcompletions">一、更新接口 <code>/chat/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%B8%80%E6%9B%B4%E6%96%B0%E6%8E%A5%E5%8F%A3-chatcompletions" class="hash-link" aria-label="一更新接口-chatcompletions的直接链接" title="一更新接口-chatcompletions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-json-output��增强内容格式化">1. JSON Output,增强内容格式化<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-json-output%E5%A2%9E%E5%BC%BA%E5%86%85%E5%AE%B9%E6%A0%BC%E5%BC%8F%E5%8C%96" class="hash-link" aria-label="1. JSON Output,增强内容格式化的直接链接" title="1. JSON Output,增强内容格式化的直接链接"></a></h4>
<p>DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。</p>
<p>在进行数据处理等任务时,该功能可以让模型按预定格式返回 JSON,方便后续对模型输出内容进行解析,提高程序流程的自动化能力。</p>
<p>要使用 JSON Output 功能,需要:</p>
<ol>
<li>设置 <code>response_format</code> 参数为 <code>{'type': 'json_object'}</code></li>
<li>用户需要在提示词中,指导模型输出 JSON 的格式,来确保输出格式符合预期</li>
<li>合理设置 <code>max_tokens</code>,防止 JSON 字符串被中途截断</li>
</ol>
<p>以下为一个 JSON Output 功能的使用样例。在这个样例中,用户给出一段文本,模型对文本中的问题&amp;答案进行格式化输出。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/json_mode.jpg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/json_mode">JSON Output 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="2-function连接物理世界">2. Function,连接物理世界<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#2-function%E8%BF%9E%E6%8E%A5%E7%89%A9%E7%90%86%E4%B8%96%E7%95%8C" class="hash-link" aria-label="2. Function,连接物理世界的直接链接" title="2. Function,连接物理世界的直接链接"></a></h4>
<p>DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,来增强模型与物理世界交互的能力。</p>
<p>Function Calling 功能支持传入多个 Function(最多 128 个),支持并行 Function 调用。</p>
<p>下图展示了将 <code>deepseek-coder</code> 整合到开源大模型前端 <a href="https://github.com/lobehub/lobe-chat" target="_blank" rel="noopener noreferrer">LobeChat</a> 的效果。在这个例子中,我们开启了“网站爬虫”插件,来实现对网站的爬取和总结。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo.gif" width="512" referrerpolicy="no-referrer">
<p>下图展示了使用 Function Calling 功能的交互过程:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo_2.jpeg" width="600" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/function_calling">Function Calling 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="3-对话前缀续写beta更灵活的输出控制">3. 对话前缀续写(Beta),更灵活的输出控制<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#3-%E5%AF%B9%E8%AF%9D%E5%89%8D%E7%BC%80%E7%BB%AD%E5%86%99beta%E6%9B%B4%E7%81%B5%E6%B4%BB%E7%9A%84%E8%BE%93%E5%87%BA%E6%8E%A7%E5%88%B6" class="hash-link" aria-label="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接" title="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接"></a></h4>
<p>对话前缀续写沿用了<a href="https://api-docs.deepseek.com/zh-cn/api/create-chat-completion">对话补全</a>的 API 格式,允许用户指定最后一条 <code>assistant</code> 消息的前缀,来让模型按照该前缀进行补全。该功能也可用于输出长度达到 <code>max_tokens</code> 被截断后,将被截断的消息进行拼接,重新发送请求对被截断内容进行续写。</p>
<p>要使用对话前缀续写功能,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li>确保 messages 列表里最后一条消息的 <code>role</code> 为 <code>assistant</code>,并设置最后一条消息的 <code>prefix</code> 参数为 <code>True</code>,如:<code>{"role": "assistant": "content": "在很久很久以前,", "prefix": True}</code></li>
</ol>
<p>以下为对话前缀续写功能的使用样例。在这个例子里,设置了 assistant 消息开头为<code>'```python\n'</code>,以强制其以代码块开始,并设置 stop 参数为 <code>'```'</code>,让模型不输出多余的内容。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_prefix_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/chat_prefix_completion">对话前缀续写指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="4-8k-最长输出beta释放更长可能">4. 8K 最长输出(Beta),释放更长可能<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#4-8k-%E6%9C%80%E9%95%BF%E8%BE%93%E5%87%BAbeta%E9%87%8A%E6%94%BE%E6%9B%B4%E9%95%BF%E5%8F%AF%E8%83%BD" class="hash-link" aria-label="4. 8K 最长输出(Beta),释放更长可能的直接链接" title="4. 8K 最长输出(Beta),释放更长可能的直接链接"></a></h4>
<p>为了满足更长文本输出的场景,我们在 Beta 版 API 中,将 <code>max_tokens</code> 参数的上限调整为 8K。</p>
<p>要提高到 8K 最长输出,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li><code>max_tokens</code> 默认为 4096。开启 Beta 功能后,<code>max_tokens</code> 最大可设置为 8192</li>
</ol>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="二新增接口-completions">二、新增接口 <code>/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%BA%8C%E6%96%B0%E5%A2%9E%E6%8E%A5%E5%8F%A3-completions" class="hash-link" aria-label="二新增接口-completions的直接链接" title="二新增接口-completions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-fim-补全beta使能续写场景">1. FIM 补全(Beta),使能续写场景<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-fim-%E8%A1%A5%E5%85%A8beta%E4%BD%BF%E8%83%BD%E7%BB%AD%E5%86%99%E5%9C%BA%E6%99%AF" class="hash-link" aria-label="1. FIM 补全(Beta),使能续写场景的直接链接" title="1. FIM 补全(Beta),使能续写场景的直接链接"></a></h4>
<p>DeepSeek API 新增 FIM (Fill-In-the-Middle) 补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。FIM 补全接口收费与对话补全相同。</p>
<p>要使用 FIM 补全接口,需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>以下为 FIM 补全接口的使用样例。在这个例子中,用户提供斐波那契数列函数的开头和结尾,模型对中间内容进行补全。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fim_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/fim_completion">FIM 补全指南</a>。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="更新说明">更新说明<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E6%9B%B4%E6%96%B0%E8%AF%B4%E6%98%8E" class="hash-link" aria-label="更新说明的直接链接" title="更新说明的直接链接"></a></h3>
<p>Beta 接口已开放给所有用户使用,用户需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>Beta 接口属于不稳定接口,后续测试、发布计划会灵活变动,敬请谅解。</p>
<p>相关模型版本,在功能稳定后会发布到开源社区,敬请期待。</p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0725</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0725</guid>
<pubDate>Wed, 24 Jul 2024 16:00:00 GMT</pubDate>
</item>
</channel>
</rss> |
移除 async
Successfully generated as following: http://localhost:1200/deepseek/news - Success ✔️<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
<channel>
<title>DeepSeek 新闻</title>
<link>https://api-docs.deepseek.com/zh-cn</link>
<atom:link href="http://localhost:1200/deepseek/news" rel="self" type="application/rss+xml"></atom:link>
<description>DeepSeek 新闻 - Powered by RSSHub</description>
<generator>RSSHub</generator>
<webMaster>[email protected] (RSSHub)</webMaster>
<language>en</language>
<lastBuildDate>Tue, 24 Dec 2024 07:27:13 GMT</lastBuildDate>
<ttl>5</ttl>
<item>
<title>DeepSeek V2 系列收官,联网搜索上线官网</title>
<description><p>今天,我们发布 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210。本版模型将是我们开启下一个全新基座模型系列前对 V2 系列的最后一次更新。</p>
<p>与之前版本相比,本次更新通过 Post-Training 全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。</p>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型通用能力提升">模型通用能力提升<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E6%A8%A1%E5%9E%8B%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B%E6%8F%90%E5%8D%87" class="hash-link" aria-label="模型通用能力提升的直接链接" title="模型通用能力提升的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本通过 Post-Training 阶段的迭代,全面提升了模型在各个领域的能力:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<p>遵循我们一贯的开源精神,新版模型权重已经开源在 Huggingface:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210</a></p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_hf.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="联网搜索功能">联网搜索功能<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E8%81%94%E7%BD%91%E6%90%9C%E7%B4%A2%E5%8A%9F%E8%83%BD" class="hash-link" aria-label="联网搜索功能的直接链接" title="联网搜索功能的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本支持了<strong>联网搜索</strong>功能,并已上线网页端。登陆 <a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">https://chat.deepseek.com/</a>,在输入框中打开 <strong>“联网搜索”</strong> 即可体验。目前,API 暂不支持搜索功能。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<p>在“联网搜索”模式下,模型将深入阅读海量网页,为用户生成全面、准确、满足个性化需求的回答。面对用户的复杂问题,模型将自动提取多个关键词并行搜索,在更短时间内提供更加多样的搜索结果。</p>
<p>以下是搜索效果示例:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_example_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="v25-的最后版本">V2.5 的最后版本<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#v25-%E7%9A%84%E6%9C%80%E5%90%8E%E7%89%88%E6%9C%AC" class="hash-link" aria-label="V2.5 的最后版本的直接链接" title="V2.5 的最后版本的直接链接"></a></h2></div>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_timeline.png" width="768" referrerpolicy="no-referrer"></div>
<p>DeepSeek-V2.5-1210 将会是 DeepSeek V2.5 模型的最后一个版本。随着本次模型的发布,我们 DeepSeek V2系列模型的迭代更新也将告一段落。</p>
<p>DeepSeek V2 系列模型自今年 5 月发布开源以来,已经陪伴大家走过了半年的时间,期间历经 5 次迭代,而广大用户朋友们的支持与肯定,正是我们一直以来坚持不断更新进步的动力。</p>
<p><strong>“有善始者实繁,能克终者盖寡。”</strong></p>
<p>终版模型是暂时的收束,更是全新的起点。</p>
<p><strong>DeepSeek正在打造更加强大的下一代基座模型 DeepSeek V3,敬请期待!</strong></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1210</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1210</guid>
<pubDate>Mon, 09 Dec 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek推理模型预览版上线,解密o1推理过程</title>
<description><p>今天,DeepSeek 全新研发的推理模型 DeepSeek-R1-Lite 预览版正式上线。</p>
<p>所有用户均可登录官方网页(<a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">chat.deepseek.com</a>),一键开启与 R1-Lite 预览版模型的超强推理对话体验。</p>
<p>DeepSeek R1 系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。</p>
<p>该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。</p>
<div align="center"><h3 class="anchor anchorWithStickyNavbar_YAqC" id="全面提升的推理性能">全面提升的推理性能<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E6%8F%90%E5%8D%87%E7%9A%84%E6%8E%A8%E7%90%86%E6%80%A7%E8%83%BD" class="hash-link" aria-label="全面提升的推理性能的直接链接" title="全面提升的推理性能的直接链接"></a></h3></div>
<ul>
<li>DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,均取得了卓越的成绩,大幅超越了 GPT-4o 等知名模型。</li>
<li>下表为 DeepSeek-R1-Lite 在各项相关评测中的得分结果:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="深度思考的效果与潜力">深度思考的效果与潜力<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%B7%B1%E5%BA%A6%E6%80%9D%E8%80%83%E7%9A%84%E6%95%88%E6%9E%9C%E4%B8%8E%E6%BD%9C%E5%8A%9B" class="hash-link" aria-label="深度思考的效果与潜力的直接链接" title="深度思考的效果与潜力的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 的推理过程长,并且包含了大量的反思和验证。下图展示了模型在数学竞赛上的得分与测试所允许思考的长度紧密相关。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_scaling_law_zh.jpg" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>红色实线展示了模型所能达到的准确率与所给定的推理长度呈正相关;</li>
<li>相比传统的多次采样+投票(Majority Voting),模型思维链长度增加展现出了更高的效率。</li>
</ul>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="全面上线尝鲜体验">全面上线,尝鲜体验<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E4%B8%8A%E7%BA%BF%E5%B0%9D%E9%B2%9C%E4%BD%93%E9%AA%8C" class="hash-link" aria-label="全面上线,尝鲜体验的直接链接" title="全面上线,尝鲜体验的直接链接"></a></h2></div>
<p>登录 chat.deepseek.com,在输入框中选择“深度思考”模式,即可开启与 DeepSeek-R1-Lite 预览版的对话。</p>
<p>“深度思考” 模式专门针对数学、代码等各类复杂逻辑推理问题而设计,相比于普通的简单问题,能够提供更加全面、清晰、思路严谨的优质解答,充分展现出较长思维链的更多优势。</p>
<ul>
<li>对话开启示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_demo_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>适用场景与效果示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_1_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_2_zh.png" width="768" referrerpolicy="no-referrer"></div>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="新的开始敬请期待">新的开始,敬请期待<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%96%B0%E7%9A%84%E5%BC%80%E5%A7%8B%E6%95%AC%E8%AF%B7%E6%9C%9F%E5%BE%85" class="hash-link" aria-label="新的开始,敬请期待的直接链接" title="新的开始,敬请期待的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 目前仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。</p>
<p>当前,我们正在持续迭代推理系列模型。之后,正式版 DeepSeek-R1 模型将完全开源,我们将公开技术报告,并部署 API 服务。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_deepseek_com_qr_code.png" width="300" referrerpolicy="no-referrer"><p><strong>扫码与 DeepSeek 开启对话</strong></p></div></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1120</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1120</guid>
<pubDate>Tue, 19 Nov 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek-V2.5:融合通用与代码能力的全新开源模型</title>
<description><p>今天,我们完成了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2 两个模型的合并,正式发布 <strong>DeepSeek-V2.5</strong>。</p>
<p>DeepSeek-V2.5 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。</p>
<p>DeepSeek-V2.5 现已在网页端及 API 全面上线,API 接口向前兼容,用户通过deepseek-coder或deepseek-chat均可以访问新的模型。同时,Function Calling、FIM 补全、Json Output 等功能保持不变。</p>
<p>All-in-One 的 DeepSeek-V2.5 将为用户带来更简洁、智能、高效的使用体验。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="升级历史">升级历史<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E5%8D%87%E7%BA%A7%E5%8E%86%E5%8F%B2" class="hash-link" aria-label="升级历史的直接链接" title="升级历史的直接链接"></a></h2>
<p>DeepSeek 一直专注于模型的改进和优化。在 6 月份,我们对 DeepSeek-V2-Chat 进行了重大升级,用 Coder V2 的 Base 模型替换原有的 Chat 的 Base 模型,显著提升了其代码生成和推理能力,并发布了 DeepSeek-V2-Chat-0628 版本。紧接着,DeepSeek-Coder-V2 在原有 Base 模型的基础上,通过对齐优化,大大提升通用能力后推出了 DeepSeek-Coder-V2 0724 版本。最终,我们成功将 Chat 和 Coder 两个模型合并,推出了全新的DeepSeek-V2.5 版本。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/version_history.png" width="768" referrerpolicy="no-referrer">
<p><strong>由于本次模型版本变动较大,如出现某些场景效果变差,建议重新调整 System Prompt 和 Temperature,以获得最佳性能。</strong></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="通用能力">通用能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="通用能力的直接链接" title="通用能力的直接链接"></a></h2>
<ul>
<li>通用能力评测</li>
</ul>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_1.jpeg" width="768" referrerpolicy="no-referrer">
<p>首先,我们使用业界通用的测试集对 DeepSeek-V2.5 的能力进行测评,在中文和英文四个测试集上,DeepSeek-V2.5 均优于之前的 DeepSeek-V2-0628 以及 DeepSeek-Coder-V2-0724。</p>
<p>在我们内部的中文评测中,和 GPT-4o mini、ChatGPT-4o-latest 的对战胜率(裁判为 GPT-4o)相较于 DeepSeek-V2-0628 均有明显提升。此测评中涵盖创作、问答等通用能力,用户使用体验将得到提升:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_2.jpg" width="768" referrerpolicy="no-referrer">
<ul>
<li>安全能力评测</li>
</ul>
<p>Safety 和 Helpful 之间的权衡是我们在迭代开发中一直重点关注的问题。在 DeepSeek-V2.5 版本中,我们对于模型安全问题的边界做了更加清晰的划分,在强化模型对于各种越狱攻击的安全性的同时,减少了安全策略过度泛化到正常问题中去的倾向。</p>
<table><thead><tr><th>Model</th><th>安全综合得分(越高越好)*</th><th>安全外溢比例(越低越好)**</th></tr></thead><tbody><tr><td>DeepSeek-V2-0628</td><td>74.4%</td><td>11.3%</td></tr><tr><td>DeepSeek-V2.5</td><td>82.6%</td><td>4.6%</td></tr></tbody></table>
<p>* 基于内部测试集合的得分,分数越高代表模型的整体安全性越高</p>
<p>** 基于内部测试集合的得分,比例越低代表模型的安全策略对于正常问题的影响越小</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="代码能力">代码能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E4%BB%A3%E7%A0%81%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="代码能力的直接链接" title="代码能力的直接链接"></a></h2>
<p>在代码方面,DeepSeek-V2.5 保留了 DeepSeek-Coder-V2-0724 强大的代码能力。在 HumanEval Python 和LiveCodeBench(2024 年 1 月 - 2024 年 9 月)测试中,DeepSeek-V2.5 显示了较为显著的改进。在 HumanEval Multilingual 和 Aider 测试中,DeepSeek-Coder-V2-0724 略胜一筹。在 SWE-verified 测试中,两个版本的表现都较低,表明在此方面仍需进一步优化。另外,在FIM补全任务上,内部评测集DS-FIM-Eval的评分提升了 5.1%,可以带来更好的插件补全体验。</p>
<p>另外,DeepSeek-V2.5对代码常见场景进行了优化,以提升实际使用的表现。在内部的主观评测 DS-Arena-Code 中,DeepSeek-V2.5 对战竞品的胜率(GPT-4o 为裁判)取得了显著提升。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_3.png" width="768" referrerpolicy="no-referrer">
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_4.jpg" width="768" referrerpolicy="no-referrer">
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型开源">模型开源<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E6%A8%A1%E5%9E%8B%E5%BC%80%E6%BA%90" class="hash-link" aria-label="模型开源的直接链接" title="模型开源的直接链接"></a></h2>
<p>一如既往,秉持着持久开源的精神,DeepSeek-V2.5 现已开源到了 HuggingFace:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5</a></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0905</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0905</guid>
<pubDate>Wed, 04 Sep 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 创新采用硬盘缓存,价格再降一个数量级</title>
<description><p>在大模型 API 的使用场景中,用户的输入有相当比例是重复的。举例说,用户的 prompt 往往有一些重复引用的部分;再举例说,多轮对话中,每一轮都要将前几轮的内容重复输入。</p>
<p>为此,DeepSeek 启用上下文硬盘缓存技术,把预计未来会重复使用的内容,缓存在分布式的硬盘阵列中。如果输入存在重复,则重复的部分只需要从缓存读取,无需计算。该技术不仅降低服务的延迟,还大幅削减最终的使用成本。</p>
<p>缓存命中的部分,DeepSeek 收费 0.1元 每百万 tokens。至此,大模型的价格再降低一个数量级。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_price.JPEG" width="512" referrerpolicy="no-referrer">
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何使用-deepseek-api-的缓存服务">如何使用 DeepSeek API 的缓存服务<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8-deepseek-api-%E7%9A%84%E7%BC%93%E5%AD%98%E6%9C%8D%E5%8A%A1" class="hash-link" aria-label="如何使用 DeepSeek API 的缓存服务的直接链接" title="如何使用 DeepSeek API 的缓存服务的直接链接"></a></h2>
<p>硬盘缓存服务已经全面上线,用户无需修改代码,无需更换接口,硬盘缓存服务将自动运行,系统自动按照实际命中情况计费。</p>
<p>注意,只有当两个请求的前缀内容相同时(从第 0 个 token 开始相同),才算重复。中间开始的重复不能被缓存命中。</p>
<p>以下为两个经典场景的缓存举例:</p>
<p><strong>1. 多轮对话场景,下一轮对话会命中上一轮对话生成的上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_1.JPEG" width="512" referrerpolicy="no-referrer">
<p><strong>2. 数据分析场景,后续具有相同前缀的请求会命中上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_2.JPEG" width="512" referrerpolicy="no-referrer">
<p>多种应用能从上下文硬盘缓存中受益:</p>
<ul>
<li>具有长预设提示词的问答助手类应用</li>
<li>具有长角色设定与多轮对话的角色扮演类应用</li>
<li>针对固定文本集合进行频繁询问的数据分析类应用</li>
<li>代码仓库级别的代码分析与排障工具</li>
<li>通过 Few-shot 提升模型输出效果</li>
<li>...</li>
</ul>
<p>更详细的使用方法,请参考指南<a href="https://api-docs.deepseek.com/zh-cn/guides/kv_cache">使用硬盘缓存</a></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何查询缓存命中情况">如何查询缓存命中情况<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E6%9F%A5%E8%AF%A2%E7%BC%93%E5%AD%98%E5%91%BD%E4%B8%AD%E6%83%85%E5%86%B5" class="hash-link" aria-label="如何查询缓存命中情况的直接链接" title="如何查询缓存命中情况的直接链接"></a></h2>
<p>在 API 返回的 usage 中,增加了两个字段,帮助用户实时监测缓存的命中情况:</p>
<ol>
<li><code>prompt_cache_hit_tokens</code>:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)</li>
<li><code>prompt_cache_miss_tokens</code>:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)</li>
</ol>
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低服务延迟">降低服务延迟<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%9C%8D%E5%8A%A1%E5%BB%B6%E8%BF%9F" class="hash-link" aria-label="降低服务延迟的直接链接" title="降低服务延迟的直接链接"></a></h2>
<p>输入长、重复内容多的请求,API 服务的首 token 延迟将大幅降低。</p>
<p>举个极端的例子,对 128K 输入且大部分重复的请求,实测首 token 延迟从 13 秒降低到 500 毫秒。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低整体费用">降低整体费用<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%95%B4%E4%BD%93%E8%B4%B9%E7%94%A8" class="hash-link" aria-label="降低整体费用的直接链接" title="降低整体费用的直接链接"></a></h2>
<p>最高可以节省 90% 的费用(需要针对缓存特性进行优化)。</p>
<p>即使不做任何优化,按历史使用情况,用户整体节省的费用也超过 50%。</p>
<p>缓存没有其它额外的费用,只有0.1 元每百万 tokens。缓存占用存储无需付费。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="缓存的安全性问题">缓存的安全性问题<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E7%BC%93%E5%AD%98%E7%9A%84%E5%AE%89%E5%85%A8%E6%80%A7%E9%97%AE%E9%A2%98" class="hash-link" aria-label="缓存的安全性问题的直接链接" title="缓存的安全性问题的直接链接"></a></h2>
<p>本缓存系统在设计的时候已充分考虑了各种潜在的安全问题。</p>
<p>每个用户的缓存是独立的,逻辑上相互不可见,从底层确保用户数据的安全和隐私。</p>
<p>长时间不用的缓存会自动清空,不会长期保留,且不会用于其他用途。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="为何-deepseek-api-能率先采用硬盘缓存">为何 DeepSeek API 能率先采用硬盘缓存<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E4%B8%BA%E4%BD%95-deepseek-api-%E8%83%BD%E7%8E%87%E5%85%88%E9%87%87%E7%94%A8%E7%A1%AC%E7%9B%98%E7%BC%93%E5%AD%98" class="hash-link" aria-label="为何 DeepSeek API 能率先采用硬盘缓存的直接链接" title="为何 DeepSeek API 能率先采用硬盘缓存的直接链接"></a></h2>
<p>根据公开的信息,DeepSeek 可能是全球第一家在 API 服务中大范围采用硬盘缓存的大模型厂商。</p>
<p>这得益于 DeepSeek V2 提出的 MLA 结构,在提高模型效果的同时,大大压缩了上下文 KV Cache 的大小,使得存储所需要的传输带宽和存储容量均大幅减少,因此可以缓存到低成本的硬盘上。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="deepseek-api-的并发和限流">DeepSeek API 的并发和限流<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#deepseek-api-%E7%9A%84%E5%B9%B6%E5%8F%91%E5%92%8C%E9%99%90%E6%B5%81" class="hash-link" aria-label="DeepSeek API 的并发和限流的直接链接" title="DeepSeek API 的并发和限流的直接链接"></a></h2>
<p>DeepSeek API 服务按照每天 1 万亿的容量进行设计。对所有用户均不限流、不限并发、同时保证服务质量。请放心加大并发使用。</p>
<hr>
<p><small>注1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存</small></p>
<p><small>注2. 缓存系统是“尽力而为”,不保证 100% 缓存命中</small></p>
<p><small>注3. 缓存不再使用后会自动被清空,时间一般为几个小时到几天</small></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0802</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0802</guid>
<pubDate>Thu, 01 Aug 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 升级,支持续写、FIM、Function Calling、JSON Output</title>
<description><p>今天,DeepSeek API 迎来更新,装备了新的接口功能,来释放模型的更多潜力:</p>
<ul>
<li><strong>更新接口 <code>/chat/completions</code></strong>
<ul>
<li>JSON Output</li>
<li>Function Calling</li>
<li>对话前缀续写(Beta)</li>
<li>8K 最长输出(Beta)</li>
</ul>
</li>
<li><strong>新增接口 <code>/completions</code></strong>
<ul>
<li>FIM 补全(Beta)</li>
</ul>
</li>
</ul>
<p>所有新功能,均可使用 <code>deepseek-chat</code> 和 <code>deepseek-coder</code> 模型调用。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="一更新接口-chatcompletions">一、更新接口 <code>/chat/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%B8%80%E6%9B%B4%E6%96%B0%E6%8E%A5%E5%8F%A3-chatcompletions" class="hash-link" aria-label="一更新接口-chatcompletions的直接链接" title="一更新接口-chatcompletions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-json-output��增强内容格式化">1. JSON Output,增强内容格式化<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-json-output%E5%A2%9E%E5%BC%BA%E5%86%85%E5%AE%B9%E6%A0%BC%E5%BC%8F%E5%8C%96" class="hash-link" aria-label="1. JSON Output,增强内容格式化的直接链接" title="1. JSON Output,增强内容格式化的直接链接"></a></h4>
<p>DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。</p>
<p>在进行数据处理等任务时,该功能可以让模型按预定格式返回 JSON,方便后续对模型输出内容进行解析,提高程序流程的自动化能力。</p>
<p>要使用 JSON Output 功能,需要:</p>
<ol>
<li>设置 <code>response_format</code> 参数为 <code>{'type': 'json_object'}</code></li>
<li>用户需要在提示词中,指导模型输出 JSON 的格式,来确保输出格式符合预期</li>
<li>合理设置 <code>max_tokens</code>,防止 JSON 字符串被中途截断</li>
</ol>
<p>以下为一个 JSON Output 功能的使用样例。在这个样例中,用户给出一段文本,模型对文本中的问题&amp;答案进行格式化输出。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/json_mode.jpg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/json_mode">JSON Output 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="2-function连接物理世界">2. Function,连接物理世界<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#2-function%E8%BF%9E%E6%8E%A5%E7%89%A9%E7%90%86%E4%B8%96%E7%95%8C" class="hash-link" aria-label="2. Function,连接物理世界的直接链接" title="2. Function,连接物理世界的直接链接"></a></h4>
<p>DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,来增强模型与物理世界交互的能力。</p>
<p>Function Calling 功能支持传入多个 Function(最多 128 个),支持并行 Function 调用。</p>
<p>下图展示了将 <code>deepseek-coder</code> 整合到开源大模型前端 <a href="https://github.com/lobehub/lobe-chat" target="_blank" rel="noopener noreferrer">LobeChat</a> 的效果。在这个例子中,我们开启了“网站爬虫”插件,来实现对网站的爬取和总结。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo.gif" width="512" referrerpolicy="no-referrer">
<p>下图展示了使用 Function Calling 功能的交互过程:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo_2.jpeg" width="600" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/function_calling">Function Calling 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="3-对话前缀续写beta更灵活的输出控制">3. 对话前缀续写(Beta),更灵活的输出控制<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#3-%E5%AF%B9%E8%AF%9D%E5%89%8D%E7%BC%80%E7%BB%AD%E5%86%99beta%E6%9B%B4%E7%81%B5%E6%B4%BB%E7%9A%84%E8%BE%93%E5%87%BA%E6%8E%A7%E5%88%B6" class="hash-link" aria-label="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接" title="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接"></a></h4>
<p>对话前缀续写沿用了<a href="https://api-docs.deepseek.com/zh-cn/api/create-chat-completion">对话补全</a>的 API 格式,允许用户指定最后一条 <code>assistant</code> 消息的前缀,来让模型按照该前缀进行补全。该功能也可用于输出长度达到 <code>max_tokens</code> 被截断后,将被截断的消息进行拼接,重新发送请求对被截断内容进行续写。</p>
<p>要使用对话前缀续写功能,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li>确保 messages 列表里最后一条消息的 <code>role</code> 为 <code>assistant</code>,并设置最后一条消息的 <code>prefix</code> 参数为 <code>True</code>,如:<code>{"role": "assistant": "content": "在很久很久以前,", "prefix": True}</code></li>
</ol>
<p>以下为对话前缀续写功能的使用样例。在这个例子里,设置了 assistant 消息开头为<code>'```python\n'</code>,以强制其以代码块开始,并设置 stop 参数为 <code>'```'</code>,让模型不输出多余的内容。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_prefix_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/chat_prefix_completion">对话前缀续写指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="4-8k-最长输出beta释放更长可能">4. 8K 最长输出(Beta),释放更长可能<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#4-8k-%E6%9C%80%E9%95%BF%E8%BE%93%E5%87%BAbeta%E9%87%8A%E6%94%BE%E6%9B%B4%E9%95%BF%E5%8F%AF%E8%83%BD" class="hash-link" aria-label="4. 8K 最长输出(Beta),释放更长可能的直接链接" title="4. 8K 最长输出(Beta),释放更长可能的直接链接"></a></h4>
<p>为了满足更长文本输出的场景,我们在 Beta 版 API 中,将 <code>max_tokens</code> 参数的上限调整为 8K。</p>
<p>要提高到 8K 最长输出,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li><code>max_tokens</code> 默认为 4096。开启 Beta 功能后,<code>max_tokens</code> 最大可设置为 8192</li>
</ol>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="二新增接口-completions">二、新增接口 <code>/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%BA%8C%E6%96%B0%E5%A2%9E%E6%8E%A5%E5%8F%A3-completions" class="hash-link" aria-label="二新增接口-completions的直接链接" title="二新增接口-completions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-fim-补全beta使能续写场景">1. FIM 补全(Beta),使能续写场景<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-fim-%E8%A1%A5%E5%85%A8beta%E4%BD%BF%E8%83%BD%E7%BB%AD%E5%86%99%E5%9C%BA%E6%99%AF" class="hash-link" aria-label="1. FIM 补全(Beta),使能续写场景的直接链接" title="1. FIM 补全(Beta),使能续写场景的直接链接"></a></h4>
<p>DeepSeek API 新增 FIM (Fill-In-the-Middle) 补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。FIM 补全接口收费与对话补全相同。</p>
<p>要使用 FIM 补全接口,需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>以下为 FIM 补全接口的使用样例。在这个例子中,用户提供斐波那契数列函数的开头和结尾,模型对中间内容进行补全。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fim_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/fim_completion">FIM 补全指南</a>。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="更新说明">更新说明<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E6%9B%B4%E6%96%B0%E8%AF%B4%E6%98%8E" class="hash-link" aria-label="更新说明的直接链接" title="更新说明的直接链接"></a></h3>
<p>Beta 接口已开放给所有用户使用,用户需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>Beta 接口属于不稳定接口,后续测试、发布计划会灵活变动,敬请谅解。</p>
<p>相关模型版本,在功能稳定后会发布到开源社区,敬请期待。</p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0725</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0725</guid>
<pubDate>Wed, 24 Jul 2024 16:00:00 GMT</pubDate>
</item>
</channel>
</rss> |
TonyRL
reviewed
Dec 24, 2024
Co-authored-by: Tony <[email protected]>
Successfully generated as following: http://localhost:1200/deepseek/news - Success ✔️<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
<channel>
<title>DeepSeek 新闻</title>
<link>https://api-docs.deepseek.com/zh-cn</link>
<atom:link href="http://localhost:1200/deepseek/news" rel="self" type="application/rss+xml"></atom:link>
<description>DeepSeek 新闻 - Powered by RSSHub</description>
<generator>RSSHub</generator>
<webMaster>[email protected] (RSSHub)</webMaster>
<language>en</language>
<lastBuildDate>Wed, 25 Dec 2024 02:41:40 GMT</lastBuildDate>
<ttl>5</ttl>
<item>
<title>DeepSeek V2 系列收官,联网搜索上线官网</title>
<description><p>今天,我们发布 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210。本版模型将是我们开启下一个全新基座模型系列前对 V2 系列的最后一次更新。</p>
<p>与之前版本相比,本次更新通过 Post-Training 全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。</p>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型通用能力提升">模型通用能力提升<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E6%A8%A1%E5%9E%8B%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B%E6%8F%90%E5%8D%87" class="hash-link" aria-label="模型通用能力提升的直接链接" title="模型通用能力提升的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本通过 Post-Training 阶段的迭代,全面提升了模型在各个领域的能力:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<p>遵循我们一贯的开源精神,新版模型权重已经开源在 Huggingface:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210</a></p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_hf.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="联网搜索功能">联网搜索功能<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#%E8%81%94%E7%BD%91%E6%90%9C%E7%B4%A2%E5%8A%9F%E8%83%BD" class="hash-link" aria-label="联网搜索功能的直接链接" title="联网搜索功能的直接链接"></a></h2></div>
<p>DeepSeek-V2.5-1210 版本支持了<strong>联网搜索</strong>功能,并已上线网页端。登陆 <a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">https://chat.deepseek.com/</a>,在输入框中打开 <strong>“联网搜索”</strong> 即可体验。目前,API 暂不支持搜索功能。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<p>在“联网搜索”模式下,模型将深入阅读海量网页,为用户生成全面、准确、满足个性化需求的回答。面对用户的复杂问题,模型将自动提取多个关键词并行搜索,在更短时间内提供更加多样的搜索结果。</p>
<p>以下是搜索效果示例:</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_search_example_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="v25-的最后版本">V2.5 的最后版本<a href="https://api-docs.deepseek.com/zh-cn/news/news1210#v25-%E7%9A%84%E6%9C%80%E5%90%8E%E7%89%88%E6%9C%AC" class="hash-link" aria-label="V2.5 的最后版本的直接链接" title="V2.5 的最后版本的直接链接"></a></h2></div>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/deepseek_v2_5_timeline.png" width="768" referrerpolicy="no-referrer"></div>
<p>DeepSeek-V2.5-1210 将会是 DeepSeek V2.5 模型的最后一个版本。随着本次模型的发布,我们 DeepSeek V2系列模型的迭代更新也将告一段落。</p>
<p>DeepSeek V2 系列模型自今年 5 月发布开源以来,已经陪伴大家走过了半年的时间,期间历经 5 次迭代,而广大用户朋友们的支持与肯定,正是我们一直以来坚持不断更新进步的动力。</p>
<p><strong>“有善始者实繁,能克终者盖寡。”</strong></p>
<p>终版模型是暂时的收束,更是全新的起点。</p>
<p><strong>DeepSeek正在打造更加强大的下一代基座模型 DeepSeek V3,敬请期待!</strong></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1210</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1210</guid>
<pubDate>Mon, 09 Dec 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek推理模型预览版上线,解密o1推理过程</title>
<description><p>今天,DeepSeek 全新研发的推理模型 DeepSeek-R1-Lite 预览版正式上线。</p>
<p>所有用户均可登录官方网页(<a href="https://chat.deepseek.com/" target="_blank" rel="noopener noreferrer">chat.deepseek.com</a>),一键开启与 R1-Lite 预览版模型的超强推理对话体验。</p>
<p>DeepSeek R1 系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。</p>
<p>该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。</p>
<div align="center"><h3 class="anchor anchorWithStickyNavbar_YAqC" id="全面提升的推理性能">全面提升的推理性能<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E6%8F%90%E5%8D%87%E7%9A%84%E6%8E%A8%E7%90%86%E6%80%A7%E8%83%BD" class="hash-link" aria-label="全面提升的推理性能的直接链接" title="全面提升的推理性能的直接链接"></a></h3></div>
<ul>
<li>DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,均取得了卓越的成绩,大幅超越了 GPT-4o 等知名模型。</li>
<li>下表为 DeepSeek-R1-Lite 在各项相关评测中的得分结果:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_benchmark_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="深度思考的效果与潜力">深度思考的效果与潜力<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%B7%B1%E5%BA%A6%E6%80%9D%E8%80%83%E7%9A%84%E6%95%88%E6%9E%9C%E4%B8%8E%E6%BD%9C%E5%8A%9B" class="hash-link" aria-label="深度思考的效果与潜力的直接链接" title="深度思考的效果与潜力的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 的推理过程长,并且包含了大量的反思和验证。下图展示了模型在数学竞赛上的得分与测试所允许思考的长度紧密相关。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_scaling_law_zh.jpg" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>红色实线展示了模型所能达到的准确率与所给定的推理长度呈正相关;</li>
<li>相比传统的多次采样+投票(Majority Voting),模型思维链长度增加展现出了更高的效率。</li>
</ul>
<hr>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="全面上线尝鲜体验">全面上线,尝鲜体验<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E5%85%A8%E9%9D%A2%E4%B8%8A%E7%BA%BF%E5%B0%9D%E9%B2%9C%E4%BD%93%E9%AA%8C" class="hash-link" aria-label="全面上线,尝鲜体验的直接链接" title="全面上线,尝鲜体验的直接链接"></a></h2></div>
<p>登录 chat.deepseek.com,在输入框中选择“深度思考”模式,即可开启与 DeepSeek-R1-Lite 预览版的对话。</p>
<p>“深度思考” 模式专门针对数学、代码等各类复杂逻辑推理问题而设计,相比于普通的简单问题,能够提供更加全面、清晰、思路严谨的优质解答,充分展现出较长思维链的更多优势。</p>
<ul>
<li>对话开启示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_demo_zh.gif" width="768" referrerpolicy="no-referrer"></div>
<ul>
<li>适用场景与效果示例:</li>
</ul>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_1_zh.png" width="768" referrerpolicy="no-referrer"></div>
<hr>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/r1_example_2_zh.png" width="768" referrerpolicy="no-referrer"></div>
<div align="center"><h2 class="anchor anchorWithStickyNavbar_YAqC" id="新的开始敬请期待">新的开始,敬请期待<a href="https://api-docs.deepseek.com/zh-cn/news/news1120#%E6%96%B0%E7%9A%84%E5%BC%80%E5%A7%8B%E6%95%AC%E8%AF%B7%E6%9C%9F%E5%BE%85" class="hash-link" aria-label="新的开始,敬请期待的直接链接" title="新的开始,敬请期待的直接链接"></a></h2></div>
<p>DeepSeek-R1-Lite 目前仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。</p>
<p>当前,我们正在持续迭代推理系列模型。之后,正式版 DeepSeek-R1 模型将完全开源,我们将公开技术报告,并部署 API 服务。</p>
<div align="center"><img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_deepseek_com_qr_code.png" width="300" referrerpolicy="no-referrer"><p><strong>扫码与 DeepSeek 开启对话</strong></p></div></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news1120</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news1120</guid>
<pubDate>Tue, 19 Nov 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek-V2.5:融合通用与代码能力的全新开源模型</title>
<description><p>今天,我们完成了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2 两个模型的合并,正式发布 <strong>DeepSeek-V2.5</strong>。</p>
<p>DeepSeek-V2.5 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。</p>
<p>DeepSeek-V2.5 现已在网页端及 API 全面上线,API 接口向前兼容,用户通过deepseek-coder或deepseek-chat均可以访问新的模型。同时,Function Calling、FIM 补全、Json Output 等功能保持不变。</p>
<p>All-in-One 的 DeepSeek-V2.5 将为用户带来更简洁、智能、高效的使用体验。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="升级历史">升级历史<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E5%8D%87%E7%BA%A7%E5%8E%86%E5%8F%B2" class="hash-link" aria-label="升级历史的直接链接" title="升级历史的直接链接"></a></h2>
<p>DeepSeek 一直专注于模型的改进和优化。在 6 月份,我们对 DeepSeek-V2-Chat 进行了重大升级,用 Coder V2 的 Base 模型替换原有的 Chat 的 Base 模型,显著提升了其代码生成和推理能力,并发布了 DeepSeek-V2-Chat-0628 版本。紧接着,DeepSeek-Coder-V2 在原有 Base 模型的基础上,通过对齐优化,大大提升通用能力后推出了 DeepSeek-Coder-V2 0724 版本。最终,我们成功将 Chat 和 Coder 两个模型合并,推出了全新的DeepSeek-V2.5 版本。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/version_history.png" width="768" referrerpolicy="no-referrer">
<p><strong>由于本次模型版本变动较大,如出现某些场景效果变差,建议重新调整 System Prompt 和 Temperature,以获得最佳性能。</strong></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="通用能力">通用能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E9%80%9A%E7%94%A8%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="通用能力的直接链接" title="通用能力的直接链接"></a></h2>
<ul>
<li>通用能力评测</li>
</ul>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_1.jpeg" width="768" referrerpolicy="no-referrer">
<p>首先,我们使用业界通用的测试集对 DeepSeek-V2.5 的能力进行测评,在中文和英文四个测试集上,DeepSeek-V2.5 均优于之前的 DeepSeek-V2-0628 以及 DeepSeek-Coder-V2-0724。</p>
<p>在我们内部的中文评测中,和 GPT-4o mini、ChatGPT-4o-latest 的对战胜率(裁判为 GPT-4o)相较于 DeepSeek-V2-0628 均有明显提升。此测评中涵盖创作、问答等通用能力,用户使用体验将得到提升:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_2.jpg" width="768" referrerpolicy="no-referrer">
<ul>
<li>安全能力评测</li>
</ul>
<p>Safety 和 Helpful 之间的权衡是我们在迭代开发中一直重点关注的问题。在 DeepSeek-V2.5 版本中,我们对于模型安全问题的边界做了更加清晰的划分,在强化模型对于各种越狱攻击的安全性的同时,减少了安全策略过度泛化到正常问题中去的倾向。</p>
<table><thead><tr><th>Model</th><th>安全综合得分(越高越好)*</th><th>安全外溢比例(越低越好)**</th></tr></thead><tbody><tr><td>DeepSeek-V2-0628</td><td>74.4%</td><td>11.3%</td></tr><tr><td>DeepSeek-V2.5</td><td>82.6%</td><td>4.6%</td></tr></tbody></table>
<p>* 基于内部测试集合的得分,分数越高代表模型的整体安全性越高</p>
<p>** 基于内部测试集合的得分,比例越低代表模型的安全策略对于正常问题的影响越小</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="代码能力">代码能力<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E4%BB%A3%E7%A0%81%E8%83%BD%E5%8A%9B" class="hash-link" aria-label="代码能力的直接链接" title="代码能力的直接链接"></a></h2>
<p>在代码方面,DeepSeek-V2.5 保留了 DeepSeek-Coder-V2-0724 强大的代码能力。在 HumanEval Python 和LiveCodeBench(2024 年 1 月 - 2024 年 9 月)测试中,DeepSeek-V2.5 显示了较为显著的改进。在 HumanEval Multilingual 和 Aider 测试中,DeepSeek-Coder-V2-0724 略胜一筹。在 SWE-verified 测试中,两个版本的表现都较低,表明在此方面仍需进一步优化。另外,在FIM补全任务上,内部评测集DS-FIM-Eval的评分提升了 5.1%,可以带来更好的插件补全体验。</p>
<p>另外,DeepSeek-V2.5对代码常见场景进行了优化,以提升实际使用的表现。在内部的主观评测 DS-Arena-Code 中,DeepSeek-V2.5 对战竞品的胜率(GPT-4o 为裁判)取得了显著提升。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_3.png" width="768" referrerpolicy="no-referrer">
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/benchmark_4.jpg" width="768" referrerpolicy="no-referrer">
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="模型开源">模型开源<a href="https://api-docs.deepseek.com/zh-cn/news/news0905#%E6%A8%A1%E5%9E%8B%E5%BC%80%E6%BA%90" class="hash-link" aria-label="模型开源的直接链接" title="模型开源的直接链接"></a></h2>
<p>一如既往,秉持着持久开源的精神,DeepSeek-V2.5 现已开源到了 HuggingFace:</p>
<p><a href="https://huggingface.co/deepseek-ai/DeepSeek-V2.5" target="_blank" rel="noopener noreferrer">https://huggingface.co/deepseek-ai/DeepSeek-V2.5</a></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0905</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0905</guid>
<pubDate>Wed, 04 Sep 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 创新采用硬盘缓存,价格再降一个数量级</title>
<description><p>在大模型 API 的使用场景中,用户的输入有相当比例是重复的。举例说,用户的 prompt 往往有一些重复引用的部分;再举例说,多轮对话中,每一轮都要将前几轮的内容重复输入。</p>
<p>为此,DeepSeek 启用上下文硬盘缓存技术,把预计未来会重复使用的内容,缓存在分布式的硬盘阵列中。如果输入存在重复,则重复的部分只需要从缓存读取,无需计算。该技术不仅降低服务的延迟,还大幅削减最终的使用成本。</p>
<p>缓存命中的部分,DeepSeek 收费 0.1元 每百万 tokens。至此,大模型的价格再降低一个数量级。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_price.JPEG" width="512" referrerpolicy="no-referrer">
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何使用-deepseek-api-的缓存服务">如何使用 DeepSeek API 的缓存服务<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8-deepseek-api-%E7%9A%84%E7%BC%93%E5%AD%98%E6%9C%8D%E5%8A%A1" class="hash-link" aria-label="如何使用 DeepSeek API 的缓存服务的直接链接" title="如何使用 DeepSeek API 的缓存服务的直接链接"></a></h2>
<p>硬盘缓存服务已经全面上线,用户无需修改代码,无需更换接口,硬盘缓存服务将自动运行,系统自动按照实际命中情况计费。</p>
<p>注意,只有当两个请求的前缀内容相同时(从第 0 个 token 开始相同),才算重复。中间开始的重复不能被缓存命中。</p>
<p>以下为两个经典场景的缓存举例:</p>
<p><strong>1. 多轮对话场景,下一轮对话会命中上一轮对话生成的上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_1.JPEG" width="512" referrerpolicy="no-referrer">
<p><strong>2. 数据分析场景,后续具有相同前缀的请求会命中上下文缓存</strong></p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/kv_cache_example_2.JPEG" width="512" referrerpolicy="no-referrer">
<p>多种应用能从上下文硬盘缓存中受益:</p>
<ul>
<li>具有长预设提示词的问答助手类应用</li>
<li>具有长角色设定与多轮对话的角色扮演类应用</li>
<li>针对固定文本集合进行频繁询问的数据分析类应用</li>
<li>代码仓库级别的代码分析与排障工具</li>
<li>通过 Few-shot 提升模型输出效果</li>
<li>...</li>
</ul>
<p>更详细的使用方法,请参考指南<a href="https://api-docs.deepseek.com/zh-cn/guides/kv_cache">使用硬盘缓存</a></p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="如何查询缓存命中情况">如何查询缓存命中情况<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E5%A6%82%E4%BD%95%E6%9F%A5%E8%AF%A2%E7%BC%93%E5%AD%98%E5%91%BD%E4%B8%AD%E6%83%85%E5%86%B5" class="hash-link" aria-label="如何查询缓存命中情况的直接链接" title="如何查询缓存命中情况的直接链接"></a></h2>
<p>在 API 返回的 usage 中,增加了两个字段,帮助用户实时监测缓存的命中情况:</p>
<ol>
<li><code>prompt_cache_hit_tokens</code>:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)</li>
<li><code>prompt_cache_miss_tokens</code>:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)</li>
</ol>
<hr>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低服务延迟">降低服务延迟<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%9C%8D%E5%8A%A1%E5%BB%B6%E8%BF%9F" class="hash-link" aria-label="降低服务延迟的直接链接" title="降低服务延迟的直接链接"></a></h2>
<p>输入长、重复内容多的请求,API 服务的首 token 延迟将大幅降低。</p>
<p>举个极端的例子,对 128K 输入且大部分重复的请求,实测首 token 延迟从 13 秒降低到 500 毫秒。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="降低整体费用">降低整体费用<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E9%99%8D%E4%BD%8E%E6%95%B4%E4%BD%93%E8%B4%B9%E7%94%A8" class="hash-link" aria-label="降低整体费用的直接链接" title="降低整体费用的直接链接"></a></h2>
<p>最高可以节省 90% 的费用(需要针对缓存特性进行优化)。</p>
<p>即使不做任何优化,按历史使用情况,用户整体节省的费用也超过 50%。</p>
<p>缓存没有其它额外的费用,只有0.1 元每百万 tokens。缓存占用存储无需付费。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="缓存的安全性问题">缓存的安全性问题<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E7%BC%93%E5%AD%98%E7%9A%84%E5%AE%89%E5%85%A8%E6%80%A7%E9%97%AE%E9%A2%98" class="hash-link" aria-label="缓存的安全性问题的直接链接" title="缓存的安全性问题的直接链接"></a></h2>
<p>本缓存系统在设计的时候已充分考虑了各种潜在的安全问题。</p>
<p>每个用户的缓存是独立的,逻辑上相互不可见,从底层确保用户数据的安全和隐私。</p>
<p>长时间不用的缓存会自动清空,不会长期保留,且不会用于其他用途。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="为何-deepseek-api-能率先采用硬盘缓存">为何 DeepSeek API 能率先采用硬盘缓存<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#%E4%B8%BA%E4%BD%95-deepseek-api-%E8%83%BD%E7%8E%87%E5%85%88%E9%87%87%E7%94%A8%E7%A1%AC%E7%9B%98%E7%BC%93%E5%AD%98" class="hash-link" aria-label="为何 DeepSeek API 能率先采用硬盘缓存的直接链接" title="为何 DeepSeek API 能率先采用硬盘缓存的直接链接"></a></h2>
<p>根据公开的信息,DeepSeek 可能是全球第一家在 API 服务中大范围采用硬盘缓存的大模型厂商。</p>
<p>这得益于 DeepSeek V2 提出的 MLA 结构,在提高模型效果的同时,大大压缩了上下文 KV Cache 的大小,使得存储所需要的传输带宽和存储容量均大幅减少,因此可以缓存到低成本的硬盘上。</p>
<h2 class="anchor anchorWithStickyNavbar_YAqC" id="deepseek-api-的并发和限流">DeepSeek API 的并发和限流<a href="https://api-docs.deepseek.com/zh-cn/news/news0802#deepseek-api-%E7%9A%84%E5%B9%B6%E5%8F%91%E5%92%8C%E9%99%90%E6%B5%81" class="hash-link" aria-label="DeepSeek API 的并发和限流的直接链接" title="DeepSeek API 的并发和限流的直接链接"></a></h2>
<p>DeepSeek API 服务按照每天 1 万亿的容量进行设计。对所有用户均不限流、不限并发、同时保证服务质量。请放心加大并发使用。</p>
<hr>
<p><small>注1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存</small></p>
<p><small>注2. 缓存系统是“尽力而为”,不保证 100% 缓存命中</small></p>
<p><small>注3. 缓存不再使用后会自动被清空,时间一般为几个小时到几天</small></p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0802</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0802</guid>
<pubDate>Thu, 01 Aug 2024 16:00:00 GMT</pubDate>
</item>
<item>
<title>DeepSeek API 升级,支持续写、FIM、Function Calling、JSON Output</title>
<description><p>今天,DeepSeek API 迎来更新,装备了新的接口功能,来释放模型的更多潜力:</p>
<ul>
<li><strong>更新接口 <code>/chat/completions</code></strong>
<ul>
<li>JSON Output</li>
<li>Function Calling</li>
<li>对话前缀续写(Beta)</li>
<li>8K 最长输出(Beta)</li>
</ul>
</li>
<li><strong>新增接口 <code>/completions</code></strong>
<ul>
<li>FIM 补全(Beta)</li>
</ul>
</li>
</ul>
<p>所有新功能,均可使用 <code>deepseek-chat</code> 和 <code>deepseek-coder</code> 模型调用。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="一更新接口-chatcompletions">一、更新接口 <code>/chat/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%B8%80%E6%9B%B4%E6%96%B0%E6%8E%A5%E5%8F%A3-chatcompletions" class="hash-link" aria-label="一更新接口-chatcompletions的直接链接" title="一更新接口-chatcompletions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-json-output��增强内容格式化">1. JSON Output,增强内容格式化<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-json-output%E5%A2%9E%E5%BC%BA%E5%86%85%E5%AE%B9%E6%A0%BC%E5%BC%8F%E5%8C%96" class="hash-link" aria-label="1. JSON Output,增强内容格式化的直接链接" title="1. JSON Output,增强内容格式化的直接链接"></a></h4>
<p>DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。</p>
<p>在进行数据处理等任务时,该功能可以让模型按预定格式返回 JSON,方便后续对模型输出内容进行解析,提高程序流程的自动化能力。</p>
<p>要使用 JSON Output 功能,需要:</p>
<ol>
<li>设置 <code>response_format</code> 参数为 <code>{'type': 'json_object'}</code></li>
<li>用户需要在提示词中,指导模型输出 JSON 的格式,来确保输出格式符合预期</li>
<li>合理设置 <code>max_tokens</code>,防止 JSON 字符串被中途截断</li>
</ol>
<p>以下为一个 JSON Output 功能的使用样例。在这个样例中,用户给出一段文本,模型对文本中的问题&amp;答案进行格式化输出。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/json_mode.jpg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/json_mode">JSON Output 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="2-function连接物理世界">2. Function,连接物理世界<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#2-function%E8%BF%9E%E6%8E%A5%E7%89%A9%E7%90%86%E4%B8%96%E7%95%8C" class="hash-link" aria-label="2. Function,连接物理世界的直接链接" title="2. Function,连接物理世界的直接链接"></a></h4>
<p>DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,来增强模型与物理世界交互的能力。</p>
<p>Function Calling 功能支持传入多个 Function(最多 128 个),支持并行 Function 调用。</p>
<p>下图展示了将 <code>deepseek-coder</code> 整合到开源大模型前端 <a href="https://github.com/lobehub/lobe-chat" target="_blank" rel="noopener noreferrer">LobeChat</a> 的效果。在这个例子中,我们开启了“网站爬虫”插件,来实现对网站的爬取和总结。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo.gif" width="512" referrerpolicy="no-referrer">
<p>下图展示了使用 Function Calling 功能的交互过程:</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fc_demo_2.jpeg" width="600" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/function_calling">Function Calling 指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="3-对话前缀续写beta更灵活的输出控制">3. 对话前缀续写(Beta),更灵活的输出控制<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#3-%E5%AF%B9%E8%AF%9D%E5%89%8D%E7%BC%80%E7%BB%AD%E5%86%99beta%E6%9B%B4%E7%81%B5%E6%B4%BB%E7%9A%84%E8%BE%93%E5%87%BA%E6%8E%A7%E5%88%B6" class="hash-link" aria-label="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接" title="3. 对话前缀续写(Beta),更灵活的输出控制的直接链接"></a></h4>
<p>对话前缀续写沿用了<a href="https://api-docs.deepseek.com/zh-cn/api/create-chat-completion">对话补全</a>的 API 格式,允许用户指定最后一条 <code>assistant</code> 消息的前缀,来让模型按照该前缀进行补全。该功能也可用于输出长度达到 <code>max_tokens</code> 被截断后,将被截断的消息进行拼接,重新发送请求对被截断内容进行续写。</p>
<p>要使用对话前缀续写功能,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li>确保 messages 列表里最后一条消息的 <code>role</code> 为 <code>assistant</code>,并设置最后一条消息的 <code>prefix</code> 参数为 <code>True</code>,如:<code>{"role": "assistant": "content": "在很久很久以前,", "prefix": True}</code></li>
</ol>
<p>以下为对话前缀续写功能的使用样例。在这个例子里,设置了 assistant 消息开头为<code>'```python\n'</code>,以强制其以代码块开始,并设置 stop 参数为 <code>'```'</code>,让模型不输出多余的内容。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/chat_prefix_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/chat_prefix_completion">对话前缀续写指南</a>。</p>
<p>&nbsp;</p>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="4-8k-最长输出beta释放更长可能">4. 8K 最长输出(Beta),释放更长可能<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#4-8k-%E6%9C%80%E9%95%BF%E8%BE%93%E5%87%BAbeta%E9%87%8A%E6%94%BE%E6%9B%B4%E9%95%BF%E5%8F%AF%E8%83%BD" class="hash-link" aria-label="4. 8K 最长输出(Beta),释放更长可能的直接链接" title="4. 8K 最长输出(Beta),释放更长可能的直接链接"></a></h4>
<p>为了满足更长文本输出的场景,我们在 Beta 版 API 中,将 <code>max_tokens</code> 参数的上限调整为 8K。</p>
<p>要提高到 8K 最长输出,需要:</p>
<ol>
<li>设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能</li>
<li><code>max_tokens</code> 默认为 4096。开启 Beta 功能后,<code>max_tokens</code> 最大可设置为 8192</li>
</ol>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="二新增接口-completions">二、新增接口 <code>/completions</code><a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E4%BA%8C%E6%96%B0%E5%A2%9E%E6%8E%A5%E5%8F%A3-completions" class="hash-link" aria-label="二新增接口-completions的直接链接" title="二新增接口-completions的直接链接"></a></h3>
<h4 class="anchor anchorWithStickyNavbar_YAqC" id="1-fim-补全beta使能续写场景">1. FIM 补全(Beta),使能续写场景<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#1-fim-%E8%A1%A5%E5%85%A8beta%E4%BD%BF%E8%83%BD%E7%BB%AD%E5%86%99%E5%9C%BA%E6%99%AF" class="hash-link" aria-label="1. FIM 补全(Beta),使能续写场景的直接链接" title="1. FIM 补全(Beta),使能续写场景的直接链接"></a></h4>
<p>DeepSeek API 新增 FIM (Fill-In-the-Middle) 补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。FIM 补全接口收费与对话补全相同。</p>
<p>要使用 FIM 补全接口,需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>以下为 FIM 补全接口的使用样例。在这个例子中,用户提供斐波那契数列函数的开头和结尾,模型对中间内容进行补全。</p>
<img src="https://dp-cdn-deepseek.obs.cn-east-3.myhuaweicloud.com/api-docs/fim_completion.jpeg" width="512" referrerpolicy="no-referrer">
<p>详细使用方法,请参考 <a href="https://api-docs.deepseek.com/zh-cn/guides/fim_completion">FIM 补全指南</a>。</p>
<hr>
<h3 class="anchor anchorWithStickyNavbar_YAqC" id="更新说明">更新说明<a href="https://api-docs.deepseek.com/zh-cn/news/news0725#%E6%9B%B4%E6%96%B0%E8%AF%B4%E6%98%8E" class="hash-link" aria-label="更新说明的直接链接" title="更新说明的直接链接"></a></h3>
<p>Beta 接口已开放给所有用户使用,用户需要设置 <code>base_url</code> 为 <code>https://api.deepseek.com/beta</code> 来开启 Beta 功能。</p>
<p>Beta 接口属于不稳定接口,后续测试、发布计划会灵活变动,敬请谅解。</p>
<p>相关模型版本,在功能稳定后会发布到开源社区,敬请期待。</p></description>
<link>https://api-docs.deepseek.com/zh-cn/news/news0725</link>
<guid isPermaLink="false">https://api-docs.deepseek.com/zh-cn/news/news0725</guid>
<pubDate>Wed, 24 Jul 2024 16:00:00 GMT</pubDate>
</item>
</channel>
</rss> |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Add this suggestion to a batch that can be applied as a single commit.
This suggestion is invalid because no changes were made to the code.
Suggestions cannot be applied while the pull request is closed.
Suggestions cannot be applied while viewing a subset of changes.
Only one suggestion per line can be applied in a batch.
Add this suggestion to a batch that can be applied as a single commit.
Applying suggestions on deleted lines is not supported.
You must change the existing code in this line in order to create a valid suggestion.
Outdated suggestions cannot be applied.
This suggestion has been applied or marked resolved.
Suggestions cannot be applied from pending reviews.
Suggestions cannot be applied on multi-line comments.
Suggestions cannot be applied while the pull request is queued to merge.
Suggestion cannot be applied right now. Please check back later.
Example for the Proposed Route(s) / 路由地址示例
New RSS Route Checklist / 新 RSS 路由检查表
Puppeteer