最稳最厉害的大发回血团队-DeepSeek API 的调用方法
新闻动态
你的位置:最稳最厉害的大发回血团队 > 新闻动态 > DeepSeek API 的调用方法
DeepSeek API 的调用方法
发布日期:2025-05-21 10:47    点击次数:136

95后 AI 天才少女罗福莉,在知乎社区上曾坦言:单论 DeepSeek-V2 模型的中文水平,就已处在国内外闭源模型的第一梯队。

笔者对这个言论深以为然,比如之前笔者让 DeepSeek 仿照古龙《天涯·明月·刀》写的一篇:《剑·江湖· ABAP 之宿命》。

以及 DeepSeek 模仿鲁迅的杂文:《为什么都 2025 年了,还有人在抱怨 SAP 系统界面难看?》

再比如这篇文章,也是全部由 DeepSeek 执笔写作而成。

从机房到云端:SAP Basis 从业者在云时代会失业吗?

罗福莉还认为,对于 API 调用而言,每百万输入 Tokens 只需一块钱,只有 ChatGPT 价格的百分之一,真是性价比之王!

图片

这段言论的出处:https://www.zhihu.com/question/655172528/answer/3490846800

图片

近期由于访问实在太火爆,DeepSeek API 平台已经暂停了 API 服务充值,不过以前已经充值的额度可以继续使用。

图片

有网友认为,DeepSeek 的这个决定,反映其志不在满足于将现有的 R1 模型打磨成为成熟的商业化产品,而是打算将有限的算力资源投入到下一代更先进的模型研发中去。

DeepSeek V3/R1 模型采用 MIT 协议开源,这意味着任何厂家和个人都能够拿去进行商业化运作和盈利。

这就不难解释为什么最近有一大批第三方平台,纷纷宣布自己接入了「满血版的 DeepSeek R1」并提供了封装之后的 API 调用,来吸引用户使用。

图片

上图这个长长的列表,也没能将所有的第三方平台罗列完全。比如还有中国移动云盘 App,以及笔者之前文章提到的支付宝百宝箱平台:

免费使用 DeepSeek R1 满血版不卡顿,支持个人知识库

以硅基流动为例,提供了对 DeepSeek API 的封装调用,就是我们程序员俗称的「包了一层」。简单的说,就是应用程序里调用硅基流动的 API,硅基流动 API 内部再调用 DeepSeek API.

以硅基流动平台为例,其封装后的 DeepSeek API 使用步骤非常简捷。

登录硅基流动官网:

https://cloud.siliconflow.cn/models

大家可以仔细观察这些第三方平台提供的 DeepSeek API 调用价格,看看和 DeepSeek 官网相比贵了多少。

图片

点击模型广场的 API 秘钥:

图片

新建一个 API 秘钥即可:

图片

在 API 测试控制台里,可以看到适用于 curl,Python,JavaScript,Go,Java 等编程语言和工具调用 API 的示例代码。 

图片

以 curl 为例,将示例代码粘贴到 cmd 中,将代码中的 <token> 占位符,替换成刚刚创建的 API key,即可发起 API 调用并收到结果了。

通过 model 字段指定要调用的 DeepSeek 模型版本,content 字段传入要询问 DeepSeek 的问题。

图片

还有几个参数可以微调。

temperature: 0 到 1 区间的一个值,影响了模型输出的随机程度。temperature 越小,模型会越倾向于选择高概率的词,使得回答更加稳定,但有时可能显得过于死板。

反之,模型的选择会更加多样化,甚至有点“天马行空”,但也更容易出现逻辑混乱的情况。

top_p:通过一个“动态阈值”来决定候选词的范围,也是 0 到 1 区间内的一个值。

top_p = 1.0:模型会从所有可能的词中选择,允许更丰富的表达。

top_p = 0.9:它会只考虑总概率达到 90% 的词,把那些不太可能的词剔除。

top_p = 0.5:只保留概率最高的部分单词,让回答更加集中。

举个例子:我们提出问题:“你最喜欢的颜色是什么?”

top_p = 1.0 - 它可能回答:“我喜欢蓝色,但红色也不错,绿色有时候也挺好看。”

top_p = 0.5 - 它可能只会说:“我喜欢蓝色。”

top_k:控制模型每次生成词时,只从最可能的 k 个词中进行选择。

top_k = 1:模型总是选最高概率的那个词,结果完全固定。

top_k = 5:让模型从前 5 个最有可能的词中选择,从而带来一定的随机性。

top_k = 50:模型的选择范围更大,答案会更加多样。

比如我们问:“你最喜欢的动物是什么?”

top_k = 1,模型可能总是回答:“我喜欢狗。”

top_k = 5,它可能回答:“我喜欢狗、猫、兔子、老虎或海豚。”

top_k = 50,它可能会说出一些很意想不到的动物,比如“树懒”或“袋鼠”。

frequency_penalty:这个参数用来防止模型过于重复地使用相同的词。

值越高,模型越会倾向于使用不同的词,减少重复。

值越低,模型越不会刻意避免重复,有时候可能会“啰嗦”。

举个例子,如果我们问:“请描述一下你的日常。”

frequency_penalty = 0.0,可能会得到:“我早上起床,喝咖啡,工作,喝咖啡,午休,喝咖啡……”

frequency_penalty = 2.0,模型可能会更换表达方式,比如:“我早上起床后,喜欢来杯咖啡。然后我开始一天的工作,稍后会喝点茶。”

在 DeepSeek API 调用时根据实际需求调整这些参数,可以让模型的回答更加符合预期。

下图是通过 API 调用方式,向 DeepSeek 提问 what is ABAP 返回的结果:

图片

粘贴到浏览器里美化显示一下:

图片

对于其他编程语言的 API 调用,因为已经提供了示例代码,所以使用起来几乎没有门槛。    

更多阅读

DeepSeek 辅助下的 ABAP 编程江湖 · 剑 · ABAP 之宿命在腾讯 HAI 上使用 DeepSeek + RAG 实现 SAP 私人知识库 本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。