随着DeepSeek的火热,市面上出现大量的第三方的API服务区,但是对于对安全、隐私、控制有一定需求的用户,还是会希望能够自主部署DeepSeek 。
实践下来,用自己的机器部署是一条解决之道,但是推理起来,cpu和内存占用很多,非常影响同时其它软件的操作。飞桨星河社区新推出了DeepSeek部署服务,操作简单,只需要点两下鼠标,可以部署1.5b - 70b之间的几个模型。
飞桨星河社区一键部署DeepSeek-r1:70b模型
首先进入星河社区的模型部署页面:飞桨AI Studio星河社区-人工智能学习与实训社区
点击新建部署,选择DeepSeek-r1:70b模型,然后点击部署,
稍等一会儿,就部署成功了!
点击详情,可以看到部署信息:
服务URL:https://api-b4v8damcv97cu8dc.aistudio-app.com
运行中 私有
创建时间 2025-02-22 22:46:25
未调用时长 0小时
调用次数 0
点使用,就自动出来调用api代码,当然这里的api_key已经马赛克了,实际情况下AIStudio会自动加上自己的key,这点非常贴心。
部署模型的api调用代码:
# pip install openai
from openai import OpenAI
client = OpenAI(
api_key="apikey,AIStudio会自动加上自己的key",
base_url="https://api-b4v8damcv97cu8dc.aistudio-app.com/v1"
)
completion = client.chat.completions.create(
model="deepseek-r1:70b",
temperature=0.6,
messages=[
{"role": "user", "content": "你好,请介绍一下你自己"}
],
stream=True
)
for chunk in completion:
if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content:
print(chunk.choices[0].delta.reasoning_content, end="", flush=True)
else:
print(chunk.choices[0].delta.content, end="", flush=True)
输出信息:
<think>
您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
</think>
您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。>>>
这样使用起来太方便啦!
总结
从创建页面可以看到,星河社区部署使用了Ollama部署DeepSeek,操作非常简单,就是点两次鼠标。
尽管现在很容易就能用到各家的免费DeepSeek web或API服务,但是自己部署,完全自己可控的DeepSeek api服务,还是非常不错的。