在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型
- 电脑硬件
- 2025-09-16 16:42:02

随着DeepSeek的火热,市面上出现大量的第三方的API服务区,但是对于对安全、隐私、控制有一定需求的用户,还是会希望能够自主部署DeepSeek 。
实践下来,用自己的机器部署是一条解决之道,但是推理起来,cpu和内存占用很多,非常影响同时其它软件的操作。飞桨星河社区新推出了DeepSeek部署服务,操作简单,只需要点两下鼠标,可以部署1.5b - 70b之间的几个模型。
飞桨星河社区一键部署DeepSeek-r1:70b模型首先进入星河社区的模型部署页面:飞桨AI Studio星河社区-人工智能学习与实训社区
点击新建部署,选择DeepSeek-r1:70b模型,然后点击部署,
稍等一会儿,就部署成功了!
点击详情,可以看到部署信息:
服务URL: api-b4v8damcv97cu8dc.aistudio-app
运行中 私有
创建时间 2025-02-22 22:46:25
未调用时长 0小时
调用次数 0
点使用,就自动出来调用api代码,当然这里的api_key已经马赛克了,实际情况下AIStudio会自动加上自己的key,这点非常贴心。
部署模型的api调用代码:
# pip install openai from openai import OpenAI client = OpenAI( api_key="apikey,AIStudio会自动加上自己的key", base_url=" api-b4v8damcv97cu8dc.aistudio-app /v1" ) completion = client.chat pletions.create( model="deepseek-r1:70b", temperature=0.6, messages=[ {"role": "user", "content": "你好,请介绍一下你自己"} ], stream=True ) for chunk in completion: if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content: print(chunk.choices[0].delta.reasoning_content, end="", flush=True) else: print(chunk.choices[0].delta.content, end="", flush=True)输出信息:
<think> 您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。 </think> 您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。>>>这样使用起来太方便啦!
总结从创建页面可以看到,星河社区部署使用了Ollama部署DeepSeek,操作非常简单,就是点两次鼠标。
尽管现在很容易就能用到各家的免费DeepSeek web或API服务,但是自己部署,完全自己可控的DeepSeek api服务,还是非常不错的。
在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型由讯客互联电脑硬件栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型”