主页 > 电脑硬件  > 

在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型

在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型

随着DeepSeek的火热,市面上出现大量的第三方的API服务区,但是对于对安全、隐私、控制有一定需求的用户,还是会希望能够自主部署DeepSeek 。

实践下来,用自己的机器部署是一条解决之道,但是推理起来,cpu和内存占用很多,非常影响同时其它软件的操作。飞桨星河社区新推出了DeepSeek部署服务,操作简单,只需要点两下鼠标,可以部署1.5b - 70b之间的几个模型。

飞桨星河社区一键部署DeepSeek-r1:70b模型

首先进入星河社区的模型部署页面:飞桨AI Studio星河社区-人工智能学习与实训社区

点击新建部署,选择DeepSeek-r1:70b模型,然后点击部署,

稍等一会儿,就部署成功了!

点击详情,可以看到部署信息:

服务URL: api-b4v8damcv97cu8dc.aistudio-app

运行中 私有

创建时间 2025-02-22 22:46:25

未调用时长 0小时

调用次数 0

点使用,就自动出来调用api代码,当然这里的api_key已经马赛克了,实际情况下AIStudio会自动加上自己的key,这点非常贴心。

部署模型的api调用代码:

# pip install openai from openai import OpenAI client = OpenAI( api_key="apikey,AIStudio会自动加上自己的key", base_url=" api-b4v8damcv97cu8dc.aistudio-app /v1" ) completion = client.chat pletions.create( model="deepseek-r1:70b", temperature=0.6, messages=[ {"role": "user", "content": "你好,请介绍一下你自己"} ], stream=True ) for chunk in completion: if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content: print(chunk.choices[0].delta.reasoning_content, end="", flush=True) else: print(chunk.choices[0].delta.content, end="", flush=True)

输出信息:

<think> 您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。 </think> 您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。>>>

这样使用起来太方便啦!

总结

从创建页面可以看到,星河社区部署使用了Ollama部署DeepSeek,操作非常简单,就是点两次鼠标。

尽管现在很容易就能用到各家的免费DeepSeek web或API服务,但是自己部署,完全自己可控的DeepSeek api服务,还是非常不错的。

标签:

在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型由讯客互联电脑硬件栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型