本地部署DeepSeek大模型
- 创业
- 2025-08-25 10:39:03

环境:nuc工控机器 x86架构 ubuntu20.04
1、浏览器打开Download Ollama on Linux,复制命令。
2.打开终端,输入命令。
curl -fsSL ollama /install.sh | sh等待安装,安装完成后,终端输入 ollama,输入以下参数列表,说明ollama安装成功了。
2.下载DeepSeek R1模型:
在ollama官网左上角点击 Models 选项卡,
选择一个模型,这里选择7B模型,7B模型运行起来占大概5G的显存,复制指令。
正在下载7B的DeepSeek R1模型了。
3.在VScode中配置
安装 continue -*, 侧边栏出现图标。
点击图标,
将 continue -* 移至右侧,不影响工作区的内容。
按照上图所示,选择deepseek-r1 7b。
测试:
终端打开 ollama ps,可以看到deepseek-r1 7b正在运行。
使用 ollama stop deepseek-r1:7b,关闭deepseek-r1 7b。
切换模型:
重新打开VScode,选择 qwen2.5 模型
本地部署DeepSeek大模型由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“本地部署DeepSeek大模型”
上一篇
C++Primer库-IO类