根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署
- 其他
- 2025-08-31 11:48:02

看到了一个挺不错的开源open deep research项目,集网络爬取,搜索引擎和大语言模型为一体生成的研究助手,于是我想试试在远程服务器上部署。 项目地址: github /dzhng/deep-research
下载ollamaollama地址: ollama /download
运行ollama并拉取一个LLM ollama serve打开一个新的会话窗口,以llama3.3为例拉取
ollama pull llama3.3想拉取deepseek也是可以的,自己替换就行。
克隆仓库 git clone github /dzhng/deep-research.git 安装进入deep-research文件夹后,按照以下方法安装
npm install新建一个.env.local文件:
FIRECRAWL_KEY="YOUR_KEY" # If you want to use your self-hosted Firecrawl, add the following below: # FIRECRAWL_BASE_URL="http://localhost:3002" OPENAI_KEY="ollama" CONTEXT_SIZE="128000" # If you want to use other OpenAI compatible API, add the following below: OPENAI_ENDPOINT="http://localhost:11434/v1" OPENAI_MODEL="llama3.3"FireCrawl的KEY可以自己建个号生成一个。 不确定OPENAI_ENDPOINT端口号,可以用以下命令查看ollama的ip地址和端口号
netstat -ano -p tcp最后运行
npm start会输出一个output.md的文件。
后面有时间会看看怎么用本地的FireCrawl爬取。
Troubleshooting如果没有npm,可以通过 nodejs.org/en/download/安装nodejs和npm(nvm试过可以安装)
apt-get update apt update如果没有vim
apt-get install vim如果没有netstat,
apt install net-tools根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署由讯客互联其他栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署”
上一篇
C++设计模式-外观模式