主页 > 其他  > 

根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署

根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署

看到了一个挺不错的开源open deep research项目,集网络爬取,搜索引擎和大语言模型为一体生成的研究助手,于是我想试试在远程服务器上部署。 项目地址: github /dzhng/deep-research

下载ollama

ollama地址: ollama /download

运行ollama并拉取一个LLM ollama serve

打开一个新的会话窗口,以llama3.3为例拉取

ollama pull llama3.3

想拉取deepseek也是可以的,自己替换就行。

克隆仓库 git clone github /dzhng/deep-research.git 安装

进入deep-research文件夹后,按照以下方法安装

npm install

新建一个.env.local文件:

FIRECRAWL_KEY="YOUR_KEY" # If you want to use your self-hosted Firecrawl, add the following below: # FIRECRAWL_BASE_URL="http://localhost:3002" OPENAI_KEY="ollama" CONTEXT_SIZE="128000" # If you want to use other OpenAI compatible API, add the following below: OPENAI_ENDPOINT="http://localhost:11434/v1" OPENAI_MODEL="llama3.3"

FireCrawl的KEY可以自己建个号生成一个。 不确定OPENAI_ENDPOINT端口号,可以用以下命令查看ollama的ip地址和端口号

netstat -ano -p tcp

最后运行

npm start

会输出一个output.md的文件。

后面有时间会看看怎么用本地的FireCrawl爬取。

Troubleshooting

如果没有npm,可以通过 nodejs.org/en/download/安装nodejs和npm(nvm试过可以安装)

apt-get update apt update

如果没有vim

apt-get install vim

如果没有netstat,

apt install net-tools
标签:

根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署由讯客互联其他栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“根据研究主题自动生成研究报告,OpenDeepResearch远程服务器云部署