国内高速下载huggingface上的模型
- 人工智能
- 2025-07-21 19:22:03

目录
前言
modelscope
huggingface安装
Windows设置环境变量
Linux设置环境变量
设置国内镜像
Windows(cmd.exe)
当前窗口有效
永久生效
Linux
当前窗口有效
永久生效
下载模型
前言
国内优先使用modelscope,hugging face镜像站下载还是不怎么稳定。
modelscopemodelscope:ModelScope - 模型列表页
找下有没有需要的模型,有的话拷贝下 <namespace>/<model-name>,如图:
使用git clone:
git lfs clone .modelscope /<namespace>/<model-name>.git比如我要下的是AI-ModelScope/stable-diffusion-xl-base-1.0,那么链接就是:
git lfs clone .modelscope /AI-ModelScope/stable-diffusion-xl-base-1.0.git
huggingface安装
Python版本至少是3.8
安装hugging face官方提供的下载工具
pip install -U huggingface_hub hf-transfer Windows设置环境变量在当前窗口设置临时环境变量(cmd.exe)
set HF_HUB_ENABLE_HF_TRANSFER 1你也可以设置永久的环境变量(可能需要管理员权限)
setx HF_HUB_ENABLE_HF_TRANSFER 1 Linux设置环境变量只是当前窗口下有效
export HF_HUB_ENABLE_HF_TRANSFER=1 设置国内镜像 Windows(cmd.exe) 当前窗口有效 set HF_ENDPOINT hf-mirror 永久生效 setx HF_ENDPOINT hf-mirror Linux 当前窗口有效 export HF_ENDPOINT= hf-mirror 永久生效 # 配置环境变量 vim ~/.bashrc # 在打开文件中的最后一行添加 export HF_ENDPOINT=" hf-mirror " 下载模型 huggingface-cli download --token [访问令牌] --resume-download --local-dir-use-symlinks False [模型名] --local-dir [保存位置]如果你使用的是conda,注意看下有没有切换对应的环境!!!
有些模型不需要token也能直接下载!!!把token选项去掉即可
访问令牌获取链接: huggingface.co/settings/tokens
比如我要下载ChatGLM的模型,操作如下:
命令如:
huggingface-cli download --resume-download --local-dir-use-symlinks False THUDM/chatglm3-6b --local-dir chatglm3-6b
参考文章
如何快速下载huggingface大模型 – padeoe的小站hf-mirror - Huggingface 镜像站👍点赞,你的认可是我创作的动力 ! 🌟收藏,你的青睐是我努力的方向! ✏️评论,你的意见是我进步的财富!
国内高速下载huggingface上的模型由讯客互联人工智能栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“国内高速下载huggingface上的模型”
下一篇
eclipse中设置自动补齐代码