Huggingface
国内开源镜像
https://hf-mirror.com/
上面总结了多种从Huggingface
上下载模型的方法,如下图。
方法一:使用huggingface
官网提供的huggingface-cli
工具
官方详解地址https://huggingface.co/docs/huggingface_hub/guides/download
1. 安装依赖
创建项目的虚拟环境后,激活该环境,并执行:
pip install -U huggingface_hub
可以运行huggingface-cli download --helps
命令来查看download
功能的参数,如下图
以下载zjunlp/knowlm-13b-ie
模型为例,模型地址:https://huggingface.co/zjunlp/knowlm-13b-ie/tree/main,运行以下命令
huggingface-cli download --resume-download --local-dir-use-symlinks False zjunlp/knowlm-13b-ie --local-dir D:\Code\KnowLM\knowlm-13b-ie
或者以下命令
huggingface-cli download --resume-download zjunlp/knowlm-13b-ie --local-dir D:\Code\KnowLM\knowlm-13b-ie --local-dir-use-symlinks False --token hf_*****
这条命令会将zjunlp/knowlm-13b-ie
模型下载到本地的D:\Code\KnowLM\test
路径下
支持多线程下载,如图
比直接从项目地址网页https://huggingface.co/zjunlp/knowlm-13b-ie/tree/main
下载方便快捷得多!
方法一本质上还是从huggingface
官网上下载,因此需要科学上网。
2. 基本命令示例
export HF_ENDPOINT=https://hf-mirror.com
3. 下载需要登录的模型
方法二:从镜像网站下载
方法二的本质是从huggingface
的国内开源镜像下载,需要关闭科学上网才能达到理想的速度
1. 直接从镜像网站手动下载
在搜素栏里搜索想要的模型,例如knowlm-13b-ie
,确定以后会转到相应的镜像网站
结构目录和huggingface
上一样,只是域名已经变成了https://hf-mirror.com/zjunlp/knowlm-13b-ie/tree/main
仍然可以手动使用浏览器下载每个文件,速度可达1.5MB/s,巅峰时可6-7MB/s且不中断!,困扰快一周的问题终于解决
2. 用wget
等工具下载