无需 VPN 即可急速下载 huggingface 上的 LLM 模型
- 无需 VPN 即可急速下载 huggingface 上的 llm 模型
- 安装依赖
- 配置
- 下载命令
无需 VPN 即可急速下载 huggingface 上的 llm 模型
快速下载huggingface模型:
安装依赖
pip install -U huggingface_hub hf_transfer -i https://mirrors.aliyun.com/pypi/simple/
配置
- 在Linux中,执行:
export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com
- 在Windows中,执行:
SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com
下载命令
下载 THUDM/chatglm3-6b 模型到本地路径 chatglm3-6b
huggingface-cli download --resume-download THUDM/chatglm3-6b --local-dir chatglm3-6b
示例2:下载 databricks/dolly-v2-3b 模型到本地路径 dolly-v2-3b
huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b
我的下载速度 8MB/s,非常的快,也无需VPN!!
同样的,可以下载 llama2-7b, qwen1.5-7b …