登录
首页 >  科技周边 >  人工智能

抱抱脸模型怎么下载获取方法详解

时间:2026-01-13 15:56:34 128浏览 收藏

怎么入门科技周边编程?需要学习哪些知识点?这是新手们刚接触编程时常见的问题;下面golang学习网就来给大家整理分享一些知识点,希望能够给初学者一些帮助。本篇文章就来介绍《Hugging Face模型怎么下载 抱抱脸模型文件获取方法》,涉及到,有需要的可以收藏一下

推荐使用 Hugging Face CLI 工具下载模型,需先安装 huggingface_hub、配置 HF_ENDPOINT 镜像源,再执行 huggingface-cli download 命令并指定本地目录与断点续传参数。

Hugging Face怎么下载模型 抱抱脸Hugging Face模型文件下载方法【指南】

如果您希望在本地使用 Hugging Face 上的预训练模型,但遇到下载缓慢、中断或无法获取完整文件等问题,则可能是由于网络连接不稳定、未配置镜像源或工具选择不当所致。以下是多种切实可行的模型文件下载方法:

一、使用 Hugging Face CLI 工具下载

该方法是官方推荐的命令行方式,支持断点续传、指定目录、跳过已存在文件等功能,适用于大多数用户且兼容性高。

1、在终端中执行命令安装 huggingface_hub 工具:
pip install huggingface_hub

2、设置国内镜像加速(关键提速步骤):
Linux/macOS 用户在 ~/.bashrc 中添加:export HF_ENDPOINT=https://hf-mirror.com
Windows PowerShell 用户执行:$env:HF_ENDPOINT="https://hf-mirror.com"

3、执行模型下载命令,例如下载 Qwen2-7B-Instruct:
huggingface-cli download --resume-download --local-dir-use-symlinks False Qwen/Qwen2-7B-Instruct --local-dir ./models/qwen2-7b

4、如需下载私有模型,先执行 huggingface-cli login 并粘贴具有 Read 权限的 Access Token。

二、通过 Python 代码调用 snapshot_download

该方法适合集成到脚本中,可精确控制下载行为,支持强制重下、忽略特定文件、限制下载大小等高级选项。

1、确保已安装 transformers 和 huggingface_hub:
pip install transformers huggingface_hub

2、运行以下 Python 脚本:
from huggingface_hub import snapshot_download
snapshot_download(repo_id="bert-base-chinese", local_dir="./models/bert_chinese", force_download=True)

3、如需仅下载部分文件,可传入 allow_patterns 参数,例如只下载 pytorch_model.bin 和 config.json:
allow_patterns=["pytorch_model.bin", "config.json"]

4、若模型含 safetensors 格式且想优先获取,可在 allow_patterns 中显式指定:
allow_patterns=["*.safetensors", "config.json"]

三、使用 Git LFS 克隆仓库

此方式保留完整 Git 历史与元数据,适合需要复现训练过程或验证文件完整性的开发者,但默认会拉取全部框架版本文件。

1、安装 Git 和 Git LFS:
macOS 执行 brew install git-lfs;Windows 用户从 git-lfs.github.com 下载安装器

2、初始化 LFS 并克隆仓库:
git lfs install
git clone https://huggingface.co/decapoda-research/llama-7b-hf

3、进入克隆目录后,确认 .gitattributes 文件中已声明大文件跟踪规则,否则需手动执行:
git lfs track "*.bin"
git add .gitattributes

4、注意:该方式会下载所有 siblings 文件(如 tf_model.h5、flax_model.msgpack),如只需 PyTorch 版本,请改用其他方法

四、网页手动下载 + 迅雷批量抓取

适用于不熟悉命令行、临时急需单个模型或需精细选择文件格式的用户,配合第三方下载工具可显著提升速度与稳定性。

1、访问目标模型页面,例如 https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat

2、点击 Files and versions 标签页,逐个复制所需文件的 URL(如 model.safetensors、tokenizer.json、config.json)

3、将全部 URL 粘贴至迅雷新建任务窗口,启用多线程与断点续传

4、关键提示:务必按原始仓库层级结构创建本地文件夹,例如 tokenizer.json 应置于根目录,而 pytorch_model.bin 若位于 models/ 子目录下,则需同步建立该路径

五、使用专用加速下载器 HFD 或 HuggingFace-Download-Accelerator

这些开源工具专为 Hugging Face 设计,内置多线程、自动重试、镜像切换与进度可视化功能,尤其适合大模型或弱网环境。

1、从 Gitee 搜索并克隆 HuggingFace-Download-Accelerator 最新版本:
git clone https://gitee.com/xxx/HuggingFace-Download-Accelerator

2、进入项目目录后安装依赖:
pip install -r requirements.txt

3、执行下载命令,例如下载 Mixtral-8x7B 的 GGUF 量化版:
python hf_download.py --model HenryJJ/Mixtral-8x7B-Instruct-v0.1-GGUF --save_dir ./models/mixtral-gguf

4、该工具默认启用 hf-mirror 镜像,无需额外配置环境变量,且支持 --max-workers 参数调节并发数

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

前往漫画官网入口并下载 ➜
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>