扫一扫分享
Transformers 充当跨文本、计算机视觉、音频、视频与多模态的最先进机器学习模型的「模型定义框架」,同时覆盖推理与训练。
它将模型的定义集中化,使整个生态系统对该定义达成一致。transformers 是跨框架的枢纽:一旦某模型定义被支持,它通常就能兼容多数训练框架(如 Axolotl、Unsloth、DeepSpeed、FSDP、PyTorch‑Lightning 等)、推理引擎(如 vLLM、SGLang、TGI 等),以及依赖 transformers 模型定义的相关库(如 llama.cpp、mlx 等)。
我们的目标是持续支持新的最先进模型,并通过让模型定义保持简单、可定制且高效来普及其使用。
该仓库是 Transformer 模型定义的核心框架,统一了模型定义标准,使其能兼容主流训练框架(Axolotl、Unsloth、DeepSpeed 等)、推理引擎(vLLM、SGLang、TGI 等)及周边建模库(llama.cpp、mlx 等),目标是简化前沿模型的使用、定制与部署,实现技术民主化。
丰富的模型生态:Hugging Face Hub 上有超过 100 万 + 基于该库的预训练模型 checkpoint,覆盖各类主流 / 前沿模型(如 BERT、GPT、SAM-HQ、DepthPro、CLIP 等)。
版本控制能力:基于 Git 和 Git LFS 实现模型版本管理,可通过revision参数指定提交哈希、标签或分支,加载特定版本的模型:
model = AutoModel.from_pretrained(
"julien-c/EsperBERTo-small", revision="4c77982" # 提交哈希/标签/分支名
)
多语言支持:文档覆盖简体中文、繁体中文、韩语、日语、西班牙语、德语等十余种语言。
灵活的访问控制:支持模型仓库的 “门控(Gating)” 功能,可限定特定用户组访问(如研究模型公测);同时支持模型仓库公有 / 私有配置。
无代码交互:
模型仓库内置推理组件(Widget),可直接在 Hub 网页端交互测试模型;
支持通过 Web 界面上传模型(无代码):访问huggingface.co/new创建仓库,填写所有者、模型名、隐私权限、许可证等信息,即可拖拽上传文件并提交。
支持 Python 3.10+、PyTorch 2.4+,推荐通过虚拟环境安装:
# 基于venv创建虚拟环境
python -m venv .my-env
source .my-env/bin/activate
# 或基于uv(Rust实现的快速包管理器)
uv venv .my-env
source .my-env/bin/activate
# 安装transformers
pip install transformers资源丰富:仓库内置大量模型的使用教程、Demo Notebook(如 DepthPro、Grounding DINO、SigLIP 等),并收录社区贡献的资源,支持用户通过 PR 提交新资源。
多任务支持:覆盖因果语言建模、零样本图像分类、单目深度估计、时间序列预测等数十种任务。
测试与基准:包含完善的测试套件(如模型输出序列化测试、特征提取器 Hub 推送测试),以及性能基准工具(如 Llama 模型的采样性能测试)。
遵循 Apache License 2.0 开源协议,采纳 Contributor Covenant 行为准则,保障开源协作的规范性。
快速调用前沿预训练模型完成推理 / 微调;
跨框架统一模型定义,降低迁移成本;
分享自定义模型至 Hub,支持版本管理与访问控制;
多模态任务开发(文本 + 视觉 + 音频)。
该仓库是 NLP / 多模态领域最核心的开源工具之一,也是 Hugging Face 生态的核心组成,持续跟进前沿模型(如 SAM-HQ、DepthPro、LightGlue 等)并提供开箱即用的支持。
仅供个人学习参考/导航指引使用,具体请以第三方网站说明为准,本站不提供任何专业建议。如果地址失效或描述有误,请联系站长反馈~感谢您的理解与支持!
手机扫一扫预览