Hub 文档
模型发布检查清单
并访问增强的文档体验
开始使用
模型发布检查清单
Hugging Face Hub 是共享机器学习模型的首选平台。精心执行的发布可以提高模型的知名度和影响力。本节涵盖了简洁、信息丰富且用户友好的模型发布所需的关键步骤。
⏳ 准备发布模型
上传权重
当将模型上传到 hub 时,建议遵循一套最佳实践
- 将权重推送到单独的模型仓库。示例:优先在独立的仓库中上传单独的量化/精度版本,例如这个,而不是在一个仓库中上传所有类型/版本,例如这个。
- 使用 safetensors 进行权重序列化,而不是 pickle。
编写全面的模型卡片
精心制作的模型卡片(仓库中的 README.md
文件)对于可发现性、可复现性和有效共享至关重要。您的模型卡片应包括
元数据配置:模型卡片顶部的元数据部分(YAML 格式)对于可发现性和正确分类至关重要。请务必包含
--- pipeline_tag: text-generation # Specify the task library_name: transformers # Specify the library language: - en # List language for your model license: apache-2.0 # Specify a license datasets: - username/dataset # List datasets used for training base_model: username/base-model # If applicable ---
详细模型描述:清楚地说明您的模型的功能、架构和预期用例。这有助于用户快速了解您的模型是否符合他们的需求。
使用示例:提供清晰、可操作的代码片段,演示如何使用您的模型进行推理、微调或其他常见任务。这些示例应可直接复制和运行,只需进行最少的修改。
技术规格:包括有关训练参数、硬件要求以及任何其他技术细节的信息,这些信息将帮助用户了解如何有效地使用您的模型。
性能指标:分享全面的基准测试和评估结果。包括定量指标和定性示例,以便用户全面了解您模型的功能和局限性。
局限性和偏差:透明地记录与您的模型相关的任何已知局限性、偏差或伦理考量。这有助于用户就是否以及如何使用您的模型做出明智的决定。
增强模型的可发现性和可用性
为了最大限度地提高模型的覆盖范围和可用性
库集成:如果可能,添加对许多与 Hugging Face Hub 集成的库(例如 Transformers 或 Diffusers)之一的支持。这种集成显著提高了模型的可访问性,并为用户提供了使用模型的代码片段。
例如,要指定您的模型与 Transformers 库一起使用
--- library_name: transformers ---
您还可以创建您自己的模型库或为另一个现有库或代码库添加 Hub 支持。
最后,在推送自定义 PyTorch 模型时,您可以采用 Mixin 类。
我们在这里编写了一份关于上传最佳实践的详细指南:这里。
奖励:公认的库还允许您跟踪模型随时间的下载量。
Pipeline 标签选择:选择正确的 pipeline 标签,准确反映模型的主要任务。此标签决定了您的模型在搜索结果中的显示方式以及模型页面上显示的小部件。
常见 pipeline 标签的示例
text-generation
- 用于生成文本的语言模型text-to-image
- 用于文本到图像生成模型image-text-to-text
- 用于生成文本的视觉语言模型 (VLM)text-to-speech
- 用于从文本生成音频的模型
研究论文:如果您的模型有相关的研究论文,您可以在模型卡片中引用它们,它们将自动链接。这提供了学术背景,允许用户更深入地了解您工作的理论基础,并增加引用次数。
## References * [Model Paper](https://arxiv.org/abs/xxxx.xxxxx)
集合:如果您要发布多个相关的模型或变体,请将它们组织成集合。集合帮助用户发现相关模型并了解不同版本或变体之间的关系。
演示:创建一个 Hugging Face Space,其中包含您模型的交互式演示。这允许用户直接试用您的模型,而无需编写任何代码,从而显著降低了采用门槛。您还可以从 Space 链接模型,使其显示在模型页面的专用 UI 上。
## Demo Try this model directly in your browser: [Space Demo](https://huggingface.co/spaces/username/model-demo)
量化版本:考虑上传模型的量化版本(例如,GGUF 或 DDUF 格式),以提高计算资源有限的用户的可访问性。使用量化模型卡片上的
base_model
元数据字段链接这些版本。您还可以清楚地记录原始版本和量化版本之间的性能差异。--- base_model: username/original-model base_model_relation: quantized ---
在模型页面上链接数据集:在
README.md
元数据中链接数据集,以直接从您的模型页面显示所使用的数据集。--- datasets: - username/dataset - username/dataset-2 ---
新模型版本:如果您的模型是现有模型的更新版本,则可以在旧版本的模型卡片上指定它。这将在旧模型的页面上显示一个横幅,直接链接到此更新版本。
--- new_version: username/updated-model ---
视觉示例:对于图像或视频生成模型,请使用
<Gallery>
卡片组件直接在模型页面上包含示例。视觉示例可以立即深入了解模型的功能。<Gallery>   </Gallery>
碳排放量:如果可能,请指定与训练模型相关的碳排放量。此信息有助于具有环保意识的用户和组织做出明智的决定。
--- co2_eq_emissions: emissions: 123.45 source: "CodeCarbon" training_type: "pre-training" geographical_location: "US-East" hardware_used: "8xA100 GPUs" ---
访问控制和可见性
可见性设置:一切都最终确定并且您准备好与世界分享您的模型后,在您的模型设置中将您的模型切换为公开可见。在此之前,请仔细检查所有文档和代码示例,以确保它们准确完整
门控访问:如果您的模型需要受控访问,请使用门控访问功能,并清楚地指定用户必须满足才能获得访问权限的条件。对于可能存在双重用途问题或商业限制的模型,这一点尤为重要。
🏁 模型发布之后
成功的模型发布不仅限于初始发布。为了最大限度地提高影响力和保持质量
维护和社区互动
验证功能:发布后,通过在干净的环境中测试所有提供的代码片段,验证它们是否正常工作。这确保用户可以成功实施您的模型而不会感到沮丧。
例如,如果您的模型是 transformers 兼容的 LLM,您可以尝试以下代码片段
from transformers import pipeline # This should work without errors pipe = pipeline("text-generation", model="your-username/your-model") result = pipe("Your test prompt")
分享 分享 分享:大多数人在社交媒体或内部聊天频道(例如您公司的 Slack 或电子邮件线程)中发现模型,因此请不要犹豫分享您模型的链接。分发模型的一个好方法是在您的网站或 GitHub 项目上添加链接。访问和喜欢您模型的人越多,它在 Hugging Face 的趋势部分中的排名就越高,从而带来更高的知名度!
社区互动:通过快速回答问题、处理反馈和解决问题,与 Community Tab 中的用户互动。澄清困惑,采纳有用的建议,并关闭离题的讨论或拉取请求,以保持空间专注。
跟踪使用情况和影响
使用指标:监控下载量和点赞数,以跟踪模型的受欢迎程度和采用情况。您可以在模型设置中访问总下载量指标。
监控贡献:定期检查您的模型树,以发现社区做出的贡献。这些贡献可以提供有价值的见解和潜在的协作机会。
企业版功能
Hugging Face 企业版订阅提供其他功能
访问控制:设置资源组以控制特定团队或用户的访问权限,确保整个组织的适当权限。
存储区域:为您的模型文件选择数据存储区域(美国/欧盟),以符合地区数据法规和要求。
高级分析:使用企业分析功能,更深入地了解使用模式和采用指标。
扩展存储:访问额外的私有存储容量,以在您的模型组合增长时托管更多模型和更大的工件。
通过遵循这些全面的指南和示例,您将确保您在 Hugging Face 上的模型发布清晰、有影响且有价值。这将最大限度地提高您的工作对 AI 社区的价值,并提高其知名度。期待您的贡献!
< > 更新 在 GitHub 上