存储库卡片
huggingface_hub 库提供了一个 Python 接口来创建、共享和更新模型/数据集卡片。访问专用文档页面以更深入地了解 Hub 上的模型卡片是什么,以及它们是如何在后台工作的。您还可以查看我们的模型卡片指南,以了解如何在您自己的项目中使用这些实用工具。
存储库卡片
RepoCard
对象是 ModelCard、DatasetCard 和 SpaceCard
的父类。
__init__
< source >( content: str ignore_metadata_errors: bool = False )
从字符串内容初始化 RepoCard。内容应为 Markdown 文件,开头为 YAML 块,后跟 Markdown 正文。
示例
>>> from huggingface_hub.repocard import RepoCard
>>> text = '''
... ---
... language: en
... license: mit
... ---
...
... # My repo
... '''
>>> card = RepoCard(text)
>>> card.data.to_dict()
{'language': 'en', 'license': 'mit'}
>>> card.text
'\n# My repo\n'
- 当存储库卡元数据的内容不是字典时,会引发
ValueError
。
from_template
< source >( card_data: CardData template_path: Optional = None template_str: Optional = None **template_kwargs ) → huggingface_hub.repocard.RepoCard
从模板初始化 RepoCard。默认情况下,它使用默认模板。
模板是 Jinja2 模板,可以通过传递关键字参数进行自定义。
load
< source >( repo_id_or_path: Union repo_type: Optional = None token: Optional = None ignore_metadata_errors: bool = False ) → huggingface_hub.repocard.RepoCard
参数
- repo_id_or_path (
Union[str, Path]
) — 与 Hugging Face Hub 存储库关联的存储库 ID 或本地文件路径。 - repo_type (
str
, 可选) — 要推送到 Hugging Face 存储库的类型。 默认为 None,这将使用“model”。 其他选项是“dataset”和“space”。 从本地文件路径加载时不使用。 如果这是从子类调用的,则默认值将是子类的repo_type
。 - token (
str
, 可选) — 身份验证令牌,通过huggingface_hub.HfApi.login
方法获取。 将默认为存储的令牌。 - ignore_metadata_errors (
str
) — 如果为 True,则将忽略解析元数据部分时的错误。 在此过程中,一些信息可能会丢失。 使用它需要您自担风险。
从存储库的 README.md 文件或文件路径初始化的 RepoCard(或子类)。
从 Hugging Face Hub 存储库的 README.md 或本地文件路径初始化 RepoCard。
push_to_hub
< source >( repo_id: str token: Optional = None repo_type: Optional = None commit_message: Optional = None commit_description: Optional = None revision: Optional = None create_pr: Optional = None parent_commit: Optional = None ) → str
参数
- repo_id (
str
) — 要推送到 Hugging Face Hub 仓库的仓库 ID。例如:“nateraw/food”。 - token (
str
, 可选) — 身份验证令牌,通过huggingface_hub.HfApi.login
方法获取。默认为存储的令牌。 - repo_type (
str
, 可选, 默认为 “model”) — 要推送到 Hugging Face 仓库的仓库类型。选项有 “model”,“dataset” 和 “space”。如果此函数由子类调用,它将默认为子类的repo_type
。 - commit_message (
str
, 可选) — 生成的提交的摘要/标题/第一行。 - commit_description (
str
, 可选) — 生成的提交的描述。 - revision (
str
, 可选) — 要提交的 git 版本。默认为"main"
分支的头部。 - create_pr (
bool
, 可选) — 是否使用此提交创建拉取请求。默认为False
。 - parent_commit (
str
, 可选) — 父提交的 OID / SHA,以十六进制字符串表示。也支持简写(前 7 个字符)。如果指定了此参数并且create_pr
为False
,则如果revision
未指向parent_commit
,则提交将失败。如果指定了此参数并且create_pr
为True
,则将从parent_commit
创建拉取请求。指定parent_commit
可确保在提交更改之前仓库未发生更改,并且在仓库同时更新/提交时特别有用。
返回值
str
更新卡片元数据的提交的 URL。
将 RepoCard 推送到 Hugging Face Hub 仓库。
将 RepoCard 保存到文件。
验证
< source >( repo_type: Optional = None )
根据 Hugging Face Hub 的卡片验证逻辑验证卡片。使用此函数需要访问互联网,因此它仅由 huggingface_hub.repocard.RepoCard.push_to_hub() 在内部调用。
ValueError
如果卡片未通过验证检查。HTTPError
如果对 Hub API 的请求由于任何其他原因而失败。
卡片数据
CardData 对象是 ModelCardData 和 DatasetCardData 的父类。
包含 RepoCard 元数据的结构体。
CardData 是 ModelCardData 和 DatasetCardData 的父类。
元数据可以导出为字典或 YAML 格式。导出可以自定义以更改数据的表示形式(例如:扁平化评估结果)。 CardData
的行为类似于字典(可以获取、弹出、设置值),但不继承自 dict
以允许此导出步骤。
获取给定元数据键的值。
弹出给定元数据键的值。
将 CardData 转换为字典。
to_yaml
< source >( line_break = None original_order: Optional = None ) → str
将卡片数据转储到 YAML 块中,以包含在 README.md 文件中。
模型卡片
ModelCard
from_template
< 源代码 >( card_data: ModelCardData template_path: Optional[str] = None template_str: Optional[str] = None **template_kwargs ) → huggingface_hub.ModelCard
从模板初始化 ModelCard。默认情况下,它使用默认模板,可以在此处找到:https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/templates/modelcard_template.md
模板是 Jinja2 模板,可以通过传递关键字参数进行自定义。
示例
>>> from huggingface_hub import ModelCard, ModelCardData, EvalResult
>>> # Using the Default Template
>>> card_data = ModelCardData(
... language='en',
... license='mit',
... library_name='timm',
... tags=['image-classification', 'resnet'],
... datasets=['beans'],
... metrics=['accuracy'],
... )
>>> card = ModelCard.from_template(
... card_data,
... model_description='This model does x + y...'
... )
>>> # Including Evaluation Results
>>> card_data = ModelCardData(
... language='en',
... tags=['image-classification', 'resnet'],
... eval_results=[
... EvalResult(
... task_type='image-classification',
... dataset_type='beans',
... dataset_name='Beans',
... metric_type='accuracy',
... metric_value=0.9,
... ),
... ],
... model_name='my-cool-model',
... )
>>> card = ModelCard.from_template(card_data)
>>> # Using a Custom Template
>>> card_data = ModelCardData(
... language='en',
... tags=['image-classification', 'resnet']
... )
>>> card = ModelCard.from_template(
... card_data=card_data,
... template_path='./src/huggingface_hub/templates/modelcard_template.md',
... custom_template_var='custom value', # will be replaced in template if it exists
... )
ModelCardData
类 huggingface_hub.ModelCardData
< source >( base_model: Union = None datasets: Optional = None eval_results: Optional = None language: Union = None library_name: Optional = None license: Optional = None license_name: Optional = None license_link: Optional = None metrics: Optional = None model_name: Optional = None pipeline_tag: Optional = None tags: Optional = None ignore_metadata_errors: bool = False **kwargs )
参数
- base_model (
str
或List[str]
,可选) — 模型派生的基础模型的标识符。例如,如果你的模型是现有模型的微调或适配器,则适用此属性。该值必须是 Hub 上模型的 ID(如果你的模型派生自多个模型,则为 ID 列表)。默认为无。 - datasets (
List[str]
,可选) — 用于训练此模型的数据集列表。应该是 https://hf.co/datasets 上找到的数据集 ID。默认为无。 - eval_results (
Union[List[EvalResult], EvalResult]
,可选) —huggingface_hub.EvalResult
列表,用于定义模型的评估结果。如果提供,则model_name
将用作 PapersWithCode 排行榜上的名称。默认为None
。 - language (
Union[str, List[str]]
,可选) — 模型训练数据或元数据的语言。它必须是 ISO 639-1、639-2 或 639-3 代码(两个/三个字母),或特殊值,如“代码”、“多语言”。默认为None
。 - library_name (
str
, *可选*) — 此模型使用的库的名称。示例:keras 或来自 https://github.com/huggingface/huggingface.js/blob/main/packages/tasks/src/model-libraries.ts 的任何库。默认为“无”。 - license (
str
, *可选*) — 此模型的许可证。示例:apache-2.0 或来自 https://huggingface.co/docs/hub/repositories-licenses 的任何许可证。默认为“无”。 - license_name (
str
, *可选*) — 此模型的许可证名称。默认为“无”。与license_link
一起使用。常见许可证(Apache-2.0、MIT、CC-BY-SA-4.0)不需要名称。在这种情况下,请改用license
。 - license_link (
str
, *可选*) — 此模型的许可证链接。默认为“无”。与license_name
一起使用。常见许可证(Apache-2.0、MIT、CC-BY-SA-4.0)不需要链接。在这种情况下,请改用license
。 - metrics (
List[str]
, *可选*) — 用于评估此模型的指标列表。应为可在 https://hf.co/metrics 中找到的指标名称。示例:“accuracy”。默认为“无”。 - model_name (
str
, *可选*) — 此模型的名称。它与eval_results
一起使用,以在卡片的元数据中构造model-index
。您在此处提供的名称将用于 PapersWithCode 的排行榜。如果未提供,则使用存储库名称作为默认值。默认为“无”。 - pipeline_tag (
str
, *可选*) — 与模型关联的流水线标记。示例:“text-classification”。 - tags (
List[str]
, 可选) — 要添加到模型中的标签列表,可在 Hugging Face Hub 上进行筛选时使用。默认为“无”。 - ignore_metadata_errors (
str
) — 如果为“真”,则在解析元数据部分时将忽略错误。在此过程中,可能会丢失一些信息。使用风险自负。 - kwargs (
dict
, 可选) — 将添加到模型卡中的其他元数据。默认为“无”。
模型卡元数据,当包含在 README.md 的顶部时,Hugging Face Hub 会使用这些数据。
示例
>>> from huggingface_hub import ModelCardData
>>> card_data = ModelCardData(
... language="en",
... license="mit",
... library_name="timm",
... tags=['image-classification', 'resnet'],
... )
>>> card_data.to_dict()
{'language': 'en', 'license': 'mit', 'library_name': 'timm', 'tags': ['image-classification', 'resnet']}
数据集卡
数据集卡在 ML 社区中也称为数据卡。
DatasetCard
from_template
< 源代码 >( card_data: DatasetCardData template_path: Optional = None template_str: Optional = None **template_kwargs ) → huggingface_hub.DatasetCard
从模板初始化 DatasetCard。默认情况下,它使用默认模板,可以在此处找到: https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/templates/datasetcard_template.md
模板是 Jinja2 模板,可以通过传递关键字参数进行自定义。
示例
>>> from huggingface_hub import DatasetCard, DatasetCardData
>>> # Using the Default Template
>>> card_data = DatasetCardData(
... language='en',
... license='mit',
... annotations_creators='crowdsourced',
... task_categories=['text-classification'],
... task_ids=['sentiment-classification', 'text-scoring'],
... multilinguality='monolingual',
... pretty_name='My Text Classification Dataset',
... )
>>> card = DatasetCard.from_template(
... card_data,
... pretty_name=card_data.pretty_name,
... )
>>> # Using a Custom Template
>>> card_data = DatasetCardData(
... language='en',
... license='mit',
... )
>>> card = DatasetCard.from_template(
... card_data=card_data,
... template_path='./src/huggingface_hub/templates/datasetcard_template.md',
... custom_template_var='custom value', # will be replaced in template if it exists
... )
DatasetCardData
类 huggingface_hub.DatasetCardData
< source >( language: Union = None license: Union = None annotations_creators: Union = None language_creators: Union = None multilinguality: Union = None size_categories: Union = None source_datasets: Optional = None task_categories: Union = None task_ids: Union = None paperswithcode_id: Optional = None pretty_name: Optional = None train_eval_index: Optional = None config_names: Union = None ignore_metadata_errors: bool = False **kwargs )
参数
- language (
List[str]
, 可选) - 数据集数据或元数据的语言。它必须是 ISO 639-1、639-2 或 639-3 代码(两个/三个字母),或者像“代码”、“多语言”这样的特殊值。 - license (
Union[str, List[str]]
,可选) — 此数据集的许可证。示例:apache-2.0 或来自 https://huggingface.co/docs/hub/repositories-licenses 的任何许可证。 - annotations_creators (
Union[str, List[str]]
,可选) — 数据集注释的创建方式。选项包括:“found”(找到)、“crowdsourced”(众包)、“expert-generated”(专家生成)、“machine-generated”(机器生成)、“no-annotation”(无注释)和“other”(其他)。 - language_creators (
Union[str, List[str]]
,可选) — 数据集中基于文本的数据是如何创建的。选项包括:“found”(找到)、“crowdsourced”(众包)、“expert-generated”(专家生成)、“machine-generated”(机器生成)和“other”(其他)。 - multilinguality (
Union[str, List[str]]
,可选) — 数据集是否为多语言。选项包括:“monolingual”(单语)、“multilingual”(多语)、“translation”(翻译)和“other”(其他)。 - size_categories (
Union[str, List[str]]
,可选) — 数据集中的示例数量。选项包括:“n<1K”、“1K - source_datasets (
List[str]]
,可选) — 指示数据集是原始数据集还是从另一个现有数据集扩展而来的。选项包括:“original”(原始)和“extended”(扩展)。 - task_categories (
Union[str, List[str]]
,可选) — 数据集支持哪些任务类别? - task_ids (
Union[str, List[str]]
, 可选) — 数据集支持哪些特定任务? - paperswithcode_id (
str
, 可选) — 数据集在 PapersWithCode 上的 ID。 - pretty_name (
str
, 可选) — 数据集更易读的名称。(例如 “猫与狗”) - train_eval_index (
Dict
, 可选) — 描述在 Hub 上进行评估所需规范的字典。如果未提供,它将从 kwargs 的 “train-eval-index” 键中收集。 - config_names (
Union[str, List[str]]
, 可选) — 数据集可用配置列表。
当包含在 README.md 文件顶部时,Hugging Face Hub 使用的数据集卡片元数据。
空间卡片
SpaceCard
SpaceCardData
class huggingface_hub.SpaceCardData
< source >( title: Optional[str] = None sdk: Optional[str] = None sdk_version: Optional[str] = None python_version: Optional[str] = None app_file: Optional[str] = None app_port: Optional[int] = None license: Optional[str] = None duplicated_from: Optional[str] = None models: Optional[List[str]] = None datasets: Optional[List[str]] = None tags: Optional[List[str]] = None ignore_metadata_errors: bool = False **kwargs )
参数
- title (
str
, 可选) — Space 的标题。 - sdk (
str
, 可选) — Space 的 SDK(`gradio`、`streamlit`、`docker` 或 `static` 之一)。 - sdk_version (
str
, 可选) — 使用的 SDK 版本(如果为 Gradio/Streamlit SDK)。 - python_version (
str
, 可选) — Space 中使用的 Python 版本(如果为 Gradio/Streamlit SDK)。 - app_file (
str
,可选) — 主应用程序文件的路径(包含 gradio 或 streamlit Python 代码,或静态 html 代码)。路径是相对于存储库根目录的。 - app_port (
str
,可选) — 您的应用程序运行所在的端口。仅在 sdk 为docker
时使用。 - license (
str
,可选) — 此模型的许可证。示例:apache-2.0 或 https://huggingface.co/docs/hub/repositories-licenses 中的任何许可证。 - duplicated_from (
str
,可选) — 如果这是复制的 Space,则为原始 Space 的 ID。 - models (List
str
,可选) — 此 Space 相关的模型列表。应为在 https://hf.co/models 上找到的数据集 ID。 - datasets (
List[str]
,可选) — 此 Space 相关的数据集列表。应为在 https://hf.co/datasets 上找到的数据集 ID。 - tags (
List[str]
,可选) — 要添加到您的 Space 的标签列表,可在 Hub 上进行过滤时使用。 - ignore_metadata_errors (
str
) — 如果为 True,则会忽略解析元数据部分时出现的错误。在此过程中可能会丢失一些信息。请您自行承担风险。 - kwargs (
dict
, 可选) — 将添加到空间卡片的附加元数据。
空间卡片元数据,当包含在 README.md 的顶部时,Hugging Face Hub 会使用它。
如需获取空间配置的详尽参考,请访问 https://huggingface.co/docs/hub/spaces-config-reference#spaces-configuration-reference。
示例
>>> from huggingface_hub import SpaceCardData
>>> card_data = SpaceCardData(
... title="Dreambooth Training",
... license="mit",
... sdk="gradio",
... duplicated_from="multimodalart/dreambooth-training"
... )
>>> card_data.to_dict()
{'title': 'Dreambooth Training', 'sdk': 'gradio', 'license': 'mit', 'duplicated_from': 'multimodalart/dreambooth-training'}
实用程序
EvalResult
类 huggingface_hub.EvalResult
< 源代码 >( task_type: str dataset_type: str dataset_name: str metric_type: str metric_value: Any task_name: Optional = None dataset_config: Optional = None dataset_split: Optional = None dataset_revision: Optional = None dataset_args: Optional = None metric_name: Optional = None metric_config: Optional = None metric_args: Optional = None verified: Optional = None verify_token: Optional = None source_name: Optional = None source_url: Optional = None )
参数
- task_type (
str
) — 任务标识符。例如:“图像分类”。 - dataset_type (
str
) — 数据集标识符。例如:“common_voice”。使用 https://hf.co/datasets 中的数据集 ID。 - dataset_name (
str
) — 数据集的漂亮名称。例如:“Common Voice(法语)”。 - metric_type (
str
) — 度量标识符。例如:“wer”。使用 https://hf.co/metrics 中的度量 ID。 - metric_value (
Any
) — 度量值。例如:0.9 或“20.0 ± 1.2”。 - task_name (
str
, 可选) — 任务的漂亮名称。例如:“语音识别”。 - dataset_config (
str
, 可选) — 在load_dataset()
中使用的的数据集配置名称。例如:load_dataset("common_voice", "fr")
中的 fr。有关更多信息,请参阅datasets
文档:https://hf.co/docs/datasets/package_reference/loading_methods#datasets.load_dataset.name - dataset_split (
str
, 可选) — 在load_dataset()
中使用的拆分。例如:“test”。 - dataset_revision (
str
, 可选) — 在load_dataset()
中使用的的数据集版本(也称为 Git Sha)。例如:5503434ddd753f426f4b38109466949a1217c2bb - dataset_args (
Dict[str, Any]
,可选) — 在Metric.compute()
期间传递的参数。例如,对于bleu
:{"max_order": 4}
- metric_name (
str
,可选) — 指标的规范名称。例如:“测试 WER”。 - metric_config (
str
,可选) — 在load_metric()
中使用的指标配置的名称。例如,在load_metric("bleurt", "bleurt-large-512")
中为 bleurt-large-512。有关更多信息,请参阅datasets
文档:https://huggingface.co/docs/datasets/v2.1.0/en/loading#load-configurations - metric_args (
Dict[str, Any]
,可选) — 在Metric.compute()
期间传递的参数。例如,对于bleu
:max_order: 4 - verified (
bool
,可选) — 指示指标是来自 Hugging Face 的评估服务还是其他来源。由 Hugging Face 自动计算,请勿设置。 - verify_token (
str
,可选) — 用于验证指标是来自 Hugging Face 的评估服务还是其他来源的 JSON Web 令牌。 - source_name (
str
,可选) — 评估结果来源的名称。例如:“Open LLM Leaderboard”。 - source_url (
str
,可选) — 评估结果来源的 URL。例如:“https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard”。
模型卡片的模型索引中找到的单个评估结果的扁平化表示。
有关模型索引规范的更多信息,请参阅 https://github.com/huggingface/hub-docs/blob/main/modelcard.md?plain=1。
如果 `self` 和 `other` 描述的指标完全相同,但值不同,则返回 True。
model_index_to_eval_results
huggingface_hub.repocard_data.model_index_to_eval_results
< source >( model_index: List ) → model_name (str
)
接收模型索引并返回模型名称和 `huggingface_hub.EvalResult` 对象列表。
可以在此处找到模型索引的详细规范:https://github.com/huggingface/hub-docs/blob/main/modelcard.md?plain=1
示例
>>> from huggingface_hub.repocard_data import model_index_to_eval_results
>>> # Define a minimal model index
>>> model_index = [
... {
... "name": "my-cool-model",
... "results": [
... {
... "task": {
... "type": "image-classification"
... },
... "dataset": {
... "type": "beans",
... "name": "Beans"
... },
... "metrics": [
... {
... "type": "accuracy",
... "value": 0.9
... }
... ]
... }
... ]
... }
... ]
>>> model_name, eval_results = model_index_to_eval_results(model_index)
>>> model_name
'my-cool-model'
>>> eval_results[0].task_type
'image-classification'
>>> eval_results[0].metric_type
'accuracy'
eval_results_to_model_index
huggingface_hub.repocard_data.eval_results_to_model_index
< source >( model_name: str eval_results: List ) → model_index (List[Dict[str, Any]]
)
接收给定的模型名称和 huggingface_hub.EvalResult
列表,并返回与 Hugging Face Hub 预期格式兼容的有效模型索引。
示例
>>> from huggingface_hub.repocard_data import eval_results_to_model_index, EvalResult
>>> # Define minimal eval_results
>>> eval_results = [
... EvalResult(
... task_type="image-classification", # Required
... dataset_type="beans", # Required
... dataset_name="Beans", # Required
... metric_type="accuracy", # Required
... metric_value=0.9, # Required
... )
... ]
>>> eval_results_to_model_index("my-cool-model", eval_results)
[{'name': 'my-cool-model', 'results': [{'task': {'type': 'image-classification'}, 'dataset': {'name': 'Beans', 'type': 'beans'}, 'metrics': [{'type': 'accuracy', 'value': 0.9}]}]}]
metadata_eval_result
huggingface_hub.metadata_eval_result
< source >( model_pretty_name: str task_pretty_name: str task_id: str metrics_pretty_name: str metrics_id: str metrics_value: Any dataset_pretty_name: str dataset_id: str metrics_config: Optional = None metrics_verified: bool = False dataset_config: Optional = None dataset_split: Optional = None dataset_revision: Optional = None metrics_verification_token: Optional = None ) → dict
参数
- model_pretty_name (
str
) — 模型的自然语言名称。 - task_pretty_name (
str
) — 使用自然语言的任务名称。 - task_id (
str
) — 示例:automatic-speech-recognition。任务 ID。 - metrics_pretty_name (
str
) — 使用自然语言的指标名称。示例:测试 WER。 - metrics_id (
str
) — 示例:wer。来自 https://hf.co/metrics 的指标 ID。 - metrics_value (
Any
) — 来自指标的值。示例:20.0 或“20.0 ± 1.2”。 - dataset_pretty_name (
str
) — 使用自然语言的数据集名称。 - dataset_id (
str
) — 示例:common_voice。来自 https://hf.co/datasets 的数据集 ID。 - metrics_config (
str
, 可选) — 在load_metric()
中使用的指标配置名称。示例:在load_metric("bleurt", "bleurt-large-512")
中为 bleurt-large-512。 - metrics_verified (
bool
,可选,默认为False
) — 指示指标是来自 Hugging Face 的评估服务 还是其他来源。由 Hugging Face 自动计算,请勿设置。 - dataset_config (
str
,可选) — 例如:fr。在load_dataset()
中使用的数据集配置的名称。 - dataset_split (
str
,可选) — 例如:test。在load_dataset()
中使用的数据集拆分的名称。 - dataset_revision (
str
,可选) — 例如:5503434ddd753f426f4b38109466949a1217c2bb。在load_dataset()
中使用的数据集版本名称。 - metrics_verification_token (
bool
,可选) — 用于验证指标是来自 Hugging Face 的评估服务 还是其他来源的 JSON Web 令牌。
返回值
dict
一个包含在数据集上评估的模型结果的元数据字典。
创建一个包含在数据集上评估的模型结果的元数据字典。
示例
>>> from huggingface_hub import metadata_eval_result
>>> results = metadata_eval_result(
... model_pretty_name="RoBERTa fine-tuned on ReactionGIF",
... task_pretty_name="Text Classification",
... task_id="text-classification",
... metrics_pretty_name="Accuracy",
... metrics_id="accuracy",
... metrics_value=0.2662102282047272,
... dataset_pretty_name="ReactionJPEG",
... dataset_id="julien-c/reactionjpeg",
... dataset_config="default",
... dataset_split="test",
... )
>>> results == {
... 'model-index': [
... {
... 'name': 'RoBERTa fine-tuned on ReactionGIF',
... 'results': [
... {
... 'task': {
... 'type': 'text-classification',
... 'name': 'Text Classification'
... },
... 'dataset': {
... 'name': 'ReactionJPEG',
... 'type': 'julien-c/reactionjpeg',
... 'config': 'default',
... 'split': 'test'
... },
... 'metrics': [
... {
... 'type': 'accuracy',
... 'value': 0.2662102282047272,
... 'name': 'Accuracy',
... 'verified': False
... }
... ]
... }
... ]
... }
... ]
... }
True
metadata_update
huggingface_hub.metadata_update
< 源代码 >( repo_id: str metadata: Dict repo_type: Optional = None overwrite: bool = False token: Optional = None commit_message: Optional = None commit_description: Optional = None revision: Optional = None create_pr: bool = False parent_commit: Optional = None ) → str
参数
- repo_id (
str
) — 仓库的名称。 - metadata (
dict
) — 包含要更新的元数据的字典。 - repo_type (
str
, 可选) — 如果要更新为数据集或空间,则设置为"dataset"
或"space"
;如果要更新为模型,则设置为None
或"model"
。 默认为None
。 - overwrite (
bool
, 可选, 默认为False
) — 如果设置为True
,则可以覆盖现有字段,否则尝试覆盖现有字段将导致错误。 - token (
str
, 可选) — Hugging Face 身份验证令牌。 - commit_message (
str
, 可选) — 生成的提交的摘要/标题/第一行。默认为f"使用 huggingface_hub 更新元数据"
- commit_description (
str
,可选) — 生成的提交的描述 - revision (
str
,可选) — 要提交的 git 版本。默认为"main"
分支的头部。 - create_pr (
boolean
,可选) — 是否使用该提交从revision
创建拉取请求。默认为False
。 - parent_commit (
str
,可选) — 父提交的 OID / SHA,以十六进制字符串表示。也支持简写(前 7 个字符)。如果指定了该参数并且create_pr
为False
,如果revision
没有指向parent_commit
,则提交将失败。如果指定了该参数并且create_pr
为True
,则将从parent_commit
创建拉取请求。指定parent_commit
可以确保在提交更改之前仓库没有被更改,如果仓库被并发地更新/提交,这将特别有用。
返回值
str
更新卡片元数据的提交的 URL。
更新 Hugging Face Hub 上仓库中 README.md 文件的元数据。如果 README.md 文件尚不存在,则会使用元数据和默认的 ModelCard 或 DatasetCard 模板创建一个新的文件。对于 space
仓库,会抛出一个错误,因为 Space 不能没有 README.md
文件。
示例
>>> from huggingface_hub import metadata_update
>>> metadata = {'model-index': [{'name': 'RoBERTa fine-tuned on ReactionGIF',
... 'results': [{'dataset': {'name': 'ReactionGIF',
... 'type': 'julien-c/reactiongif'},
... 'metrics': [{'name': 'Recall',
... 'type': 'recall',
... 'value': 0.7762102282047272}],
... 'task': {'name': 'Text Classification',
... 'type': 'text-classification'}}]}]}
>>> url = metadata_update("hf-internal-testing/reactiongif-roberta-card", metadata)