Transformers 文档

自动类

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

自动类

在许多情况下,您想要使用的架构可以从您提供给 from_pretrained() 方法的预训练模型的名称或路径中猜测出来。AutoClasses 在这里为您完成这项工作,以便您根据预训练权重/配置/词汇表的名称/路径自动检索相关模型。

实例化 AutoConfigAutoModelAutoTokenizer 中的一个将直接创建相关架构的类。例如

model = AutoModel.from_pretrained("google-bert/bert-base-cased")

将创建一个作为 BertModel 实例的模型。

每个任务和每个后端(PyTorch、TensorFlow 或 Flax)都有一个 AutoModel 类。

扩展自动类

每个自动类都有一个方法可以使用您的自定义类进行扩展。例如,如果您定义了一个自定义模型类 NewModel,请确保您有一个 NewModelConfig,然后您可以像这样将它们添加到自动类中

from transformers import AutoConfig, AutoModel

AutoConfig.register("new-model", NewModelConfig)
AutoModel.register(NewModelConfig, NewModel)

然后您就可以像平常一样使用自动类了!

如果您的 NewModelConfigPretrainedConfig 的子类,请确保其 model_type 属性设置为与您注册配置时使用的键相同(此处为 "new-model")。

同样,如果您的 NewModelPreTrainedModel 的子类,请确保其 config_class 属性设置为与您注册模型时使用的类相同(此处为 NewModelConfig)。

AutoConfig

class transformers.AutoConfig

< >

( )

这是一个通用配置类,当使用 from_pretrained() 类方法创建时,它将被实例化为库的配置类之一。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_pretrained

< >

( pretrained_model_name_or_path **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型配置的模型 ID
    • 使用 save_pretrained() 方法或 save_pretrained() 方法保存的配置文件所在的目录的路径,例如 ./my_model_directory/
    • 保存的配置 JSON 文件的路径或 URL,例如 ./my_model_directory/configuration.json
  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,并覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如 {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • return_unused_kwargs (bool, optional, defaults to False) — 如果为 False,则此函数仅返回最终配置对象。

    如果为 True,则此函数返回 Tuple(config, unused_kwargs),其中 unused_kwargs 是一个字典,由键/值对组成,这些键/值对的键不是配置属性:即,kwargs 中未用于更新 config 且在其他情况下被忽略的部分。

  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型,这些模型在它们自己的建模文件中定义。此选项仅应针对您信任的存储库设置为 True,并且在您已阅读代码的情况下设置,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • kwargs(additional 关键字参数,可选) — kwargs 中任何键是配置属性的值将用于覆盖加载的值。关于键/值对的行为,其键不是配置属性,由 return_unused_kwargs 关键字参数控制。

从预训练模型配置实例化库的配置类之一。

要实例化的配置类是根据加载的配置对象的 model_type 属性选择的,或者当它丢失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配来选择。

示例

>>> from transformers import AutoConfig

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-uncased")

>>> # Download configuration from huggingface.co (user-uploaded) and cache.
>>> config = AutoConfig.from_pretrained("dbmdz/bert-base-german-cased")

>>> # If configuration file is in a directory (e.g., was saved using *save_pretrained('./test/saved_model/')*).
>>> config = AutoConfig.from_pretrained("./test/bert_saved_model/")

>>> # Load a specific configuration file.
>>> config = AutoConfig.from_pretrained("./test/bert_saved_model/my_configuration.json")

>>> # Change some config attributes when loading a pretrained config.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-uncased", output_attentions=True, foo=False)
>>> config.output_attentions
True

>>> config, unused_kwargs = AutoConfig.from_pretrained(
...     "google-bert/bert-base-uncased", output_attentions=True, foo=False, return_unused_kwargs=True
... )
>>> config.output_attentions
True

>>> unused_kwargs
{'foo': False}

register

< >

( model_type config exist_ok = False )

参数

  • model_type (str) — 模型类型,例如 “bert” 或 “gpt”。
  • config (PretrainedConfig) — 要注册的配置。

为此类注册新的配置。

AutoTokenizer

class transformers.AutoTokenizer

< >

( )

这是一个通用 tokenizer 类,当使用 AutoTokenizer.from_pretrained() 类方法创建时,它将被实例化为库中的 tokenizer 类之一。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_pretrained

< >

( pretrained_model_name_or_path *inputs **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,预训练 tokenizer 的 model id,托管在 huggingface.co 的模型仓库中。
    • 一个目录的路径,其中包含 tokenizer 所需的词汇表文件,例如使用 save_pretrained() 方法保存的路径,例如,./my_model_directory/
    • 如果且仅当 tokenizer 只需要单个词汇表文件(如 Bert 或 XLNet)时,指向单个已保存词汇表文件的路径或 URL,例如:./my_model_directory/vocab.txt。(不适用于所有派生类)
  • inputs (额外的 positional arguments,可选) — 将传递给 Tokenizer 的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于确定要实例化的 tokenizer 类的配置对象。
  • cache_dir (stros.PathLike, 可选) — 缓存已下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,并覆盖缓存版本(如果存在)。 resume_download — 已弃用并忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • subfolder (str, 可选) — 如果相关文件位于 huggingface.co 模型仓库的子文件夹中(例如 facebook/rag-token-base),请在此处指定。
  • use_fast (bool, 可选, 默认为 True) — 如果给定模型支持 fast Rust-based tokenizer,则使用它。如果给定模型没有 fast tokenizer,则返回普通的基于 Python 的 tokenizer。
  • tokenizer_type (str, 可选) — 要加载的 Tokenizer 类型。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应针对您信任并已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • kwargs (额外的 keyword arguments,可选) — 将传递给 Tokenizer 的 __init__() 方法。可用于设置特殊 token,如 bos_tokeneos_tokenunk_tokensep_tokenpad_tokencls_tokenmask_tokenadditional_special_tokens。有关更多详细信息,请参阅 __init__() 中的参数。

从预训练模型词汇表实例化库中的 tokenizer 类之一。

要实例化的 tokenizer 类是根据配置对象的 model_type 属性(作为参数传递或从 pretrained_model_name_or_path 加载,如果可能)选择的,或者在缺少该属性时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配来选择。

示例

>>> from transformers import AutoTokenizer

>>> # Download vocabulary from huggingface.co and cache.
>>> tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-uncased")

>>> # Download vocabulary from huggingface.co (user-uploaded) and cache.
>>> tokenizer = AutoTokenizer.from_pretrained("dbmdz/bert-base-german-cased")

>>> # If vocabulary files are in a directory (e.g. tokenizer was saved using *save_pretrained('./test/saved_model/')*)
>>> # tokenizer = AutoTokenizer.from_pretrained("./test/bert_saved_model/")

>>> # Download vocabulary from huggingface.co and define model-specific arguments
>>> tokenizer = AutoTokenizer.from_pretrained("FacebookAI/roberta-base", add_prefix_space=True)

register

< >

( config_class slow_tokenizer_class = None fast_tokenizer_class = None exist_ok = False )

参数

  • config_class (PretrainedConfig) — 与要注册的模型相对应的配置类。
  • slow_tokenizer_class (PretrainedTokenizer, 可选) — 要注册的慢速分词器。
  • fast_tokenizer_class (PretrainedTokenizerFast, 可选) — 要注册的快速分词器。

在此映射中注册新的分词器。

AutoFeatureExtractor

class transformers.AutoFeatureExtractor

< >

( )

这是一个通用的特征提取器类,当使用 AutoFeatureExtractor.from_pretrained() 类方法创建时,它将被实例化为库的特征提取器类之一。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_pretrained

< >

( pretrained_model_name_or_path **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 的模型仓库中的预训练 feature_extractor 的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 方法保存的特征提取器文件,例如,./my_model_directory/
    • 保存的特征提取器 JSON 文件的路径或 URL,例如,./my_model_directory/preprocessor_config.json
  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则应将下载的预训练模型特征提取器缓存到此目录的路径。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载特征提取器文件,并覆盖缓存版本(如果存在)。 resume_download - 已弃用且忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • token (strbool, 可选) — 用作远程文件 HTTP Bearer 授权的令牌。如果为 True,将使用运行 huggingface-cli login 时生成的令牌(存储在 ~/.huggingface 中)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • return_unused_kwargs (bool, 可选, 默认为 False) — 如果为 False,则此函数仅返回最终的特征提取器对象。如果为 True,则此函数返回一个 Tuple(feature_extractor, unused_kwargs),其中 unused_kwargs 是一个字典,由键/值对组成,其键不是特征提取器属性:即,kwargs 中未用于更新 feature_extractor 且在其他情况下被忽略的部分。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上的代码。
  • kwargs (Dict[str, Any], 可选) — kwargs 中任何键是特征提取器属性的值都将用于覆盖加载的值。关于键不是特征提取器属性的键/值对的行为由 return_unused_kwargs 关键字参数控制。

从预训练模型词汇表实例化库的特征提取器类之一。

要实例化的特征提取器类是根据配置对象的 model_type 属性选择的(可以作为参数传递,也可以从 pretrained_model_name_or_path 加载,如果可能),或者在缺少时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配来选择。

当您想使用私有模型时,需要传递 token=True

示例

>>> from transformers import AutoFeatureExtractor

>>> # Download feature extractor from huggingface.co and cache.
>>> feature_extractor = AutoFeatureExtractor.from_pretrained("facebook/wav2vec2-base-960h")

>>> # If feature extractor files are in a directory (e.g. feature extractor was saved using *save_pretrained('./test/saved_model/')*)
>>> # feature_extractor = AutoFeatureExtractor.from_pretrained("./test/saved_model/")

register

< >

( config_class feature_extractor_class exist_ok = False )

参数

  • config_class (PretrainedConfig) — 要注册的模型对应的配置类。
  • feature_extractor_class (FeatureExtractorMixin) — 要注册的特征提取器类。

为此类注册一个新的特征提取器。

AutoImageProcessor

class transformers.AutoImageProcessor

< >

( )

这是一个通用的图像处理器类,当使用 AutoImageProcessor.from_pretrained() 类方法创建时,它将被实例化为库的图像处理器类之一。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_pretrained

< >

( pretrained_model_name_or_path *inputs **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 模型仓库中的预训练 image_processor 的 模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 方法保存的图像处理器文件,例如, ./my_model_directory/
    • 保存的图像处理器 JSON 文件的路径或 URL,例如, ./my_model_directory/preprocessor_config.json
  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则应将下载的预训练模型图像处理器缓存到此目录的路径。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载图像处理器文件,并覆盖缓存版本(如果存在)。 resume_download - 已弃用且忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • token (strbool, 可选) — 用作远程文件 HTTP Bearer 授权的令牌。如果为 True,将使用运行 huggingface-cli login 时生成的令牌(存储在 ~/.huggingface 中)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • use_fast (bool, optional, defaults to False) — 如果给定模型支持快速 torchvision 基础的图像处理器,则使用它。如果给定模型没有快速分词器,则会返回普通的基于 numpy 的图像处理器。
  • return_unused_kwargs (bool, optional, defaults to False) — 如果为 False,则此函数仅返回最终的图像处理器对象。如果为 True,则此函数返回 Tuple(image_processor, unused_kwargs),其中 unused_kwargs 是一个字典,其中包含键/值对,其键不是图像处理器属性:即,kwargs 中未用于更新 image_processor 的部分,否则将被忽略。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型及其自身的建模文件中。此选项仅应针对您信任并已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • kwargs (Dict[str, Any], optional) — kwargs 中任何键是图像处理器属性的值将用于覆盖加载的值。关于键不是图像处理器属性的键/值对的行为由 return_unused_kwargs 关键字参数控制。

从预训练模型词汇实例化库的图像处理器类之一。

要实例化的图像处理器类是根据配置对象的 model_type 属性选择的(可以作为参数传递,也可以在可能的情况下从 pretrained_model_name_or_path 加载),或者当它丢失时,通过回退到对 pretrained_model_name_or_path 使用模式匹配来选择。

当您想使用私有模型时,需要传递 token=True

示例

>>> from transformers import AutoImageProcessor

>>> # Download image processor from huggingface.co and cache.
>>> image_processor = AutoImageProcessor.from_pretrained("google/vit-base-patch16-224-in21k")

>>> # If image processor files are in a directory (e.g. image processor was saved using *save_pretrained('./test/saved_model/')*)
>>> # image_processor = AutoImageProcessor.from_pretrained("./test/saved_model/")

register

< >

( config_class image_processor_class = None slow_image_processor_class = None fast_image_processor_class = None exist_ok = False )

参数

为此类注册一个新的图像处理器。

AutoProcessor

class transformers.AutoProcessor

< >

( )

这是一个通用处理器类,当使用 AutoProcessor.from_pretrained() 类方法创建时,它将被实例化为库的处理器类之一。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_pretrained

< >

( pretrained_model_name_or_path **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 这可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练 feature_extractor 的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 方法保存的处理器文件,例如 ./my_model_directory/
  • cache_dir (stros.PathLike, optional) — 缓存下载的预训练模型特征提取器的目录路径,如果不想使用标准缓存。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载特征提取器文件并覆盖缓存的版本(如果存在)。resume_download — 已弃用且忽略。现在默认情况下,所有下载都将在可能的情况下恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 按协议或端点使用的代理服务器字典,例如 {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • token (strbool, optional) — 用作远程文件的 HTTP Bearer 授权的令牌。如果为 True,将使用运行 huggingface-cli login 时生成的令牌(存储在 ~/.huggingface 中)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • return_unused_kwargs (bool, 可选, 默认为 False) — 如果为 False,则此函数仅返回最终的特征提取器对象。如果为 True,则此函数返回一个 Tuple(feature_extractor, unused_kwargs),其中 unused_kwargs 是一个字典,包含键/值对,其键不是特征提取器属性;即 kwargs 中未用于更新 feature_extractor 的部分,且在其他情况下将被忽略。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许使用 Hub 上自定义的模型定义文件。此选项应仅对您信任的仓库以及您已阅读代码的仓库设置为 True,因为它会在您的本地机器上执行 Hub 上的代码。
  • kwargs (Dict[str, Any], 可选) — 任何键为特征提取器属性的 kwargs 中的值将用于覆盖已加载的值。关于键不是特征提取器属性的键/值对的行为由 return_unused_kwargs 关键字参数控制。

从预训练模型的词汇表实例化库中的一个处理器类。

要实例化的处理器类是根据配置对象的 model_type 属性选择的(可以作为参数传递,也可以从 pretrained_model_name_or_path 加载,如果可能的话)。

当您想使用私有模型时,需要传递 token=True

示例

>>> from transformers import AutoProcessor

>>> # Download processor from huggingface.co and cache.
>>> processor = AutoProcessor.from_pretrained("facebook/wav2vec2-base-960h")

>>> # If processor files are in a directory (e.g. processor was saved using *save_pretrained('./test/saved_model/')*)
>>> # processor = AutoProcessor.from_pretrained("./test/saved_model/")

register

< >

( config_class processor_class exist_ok = False )

参数

  • config_class (PretrainedConfig) — 要注册的模型对应的配置类。
  • processor_class (FeatureExtractorMixin) — 要注册的处理器。

为此类注册一个新的处理器。

通用模型类

以下自动类可用于实例化没有特定头的基本模型类。

AutoModel

class transformers.AutoModel

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个基本模型类。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个基本模型类。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModel

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModel.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,表示托管在 huggingface.co 上的模型仓库中的预训练模型的 模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 TensorFlow 索引检查点文件 的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加的位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于代替从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则用于缓存下载的预训练模型配置的目录路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用并忽略。所有下载现在在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 一个代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理服务器用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。 此选项仅应针对您信任的存储库设置为 True,并在您已阅读代码的情况下设置,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(在加载后)并初始化模型 (例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,对应于一个配置属性,将用于覆盖所述属性,使用提供的 kwargs 值。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的基础模型类之一。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModel

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModel.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModel.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModel.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModel

transformers.TFAutoModel

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个基本模型类。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个基本模型类。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModel

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModel.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 模型仓库中的预训练模型的 模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个PyTorch state_dict 保存文件的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 下载的预训练模型配置应该缓存到的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 代理服务器字典,按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理服务器用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型,这些模型在其自身的建模文件中定义。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供 config 或自动加载配置:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的基础模型类之一。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModel

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModel.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModel.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModel.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModel

class transformers.FlaxAutoModel

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个基本模型类。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个基本模型类。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModel

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModel.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是:

    • 一个字符串,即托管在 huggingface.co 模型仓库中的预训练模型的 模型ID
    • 一个指向 目录 的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 *PyTorch state_dict 保存文件* 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加的位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下,配置可以自动加载:

    • 该模型是由库提供的模型(使用预训练模型的 *模型 ID* 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • cache_dir (stros.PathLike可选) — 下载的预训练模型配置应缓存到的目录的路径,如果不想使用标准缓存。
  • from_pt (bool可选,默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool可选,默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖现有的缓存版本。 resume_download — 已弃用并忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str]可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选,默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选,默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str可选,默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool可选,默认为 False) — 是否允许使用在 Hub 上自定义模型文件中定义的自定义模型。此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str可选,默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数,可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。根据是否提供配置或自动加载配置,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 中与配置属性对应的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的基础模型类之一。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModel

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModel.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModel.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModel.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

通用预训练类

以下自动类可用于实例化带有预训练头的模型。

AutoModelForPreTraining

transformers.AutoModelForPreTraining

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有预训练头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带预训练头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForPreTraining

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForPreTraining.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,表示托管在 huggingface.co 的模型仓库中的预训练模型的 模型 ID
    • 一个 目录 的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 tensorflow 索引检查点文件 的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应该设置为 True,并且应该将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。在以下情况下,可以自动加载配置:

    • 该模型是由库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 通过提供本地目录作为 pretrained_model_name_or_path 加载模型,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于代替从保存的权重文件加载的状态字典。

    如果要从预训练配置创建模型但加载自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型文件中定义的自定义模型。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载配置,行为有所不同:

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。与任何配置属性都不对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有预训练头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForPreTraining

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForPreTraining.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForPreTraining.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForPreTraining.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForPreTraining

class transformers.TFAutoModelForPreTraining

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有预训练头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带预训练头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForPreTraining

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForPreTraining.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如 ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许使用 Hub 上定义的自定义模型及其自身的建模文件。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键(对应于配置属性)将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的其余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有预训练头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForPreTraining

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForPreTraining.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForPreTraining.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForPreTraining.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForPreTraining

class transformers.FlaxAutoModelForPreTraining

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有预训练头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带预训练头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForPreTraining

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForPreTraining.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,应将 from_pt 设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_pt (bool, 可选, defaults to False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers 的 v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许使用 Hub 上定义的自定义模型,这些模型位于它们自己的建模文件中。此选项仅应针对您信任的存储库且您已阅读其中的代码时设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码位于与模型其余部分不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键(对应于配置属性)将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有预训练头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForPreTraining

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForPreTraining.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForPreTraining.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForPreTraining.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

自然语言处理

以下自动类可用于以下自然语言处理任务。

AutoModelForCausalLM

class transformers.AutoModelForCausalLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有因果语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有因果语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForCausalLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForCausalLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,Huggingface.co 模型仓库中预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL (例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的 positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于替代从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 目录的路径,如果不想使用标准缓存,则应在其中缓存下载的预训练模型配置。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用并忽略。所有下载现在在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型中定义的模型文件。此选项仅应为信任的存储库和您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载配置,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递到底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递到底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有因果语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForCausalLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForCausalLM.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForCausalLM.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForCausalLM.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForCausalLM

class transformers.TFAutoModelForCausalLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有因果语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有因果语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForCausalLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForCausalLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 模型仓库中托管的预训练模型的 模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应该设置为 True,并且应该提供一个配置对象作为 config 参数。这种加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下可以自动加载配置:

    • 该模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,如果不想使用标准缓存,则应在该目录中缓存下载的预训练模型配置。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在默认情况下所有下载都可恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型,这些模型在其自己的建模文件中定义。此选项仅应针对您信任的仓库以及您已阅读代码的仓库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的仓库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments,可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供了 config 或自动加载:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有因果语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForCausalLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForCausalLM.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForCausalLM.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForCausalLM.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForCausalLM

class transformers.FlaxAutoModelForCausalLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有因果语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有因果语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForCausalLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForCausalLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 模型仓库中的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件(例如,./pt_model/pytorch_model.bin)的路径或 URL。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的 positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下,可以自动加载配置:

    • 该模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 应该在其中缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型及其自己的建模文件中定义。此选项仅应为信任的存储库设置为 True,并且您已阅读其中的代码,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。行为因是否提供 config 或自动加载而异:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的其余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有因果语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForCausalLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForCausalLM.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForCausalLM.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForCausalLM.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForMaskedLM

class transformers.AutoModelForMaskedLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有掩码语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有掩码语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForMaskedLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForMaskedLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,指 huggingface.co 上模型仓库中预训练模型的 模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个 tensorflow 索引检查点文件 的路径或 URL (例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应该设置为 True,并且应该提供一个配置对象作为 config 参数。这种加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型,然后加载 PyTorch 模型要慢。
  • model_args (额外的 Positional Arguments,可选) — 将会传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当以下情况时,配置可以自动加载:

    • 模型是库提供的模型 (使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于替代从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。 但是在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存已下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖可能存在的缓存版本。 resume_download — 已弃用并忽略。 现在,所有下载在可能的情况下默认都恢复。 将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型中定义的模型文件。 此选项应仅对您信任并且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。 根据是否提供 config 或自动加载而表现不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有掩码语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForMaskedLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForMaskedLM.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForMaskedLM.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForMaskedLM.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForMaskedLM

class transformers.TFAutoModelForMaskedLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有掩码语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有掩码语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForMaskedLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForMaskedLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,huggingface.co 上模型仓库中预训练模型的模型 ID
    • 指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 指向 PyTorch state_dict 保存文件 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。与使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型相比,此加载路径速度较慢。
  • model_args (附加的位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,在该目录中应缓存下载的预训练模型配置,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在默认情况下,所有下载都在可能的情况下恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否还返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中定义。此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供 config 或自动加载配置:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。与任何配置属性都不对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有掩码语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForMaskedLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForMaskedLM.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForMaskedLM.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForMaskedLM.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForMaskedLM

class transformers.FlaxAutoModelForMaskedLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有掩码语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有掩码语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForMaskedLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForMaskedLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,huggingface.co 上模型仓库中预训练模型的模型 ID
    • 指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 指向 PyTorch state_dict 保存文件 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。与使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型相比,此加载路径速度较慢。
  • model_args (附加的位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,在该目录中应缓存下载的预训练模型配置,如果不想使用标准缓存。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用并忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 通过协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。 此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键(对应于配置属性)将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有掩码语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForMaskedLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForMaskedLM.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForMaskedLM.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForMaskedLM.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForMaskGeneration

class transformers.AutoModelForMaskGeneration

< >

( *args **kwargs )

TFAutoModelForMaskGeneration

class transformers.TFAutoModelForMaskGeneration

< >

( *args **kwargs )

AutoModelForSeq2SeqLM

class transformers.AutoModelForSeq2SeqLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有序列到序列语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有序列到序列语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForSeq2SeqLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-t5/t5-base")
>>> model = AutoModelForSeq2SeqLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (str or os.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL(例如,./tf_model/model.ckpt.index)。 在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。 此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加的位置参数,可选) — 将会传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。以下情况可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的 model id 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于替代从已保存的权重文件中加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,可以使用此选项。不过,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 目录路径,用于在不应使用标准缓存时,缓存下载的预训练模型配置。
  • from_tf (bool, 可选,默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选,默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已存在的缓存版本。 resume_download — 已弃用并忽略。现在所有下载在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理服务器在每个请求上使用。
  • output_loading_info(bool, 可选,默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选,默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选,默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,所以 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选,默认为 False) — 是否允许在 Hub 上自定义模型,这些模型在其自己的建模文件中定义。此选项仅应为信任的仓库设置为 True,并在您已阅读代码的情况下使用,因为它将在您的本地机器上执行 Hub 上存在的代码。
  • code_revision (str, 可选,默认为 "main") — 如果代码与模型的其余部分位于不同的仓库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,所以 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供了 config 或自动加载了配置:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 中与配置属性对应的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有序列到序列语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForSeq2SeqLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForSeq2SeqLM.from_pretrained("google-t5/t5-base")

>>> # Update configuration during loading
>>> model = AutoModelForSeq2SeqLM.from_pretrained("google-t5/t5-base", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/t5_tf_model_config.json")
>>> model = AutoModelForSeq2SeqLM.from_pretrained(
...     "./tf_model/t5_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForSeq2SeqLM

class transformers.TFAutoModelForSeq2SeqLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有序列到序列语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有序列到序列语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForSeq2SeqLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-t5/t5-base")
>>> model = TFAutoModelForSeq2SeqLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上的模型仓库中托管的预训练模型的 model id
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个 PyTorch state_dict 保存文件 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,应将 from_pt 设置为 True,并应提供配置对象作为 config 参数。与使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型,然后加载 TensorFlow 模型相比,此加载路径速度较慢。
  • model_args (附加的位置参数,可选) — 将会传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。以下情况可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的 model id 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • cache_dir (stros.PathLike, 可选) — 用于缓存已下载的预训练模型配置的目录路径,如果不想使用标准缓存目录,可以使用此路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 一个代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理服务器在每个请求上使用。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许使用 Hub 上自定义模型文件中定义的自定义模型。此选项仅应针对您信任且已阅读过代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载配置而表现不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个对应于配置属性的键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有序列到序列语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForSeq2SeqLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForSeq2SeqLM.from_pretrained("google-t5/t5-base")

>>> # Update configuration during loading
>>> model = TFAutoModelForSeq2SeqLM.from_pretrained("google-t5/t5-base", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/t5_pt_model_config.json")
>>> model = TFAutoModelForSeq2SeqLM.from_pretrained(
...     "./pt_model/t5_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForSeq2SeqLM

transformers.FlaxAutoModelForSeq2SeqLM

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有序列到序列语言建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有序列到序列语言建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForSeq2SeqLM

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-t5/t5-base")
>>> model = FlaxAutoModelForSeq2SeqLM.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,应将 from_pt 设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型是通过提供本地目录作为 pretrained_model_name_or_path 加载的,并且在目录中找到了名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 用于缓存已下载的预训练模型配置的目录路径,如果不想使用标准缓存目录,可以使用此路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 一个代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理服务器在每个请求上使用。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许 Hub 上定义的自定义模型在其自己的建模文件中。此选项仅应针对您信任的存储库设置为 True,并且在您已阅读代码的情况下,因为它将在您的本地计算机上执行 Hub 上的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (其他关键字参数, optional) — 可用于更新配置对象(在加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果与配置属性对应,都将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有序列到序列语言建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForSeq2SeqLM

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForSeq2SeqLM.from_pretrained("google-t5/t5-base")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForSeq2SeqLM.from_pretrained("google-t5/t5-base", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/t5_pt_model_config.json")
>>> model = FlaxAutoModelForSeq2SeqLM.from_pretrained(
...     "./pt_model/t5_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForSequenceClassification

class transformers.AutoModelForSequenceClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有序列分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有序列分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForSequenceClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForSequenceClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,huggingface.co 上模型仓库中托管的预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL (例如,./tf_model/model.ckpt.index)。在这种情况下,应将 from_tf 设置为 True,并应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的 positional 参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下,配置可以自动加载:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于替代从已保存权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 目录的路径,如果不想使用标准缓存,下载的预训练模型配置应缓存到该目录中。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已存在的缓存版本。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 通过协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上定义的自定义模型在其自己的建模文件中。此选项仅应为信任的存储库设置为 True,并且您已阅读其中的代码,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments, 可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供了 config 或自动加载了配置:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个对应于配置属性的键将用于使用提供的 kwargs 值覆盖该属性。其余不对应于任何配置属性的键将被传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有序列分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForSequenceClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForSequenceClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForSequenceClassification

class transformers.TFAutoModelForSequenceClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有序列分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有序列分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForSequenceClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForSequenceClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 的模型仓库中的预训练模型的 模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,应将 from_pt 设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加的位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 通过协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储模型和 huggingface.co 上的其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许使用 Hub 上自定义模型文件中定义的自定义模型。此选项仅应为信任的仓库设置且已阅读代码,因为它将在本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的仓库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储模型和 huggingface.co 上的其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。与任何配置属性不对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有序列分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForSequenceClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForSequenceClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForSequenceClassification

class transformers.FlaxAutoModelForSequenceClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有序列分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有序列分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForSequenceClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForSequenceClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,应将 from_pt 设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的 positional 参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下可以自动加载配置:

    • 该模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型是通过提供本地目录作为 pretrained_model_name_or_path 加载的,并且在目录中找到了名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。resume_download — 已弃用并忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项应仅针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的关键字参数, 可选) — 可用于更新配置对象(加载后)并启动模型(例如,output_attentions=True)。根据是否提供 config 或自动加载而表现不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递到底层模型的 __init__ 方法(我们假设配置的所有相关更新都已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。与任何配置属性都不对应的剩余键将传递到底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有序列分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForSequenceClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForSequenceClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForMultipleChoice

class transformers.AutoModelForMultipleChoice

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有 multiple choice head)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有多项选择头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForMultipleChoice

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForMultipleChoice.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,预训练模型的模型 ID,托管在 huggingface.co 的模型仓库中。
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 tensorflow 索引检查点文件 的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加的位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果你想从预训练配置创建模型但加载你自己的权重,可以使用此选项。但在这种情况下,你应该检查使用 save_pretrained()from_pretrained() 是否不是一个更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖可能存在的缓存版本。 resume_download — 已弃用且被忽略。现在,所有下载都在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中定义。此选项仅应针对您信任的存储库和您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载而表现不同:

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。与任何配置属性都不对应的其余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有多项选择头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForMultipleChoice

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForMultipleChoice.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForMultipleChoice

class transformers.TFAutoModelForMultipleChoice

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有 multiple choice head)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有多项选择头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForMultipleChoice

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForMultipleChoice.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,表示托管在 huggingface.co 模型仓库中的预训练模型的 模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 PyTorch state_dict 保存文件 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的 positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果应避免使用标准缓存,则应将下载的预训练模型配置缓存到的目录的路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 一个代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项应仅对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则要用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments,可选) — 可用于更新配置对象(在加载后)并初始化模型(例如, output_attentions=True)。行为因是否提供 config 或自动加载而异:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有多项选择头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForMultipleChoice

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForMultipleChoice.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForMultipleChoice

class transformers.FlaxAutoModelForMultipleChoice

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有 multiple choice head)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有多项选择头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForMultipleChoice

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForMultipleChoice.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (str or os.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • 一个指向 PyTorch state_dict 保存文件 的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下, from_pt 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型,然后加载 TensorFlow 模型要慢。
  • model_args (附加的位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型是通过提供本地目录作为 pretrained_model_name_or_path 加载的,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,如果不想使用标准缓存,则应在该目录中缓存下载的预训练模型配置。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在默认情况下,所有下载都将在可能的情况下恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否还返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在其自己的建模文件中 Hub 上定义的自定义模型。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载配置,行为会有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性对应,都将用于使用提供的 kwargs 值覆盖该属性。不对应任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有多项选择头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForMultipleChoice

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForMultipleChoice.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForNextSentencePrediction

class transformers.AutoModelForNextSentencePrediction

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有下一句预测头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有下一句预测头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForNextSentencePrediction

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForNextSentencePrediction.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • 一个指向 tensorflow 索引检查点文件 的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下, from_tf 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型,然后加载 PyTorch 模型要慢。
  • model_args (附加的位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于替代从保存的权重文件加载的状态字典的状态字典。

    如果你想从预训练配置创建模型但加载你自己的权重,可以使用此选项。 在这种情况下,你应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则用于缓存下载的预训练模型配置的目录路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且忽略。 现在,所有下载在可能的情况下都默认恢复。 将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理在每个请求上使用。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中定义。 此选项仅应为信任的存储库和您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为会有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有下一句预测头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForNextSentencePrediction

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForNextSentencePrediction.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForNextSentencePrediction.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForNextSentencePrediction.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForNextSentencePrediction

class transformers.TFAutoModelForNextSentencePrediction

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有下一句预测头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有下一句预测头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForNextSentencePrediction

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForNextSentencePrediction.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。 在这种情况下,from_pt 应设置为 True,并且应将配置对象作为 config 参数提供。 此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则用于缓存下载的预训练模型配置的目录路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且忽略。 现在,所有下载在可能的情况下都默认恢复。 将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理在每个请求上使用。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型定义在它们自己的建模文件中。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性相对应,都将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有下一句预测头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForNextSentencePrediction

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForNextSentencePrediction.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForNextSentencePrediction.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForNextSentencePrediction.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForNextSentencePrediction

class transformers.FlaxAutoModelForNextSentencePrediction

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有下一句预测头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有下一句预测头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForNextSentencePrediction

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForNextSentencePrediction.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过将本地目录作为 pretrained_model_name_or_path 提供来加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型定义在它们自己的建模文件中。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性相对应,都将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有下一句预测头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForNextSentencePrediction

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForNextSentencePrediction.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForNextSentencePrediction.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForNextSentencePrediction.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForTokenClassification

class transformers.AutoModelForTokenClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有 token 分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

根据配置实例化库中的一个模型类(带有一个 token 分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForTokenClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForTokenClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的positional arguments, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,而不是自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 该模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], optional) — 状态字典,用于代替从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。不过,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, optional) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录路径。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中。此选项仅应为信任的存储库设置为 True,并且您已阅读其中的代码,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性对应,都将用于使用提供的 kwargs 值覆盖所述属性。不与任何配置属性对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带 token 分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForTokenClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForTokenClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForTokenClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForTokenClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForTokenClassification

class transformers.TFAutoModelForTokenClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有 token 分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

根据配置实例化库中的一个模型类(带有一个 token 分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForTokenClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForTokenClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 模型仓库中的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • 一个PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。resume_download — 已弃用并忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理在每个请求上使用。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许加载 Hub 上自定义的模型文件。此选项应仅设置为 True,用于您信任的仓库,并且您已阅读过其中的代码,因为它会在您的本地机器上执行 Hub 上的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的仓库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可以用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果对应于配置属性,将被用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带 token 分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForTokenClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForTokenClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForTokenClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForTokenClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForTokenClassification

class transformers.FlaxAutoModelForTokenClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有 token 分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

根据配置实例化库中的一个模型类(带有一个 token 分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForTokenClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForTokenClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,表示 huggingface.co 上的模型仓库中托管的预训练模型的 模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 PyTorch state_dict 保存文件 的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以替代自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在该目录中找到名为 config.json 的配置文件。
  • cache_dir (stros.PathLike, optional) — 用于缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。所有下载现在在可能的情况下默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], optional) — 一个字典,用于按协议或端点指定要使用的代理服务器,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许加载 Hub 上自定义的模型文件。此选项应仅设置为 True,用于您信任的仓库,并且您已阅读过其中的代码,因为它会在您的本地机器上执行 Hub 上的代码。
  • code_revision (str, 可选, 默认为 "main") — Hub上代码所使用的特定修订版本,如果代码与模型的其余部分位于不同的仓库中。 它可以是分支名称、标签名称或提交ID,因为我们使用基于git的系统在huggingface.co上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载配置,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带 token 分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForTokenClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForTokenClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForTokenClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForTokenClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForQuestionAnswering

class transformers.AutoModelForQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有问答头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有问答头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。 在这种情况下,应将 from_tf 设置为 True,并且应将配置对象作为 config 参数提供。 此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型,然后再加载 PyTorch 模型要慢。
  • model_args (附加的位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。 在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 状态字典,用于代替从已保存权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。 不过在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件中加载模型权重(参见 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已存在的缓存版本。 resume_download — 已弃用且被忽略。现在所有下载在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 一个代理服务器字典,用于指定协议或端点,例如:{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理服务器用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许使用 Hub 上自定义模型文件中定义的自定义模型。此选项仅应为信任的仓库设置为 True,并且您已阅读其中的代码,因为它将在您的本地计算机上执行 Hub 上的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的仓库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载配置而表现不同:

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已经完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 中与配置属性对应的每个键将用于使用提供的 kwargs 值覆盖该属性。与任何配置属性不对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有一个问题回答头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForQuestionAnswering.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForQuestionAnswering

transformers.TFAutoModelForQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有问答头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有问答头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当满足以下条件时,配置可以自动加载:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 下载的预训练模型配置应该缓存到的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且忽略。所有下载现在都在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理应用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型,这些模型在其自身的建模文件中定义。 此选项仅应为信任的存储库设置为 True,并且您已阅读其中的代码,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载而表现不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有一个问题回答头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForQuestionAnswering.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForQuestionAnswering

class transformers.FlaxAutoModelForQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有问答头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有问答头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。 在这种情况下,from_pt 应设置为 True,并且应将配置对象作为 config 参数提供。 此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当满足以下条件时,配置可以自动加载:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 缓存已下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如:{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应为信任的存储库和已阅读代码的存储库设置为 True,因为它将在本地计算机上执行 Hub 上的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分在不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果对应于配置属性,都将用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有一个问题回答头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForQuestionAnswering.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForTextEncoding

class transformers.AutoModelForTextEncoding

< >

( *args **kwargs )

TFAutoModelForTextEncoding

class transformers.TFAutoModelForTextEncoding

< >

( *args **kwargs )

计算机视觉

以下自动类可用于以下计算机视觉任务。

AutoModelForDepthEstimation

class transformers.AutoModelForDepthEstimation

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有深度估计头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有深度估计头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForDepthEstimation

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForDepthEstimation.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,huggingface.co 模型仓库中托管的预训练模型的 模型 ID
    • 目录 的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件 的路径或 URL(例如,./tf_model/model.ckpt.index)。在这种情况下,应将 from_tf 设置为 True,并应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在该目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于替代从已保存的权重文件中加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。 在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是一个更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖可能存在的缓存版本。 resume_download — 已弃用且被忽略。 现在,所有下载在可能的情况下都默认恢复。 将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 一个代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理服务器用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型,这些模型在其自己的建模文件中定义。 此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果与配置属性对应,将用于使用提供的 kwargs 值覆盖所述属性。 其余不对应任何配置属性的键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有深度估计头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForDepthEstimation

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForDepthEstimation.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForDepthEstimation.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForDepthEstimation.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForImageClassification

class transformers.AutoModelForImageClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有图像分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有图像分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForImageClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForImageClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 tensorflow 索引检查点文件 的路径或 URL (例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的 positional 参数,可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 一个状态字典,用于代替从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应针对您信任并且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载而表现不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带图像分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForImageClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForImageClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForImageClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForImageClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForImageClassification

class transformers.TFAutoModelForImageClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有图像分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有图像分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForImageClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForImageClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即 huggingface.co 上的模型仓库中托管的预训练模型的 模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 PyTorch state_dict 保存文件 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型,然后再加载 TensorFlow 模型要慢。
  • model_args (额外的positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型 (使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,在该目录中应缓存下载的预训练模型配置,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在默认情况下,所有下载都在可能的情况下恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应为信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的keyword arguments,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供了 config 或自动加载了 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个对应于配置属性的键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带图像分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForImageClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForImageClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForImageClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForImageClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForImageClassification

class transformers.FlaxAutoModelForImageClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有图像分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有图像分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForImageClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForImageClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即 huggingface.co 上的模型仓库中托管的预训练模型的 模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 PyTorch state_dict 保存文件 的路径或 URL (例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型,然后再加载 TensorFlow 模型要慢。
  • model_args (额外的positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型 (使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则应将下载的预训练模型配置缓存到此目录的路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件中加载模型权重 (参见 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制 (重新) 下载模型权重和配置文件,覆盖缓存版本 (如果存在)。 resume_download — 已弃用且忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件 (例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型在它们自己的建模文件中定义。此选项应仅针对您信任的存储库且您已阅读代码的情况下设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分在不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象 (加载后) 并初始化模型 (例如, output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法 (我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个对应于配置属性的键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带图像分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForImageClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForImageClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForImageClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForImageClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForVideoClassification

class transformers.AutoModelForVideoClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一 (带有视频分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一 (带有视频分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForVideoClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForVideoClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • 一个 tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,应将 from_tf 设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型 (使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型是通过将本地目录作为 pretrained_model_name_or_path 提供加载的,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 要使用的状态字典,而不是从保存的权重文件加载的状态字典。

    如果要从预训练配置创建模型但加载自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则应将下载的预训练模型配置缓存到此目录的路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件中加载模型权重 (参见 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制 (重新) 下载模型权重和配置文件,覆盖缓存版本 (如果存在)。 resume_download — 已弃用且忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型,这些模型在它们自己的建模文件中定义。此选项仅应为信任的存储库设置为 True,并在您已阅读代码的情况下设置,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有视频分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForVideoClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForVideoClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForVideoClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForVideoClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForKeypointDetection

class transformers.AutoModelForKeypointDetection

< >

( *args **kwargs )

AutoModelForMaskedImageModeling

class transformers.AutoModelForMaskedImageModeling

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有掩码图像建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有掩码图像建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForMaskedImageModeling

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForMaskedImageModeling.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的 模型 ID
    • 目录 的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件 的路径或 URL(例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 要使用的模型的配置,而不是自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 状态字典,用于代替从已保存的权重文件加载的状态字典。

    如果要从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers 的 v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, 默认为 False) — 是否允许在 Hub 上自定义的模型文件中定义自定义模型。 此选项应仅对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有掩码图像建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForMaskedImageModeling

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForMaskedImageModeling.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForMaskedImageModeling.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForMaskedImageModeling.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForMaskedImageModeling

class transformers.TFAutoModelForMaskedImageModeling

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有掩码图像建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有掩码图像建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForMaskedImageModeling

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForMaskedImageModeling.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以代替自动加载的配置。 当以下情况时,可以自动加载配置:

    • 该模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, optional) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, optional, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。 现在,所有下载在可能的情况下默认恢复。 将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理在每个请求上使用。
  • output_loading_info(bool, optional, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, 默认为 False) — 是否允许在 Hub 上自定义的模型文件中定义自定义模型。 此选项应仅对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有掩码图像建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForMaskedImageModeling

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForMaskedImageModeling.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForMaskedImageModeling.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForMaskedImageModeling.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForObjectDetection

class transformers.AutoModelForObjectDetection

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的模型类之一(带有一个目标检测头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的模型类之一(带有一个目标检测头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForObjectDetection

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForObjectDetection.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的 模型 ID
    • 一个指向 目录 的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 指向 tensorflow 索引检查点文件 的路径或 URL(例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的 positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是一个更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。resume_download — 已弃用并忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers 的 v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在其自己的建模文件中定义 Hub 上的自定义模型。此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config 而表现不同:

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的模型类之一(带有一个目标检测头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForObjectDetection

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForObjectDetection.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForObjectDetection.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForObjectDetection.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForImageSegmentation

class transformers.AutoModelForImageSegmentation

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的模型类之一(带有一个图像分割头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带图像分割头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForImageSegmentation

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForImageSegmentation.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的 positional arguments, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型是通过提供本地目录作为 pretrained_model_name_or_path 加载的,并且在目录中找到了名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从已保存的权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在所有下载在可能的情况下默认恢复。将在 Transformers v5 中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项应仅对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword arguments, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载而表现不同:

    • 如果通过 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带图像分割头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForImageSegmentation

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForImageSegmentation.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForImageSegmentation.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForImageSegmentation.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForImageToImage

class transformers.AutoModelForImageToImage

< >

( *args **kwargs )

AutoModelForSemanticSegmentation

class transformers.AutoModelForSemanticSegmentation

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带语义分割头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有语义分割头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForSemanticSegmentation

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForSemanticSegmentation.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个tensorflow 索引检查点文件 (例如, ./tf_model/model.ckpt.index) 的路径或 URL。在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (额外的positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的keyword arguments,可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供 config 或自动加载:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有语义分割头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForSemanticSegmentation

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForSemanticSegmentation.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForSemanticSegmentation.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForSemanticSegmentation.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForSemanticSegmentation

class transformers.TFAutoModelForSemanticSegmentation

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带语义分割头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有语义分割头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForSemanticSegmentation

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForSemanticSegmentation.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个PyTorch state_dict 保存文件 (例如, ./pt_model/pytorch_model.bin) 的路径或 URL。在这种情况下,from_pt 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (其他位置参数,可选) — 将会传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当以下情况时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,如果不想使用标准缓存,则下载的预训练模型配置应缓存到该目录中。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。 现在所有下载在可能的情况下都默认恢复。 将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型中定义的模型文件。 此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分在不同的存储库中,则用于 Hub 上代码的特定修订版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (其他关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。 根据是否提供 config 或自动加载而表现不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果与配置属性对应,将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有语义分割头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForSemanticSegmentation

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForSemanticSegmentation.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForSemanticSegmentation.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForSemanticSegmentation.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForInstanceSegmentation

class transformers.AutoModelForInstanceSegmentation

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有实例分割头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有实例分割头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForInstanceSegmentation

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForInstanceSegmentation.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是:

    • 字符串,huggingface.co 上模型仓库中托管的预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。 在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。 此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (其他位置参数,可选) — 将会传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。 当以下情况时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 状态字典,用于代替从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载自己的权重,可以使用此选项。 不过,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 下载的预训练模型配置应缓存到其中的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且忽略。现在默认情况下,所有下载都在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型及其自身的建模文件。此选项应仅对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性对应,将被用于使用提供的 kwargs 值覆盖该属性。不与任何配置属性对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有实例分割头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForInstanceSegmentation

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForInstanceSegmentation.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForInstanceSegmentation.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForInstanceSegmentation.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForUniversalSegmentation

class transformers.AutoModelForUniversalSegmentation

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将实例化为库的模型类之一(带有通用图像分割头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有通用图像分割头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForUniversalSegmentation

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForUniversalSegmentation.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的 模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • 一个指向tensorflow 索引检查点文件的路径或 URL(例如 ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 要使用的模型配置,而不是自动加载的配置。在以下情况下,可以自动加载配置:

    • 该模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 要使用的状态字典,而不是从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 下载的预训练模型配置应缓存到其中的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且忽略。现在默认情况下,所有下载都在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型,这些模型在其自身的建模文件中定义。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键字参数, optional) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键都将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有通用图像分割头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForUniversalSegmentation

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForUniversalSegmentation.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForUniversalSegmentation.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForUniversalSegmentation.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForZeroShotImageClassification

class transformers.AutoModelForZeroShotImageClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有零样本图像分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有零样本图像分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForZeroShotImageClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForZeroShotImageClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的 模型 ID
    • 一个指向 目录 的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个指向 tensorflow 索引检查点文件 的路径或 URL(例如,./tf_model/model.ckpt.index)。在这种情况下,应将 from_tf 设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加的位置参数, optional) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,而不是自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], optional) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果要从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, optional) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型文件中定义的自定义模型。 此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为会有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新都已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键(对应于配置属性)将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有零样本图像分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForZeroShotImageClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForZeroShotImageClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForZeroShotImageClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForZeroShotImageClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForZeroShotImageClassification

class transformers.TFAutoModelForZeroShotImageClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有零样本图像分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有零样本图像分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForZeroShotImageClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForZeroShotImageClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 模型仓库中的预训练模型的模型 ID
    • 一个指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如,./pt_model/pytorch_model.bin)。 在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。 此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, optional) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,而不是自动加载的配置。 当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, optional) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。 现在,所有下载在可能的情况下默认恢复。 将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 要按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型文件中定义的自定义模型。 此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为会有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新都已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键(对应于配置属性)将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有零样本图像分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForZeroShotImageClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForZeroShotImageClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForZeroShotImageClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForZeroShotImageClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForZeroShotObjectDetection

class transformers.AutoModelForZeroShotObjectDetection

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有零样本对象检测头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有零样本对象检测头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForZeroShotObjectDetection

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForZeroShotObjectDetection.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 模型仓库中的预训练模型的 模型 ID
    • 一个指向 目录 的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • 一个指向 tensorflow 索引检查点文件 的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下, from_tf 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型,然后加载 PyTorch 模型要慢。
  • model_args (额外的 positional 参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于替代从保存的权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已存在的缓存版本。 resume_download — 已弃用且被忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 中移除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型,这些模型在其自己的建模文件中定义。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的 keyword 参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有零样本对象检测头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForZeroShotObjectDetection

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForZeroShotObjectDetection.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForZeroShotObjectDetection.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForZeroShotObjectDetection.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

音频

以下自动类可用于以下音频任务。

AutoModelForAudioClassification

class transformers.AutoModelForAudioClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有音频分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有音频分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForAudioClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForAudioClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (其他位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从已保存权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 目录的路径,下载的预训练模型配置应缓存到该目录中,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。现在所有下载在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 要按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上定义的自定义模型在其自己的建模文件中。此选项仅应为您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (其他关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。行为方式取决于是否提供 config 或自动加载:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个对应于配置属性的键都将用于使用提供的 kwargs 值覆盖所述属性。其余不对应于任何配置属性的键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有音频分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForAudioClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForAudioClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForAudioClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForAudioClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForAudioFrameClassification

class transformers.TFAutoModelForAudioClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有音频分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有音频分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForAudioClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForAudioClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID
    • 目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (其他位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,下载的预训练模型配置应缓存到该目录中,如果不想使用标准缓存。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在默认情况下,所有下载都会在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 一个代理服务器字典,用于按协议或端点使用,例如:{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中定义。此选项仅应针对您信任的存储库设置为 True,并且您已阅读其中的代码,因为它将在您的本地计算机上执行 Hub 上的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数,可选)— 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为会有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设配置的所有相关更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性对应,将用于使用提供的 kwargs 值覆盖所述属性。不与任何配置属性对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带有音频分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForAudioClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForAudioClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForAudioClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForAudioClassification.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

TFAutoModelForAudioFrameClassification

class transformers.AutoModelForAudioFrameClassification

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有音频帧(token)分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有音频帧(token)分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForAudioFrameClassification

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForAudioFrameClassification.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个tensorflow 索引检查点文件的路径或 URL(例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数,可选)— 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以代替自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], optional) — 状态字典,用于代替从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选项。

  • cache_dir (stros.PathLike, optional) — 下载的预训练模型配置应缓存到的目录的路径,如果不想使用标准缓存。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。现在默认情况下,所有下载都会在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 一个代理服务器字典,用于按协议或端点使用,例如:{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许加载 Hub 上自定义的模型文件。 此选项**只应该**在您信任的仓库中并且您已阅读过代码的情况下设置为 True,因为它会在您的本地机器上执行 Hub 上的代码。
  • code_revision (str, optional, defaults to "main") — Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的仓库中。 它可以是分支名称、标签名称或提交 id,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果与配置属性相对应,都将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带音频帧(token)分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForAudioFrameClassification

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForAudioFrameClassification.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForAudioFrameClassification.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForAudioFrameClassification.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForCTC

class transformers.AutoModelForCTC

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个模型类(带连接时序分类头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带连接时序分类头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForCTC

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForCTC.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 模型仓库中的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个tensorflow 索引检查点文件的路径或 url (例如, ./tf_model/model.ckpt.index)。 在这种情况下,应将 from_tf 设置为 True,并且应将配置对象作为 config 参数提供。 此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, optional) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以替代自动加载的配置。 当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], optional) — 一个状态字典,用于代替从已保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,可以使用此选项。 但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, optional) — 下载的预训练模型配置应缓存到的目录的路径,如果不想使用标准缓存。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用并忽略。 现在,所有下载都在可能的情况下默认恢复。 将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 id,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许加载 Hub 上自定义的模型文件。 此选项**只应该**在您信任的仓库中并且您已阅读过代码的情况下设置为 True,因为它会在您的本地机器上执行 Hub 上的代码。
  • code_revision (str, optional, defaults to "main") — Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的仓库中。 它可以是分支名称、标签名称或提交 id,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果与配置属性相对应,都将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带连接时序分类头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForCTC

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForCTC.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForCTC.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForCTC.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForSpeechSeq2Seq

class transformers.AutoModelForSpeechSeq2Seq

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForSpeechSeq2Seq

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForSpeechSeq2Seq.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个 TensorFlow 索引检查点文件的路径或 URL (例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应该设置为 True,并且应该提供一个配置对象作为 config 参数。这种加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型,然后再加载 PyTorch 模型要慢。
  • model_args (额外的positional arguments,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果你想从预训练配置创建模型但加载你自己的权重,可以使用此选项。不过在这种情况下,你应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重 (请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已存在的缓存版本。 resume_download — 已弃用并忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否只查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自己的建模文件中定义。此选项仅应为信任的存储库设置 True,并在其中阅读代码,因为它将在本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的keyword arguments,可选) — 可用于更新配置对象(在加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供了 config 或自动加载了 config

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已经完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果对应于配置属性,都将用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForSpeechSeq2Seq

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForSpeechSeq2Seq.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForSpeechSeq2Seq.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForSpeechSeq2Seq.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForSpeechSeq2Seq

class transformers.TFAutoModelForSpeechSeq2Seq

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForSpeechSeq2Seq

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForSpeechSeq2Seq.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,托管在 huggingface.co 的模型仓库中的预训练模型的模型 ID
    • 指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 指向 PyTorch state_dict 保存文件 的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的args位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 目录的路径,在该目录中应缓存下载的预训练模型配置,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且忽略。现在,所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,所以 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义的模型,这些模型在它们自己的建模文件中定义。此选项仅应为信任的存储库设置为 True,并且您已阅读其中的代码,因为它将在本地计算机上执行 Hub 上的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,所以 revision 可以是 git 允许的任何标识符。
  • kwargs (额外的关键字参数,可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为会有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。与任何配置属性不对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForSpeechSeq2Seq

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForSpeechSeq2Seq.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForSpeechSeq2Seq.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForSpeechSeq2Seq.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForSpeechSeq2Seq

class transformers.FlaxAutoModelForSpeechSeq2Seq

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForSpeechSeq2Seq

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForSpeechSeq2Seq.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,托管在 huggingface.co 的模型仓库中的预训练模型的模型 ID
    • 指向目录的路径,该目录包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 指向 PyTorch state_dict 保存文件 的路径或 URL(例如,./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (额外的args位置参数,可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以替代自动加载的配置。在以下情况下,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 下载的预训练模型配置应缓存到的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重 (参见 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用并忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如: {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理服务器用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在其自身的建模文件中定义。此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (其他关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新都已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个对应于配置属性的键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的模型类之一(带有一个序列到序列的语音到文本建模头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForSpeechSeq2Seq

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForSpeechSeq2Seq.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForSpeechSeq2Seq.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForSpeechSeq2Seq.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForAudioXVector

class transformers.AutoModelForAudioXVector

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(具有通过 x-vector 头的音频检索功能)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(具有通过 x-vector 头的音频检索功能)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForAudioXVector

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForAudioXVector.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是:

    • 一个字符串,huggingface.co 上模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL(例如, ./tf_model/model.ckpt.index)。在这种情况下,应将 from_tf 设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (其他位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但是,在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 下载的预训练模型配置应缓存到的目录路径,如果不想使用标准缓存。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow 检查点保存文件加载模型权重 (参见 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许在 Hub 上自定义模型文件中定义的自定义模型。此选项仅应针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。行为方式取决于是否提供 config 或自动加载配置:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果对应于配置属性,都将用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(具有通过 x-vector 头部的音频检索功能)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForAudioXVector

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForAudioXVector.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForAudioXVector.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForAudioXVector.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForTextToSpectrogram

class transformers.AutoModelForTextToSpectrogram

< >

( *args **kwargs )

AutoModelForTextToWaveform

class transformers.AutoModelForTextToWaveform

< >

( *args **kwargs )

多模态

以下自动类可用于以下多模态任务。

AutoModelForTableQuestionAnswering

class transformers.AutoModelForTableQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(具有表格问答头部)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(具有表格问答头部)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForTableQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google/tapas-base-finetuned-wtq")
>>> model = AutoModelForTableQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 包含使用 save_pretrained() 保存的模型权重的目录的路径,例如 ./my_model_directory/
    • TensorFlow 索引检查点文件的路径或 URL(例如,./tf_model/model.ckpt.index)。在这种情况下,from_tf 应设置为 True,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以代替自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], optional) — 状态字典,用于代替从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,则可以使用此选项。但在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, optional) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且忽略。现在所有下载在可能的情况下都默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上定义的自定义模型在其自己的建模文件中。此选项仅应为设置为 True 用于您信任的存储库,并且您已阅读过代码,因为它将在您的本地机器上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

实例化库中的一个模型类(带有一个表格问答头),从预训练模型。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForTableQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForTableQuestionAnswering.from_pretrained("google/tapas-base-finetuned-wtq")

>>> # Update configuration during loading
>>> model = AutoModelForTableQuestionAnswering.from_pretrained("google/tapas-base-finetuned-wtq", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/tapas_tf_model_config.json")
>>> model = AutoModelForTableQuestionAnswering.from_pretrained(
...     "./tf_model/tapas_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForTableQuestionAnswering

class transformers.TFAutoModelForTableQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(具有表格问答头部)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(具有表格问答头部)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForTableQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google/tapas-base-finetuned-wtq")
>>> model = TFAutoModelForTableQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库中的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL(例如, ./pt_model/pytorch_model.bin)。在这种情况下,应将 from_pt 设置为 True ,并且应将配置对象作为 config 参数提供。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当以下情况时,可以自动加载配置:

    • 该模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型使用 save_pretrained() 保存,并通过提供保存目录重新加载。
    • 该模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers 的 v5 版本中删除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上定义的自定义模型在其自己的建模文件中。此选项仅应为设置为 True 用于您信任的存储库,并且您已阅读过代码,因为它将在您的本地机器上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

实例化库中的一个模型类(带有一个表格问答头),从预训练模型。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForTableQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForTableQuestionAnswering.from_pretrained("google/tapas-base-finetuned-wtq")

>>> # Update configuration during loading
>>> model = TFAutoModelForTableQuestionAnswering.from_pretrained("google/tapas-base-finetuned-wtq", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/tapas_pt_model_config.json")
>>> model = TFAutoModelForTableQuestionAnswering.from_pretrained(
...     "./pt_model/tapas_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForDocumentQuestionAnswering

class transformers.AutoModelForDocumentQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有一个文档问答头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带文档问答头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForDocumentQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("impira/layoutlm-document-qa", revision="52e01b3")
>>> model = AutoModelForDocumentQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是:

    • 一个字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL (例如, ./tf_model/model.ckpt.index)。在这种情况下,from_tf 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (其他位置参数, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以替代自动加载的配置。当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型是通过提供本地目录作为 pretrained_model_name_or_path 加载的,并且在目录中找到了名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], optional) — 一个状态字典,用于替代从保存的权重文件加载的状态字典。

    如果您想从预训练配置创建模型但加载您自己的权重,可以使用此选项。不过在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, optional) — 如果不想使用标准缓存,则下载的预训练模型配置应缓存到的目录路径。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件加载模型权重 (参见 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且已忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 一个代理服务器字典,按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否也返回一个包含缺失键、意外键和错误消息的字典。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许 Hub 上定义的自定义模型在其自己的建模文件中。此选项应仅对您信任的仓库设置为 True,并且您已阅读过其中的代码,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 如果代码与模型的其余部分位于不同的仓库中,则要用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (其他关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。行为方式取决于是否提供了 config 或自动加载了配置:

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设所有相关的配置更新已经完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个对应于配置属性的键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带文档问答头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForDocumentQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForDocumentQuestionAnswering.from_pretrained("impira/layoutlm-document-qa", revision="52e01b3")

>>> # Update configuration during loading
>>> model = AutoModelForDocumentQuestionAnswering.from_pretrained("impira/layoutlm-document-qa", revision="52e01b3", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/layoutlm_tf_model_config.json")
>>> model = AutoModelForDocumentQuestionAnswering.from_pretrained(
...     "./tf_model/layoutlm_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForDocumentQuestionAnswering

class transformers.TFAutoModelForDocumentQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有一个文档问答头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带文档问答头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForDocumentQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("impira/layoutlm-document-qa", revision="52e01b3")
>>> model = TFAutoModelForDocumentQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是:

    • 一个字符串,huggingface.co 上的模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。在这种情况下,from_pt 应该设置为 True,并且应该提供一个配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (其他位置参数, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则应将下载的预训练模型配置缓存到此目录的路径。
  • from_pt (bool, 可选, 默认为 False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否也返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中定义。此选项仅应针对您信任且已阅读代码的存储库设置为 True,因为它将在您的本地机器上执行 Hub 上存在的代码。
  • code_revision (str, 可选, 默认为 "main") — 如果代码与模型的其余部分位于不同的存储库中,则用于 Hub 上代码的特定修订版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统来存储 huggingface.co 上的模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已完成)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果与配置属性对应,将用于使用提供的 kwargs 值覆盖所述属性。不与任何配置属性对应的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库的模型类之一(带文档问答头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForDocumentQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForDocumentQuestionAnswering.from_pretrained("impira/layoutlm-document-qa", revision="52e01b3")

>>> # Update configuration during loading
>>> model = TFAutoModelForDocumentQuestionAnswering.from_pretrained("impira/layoutlm-document-qa", revision="52e01b3", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/layoutlm_pt_model_config.json")
>>> model = TFAutoModelForDocumentQuestionAnswering.from_pretrained(
...     "./pt_model/layoutlm_pytorch_model.bin", from_pt=True, config=config
... )

AutoModelForVisualQuestionAnswering

class transformers.AutoModelForVisualQuestionAnswering

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库的模型类之一(带有视觉问答头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库的模型类之一(带有视觉问答头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForVisualQuestionAnswering

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("dandelin/vilt-b32-finetuned-vqa")
>>> model = AutoModelForVisualQuestionAnswering.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,huggingface.co 上模型仓库中托管的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL(例如,./tf_model/model.ckpt.index)。在这种情况下,应将 from_tf 设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,以代替自动加载的配置。当满足以下条件时,可以自动加载配置:

    • 模型是由库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从保存的权重文件加载的状态字典的状态字典。

    如果您想从预训练配置创建模型但加载自己的权重,则可以使用此选项。但在此情况下,您应检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不想使用标准缓存,则应将下载的预训练模型配置缓存到此目录的路径。
  • from_tf (bool, 可选, 默认为 False) — 从 TensorFlow checkpoint 保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, 可选, 默认为 False) — 是否强制(重新)下载模型权重和配置文件,覆盖已缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。所有下载现在默认在可能的情况下恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], 可选) — 按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理服务器用于每个请求。
  • output_loading_info(bool, 可选, 默认为 False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, 可选, 默认为 False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, 可选, 默认为 "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, 可选, 默认为 False) — 是否允许在 Hub 上自定义模型文件中定义的自定义模型。 此选项仅应针对您信任并在其中阅读过代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上的代码。
  • code_revision (str, 可选, 默认为 "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。 根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键(对应于配置属性)将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

从预训练模型实例化库中的一个模型类(带有视觉问答头)。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForVisualQuestionAnswering

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForVisualQuestionAnswering.from_pretrained("dandelin/vilt-b32-finetuned-vqa")

>>> # Update configuration during loading
>>> model = AutoModelForVisualQuestionAnswering.from_pretrained("dandelin/vilt-b32-finetuned-vqa", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/vilt_tf_model_config.json")
>>> model = AutoModelForVisualQuestionAnswering.from_pretrained(
...     "./tf_model/vilt_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

AutoModelForVision2Seq

class transformers.AutoModelForVision2Seq

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个模型类(带有视觉到文本建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有视觉到文本建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, AutoModelForVision2Seq

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = AutoModelForVision2Seq.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 一个字符串,即托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如 ./my_model_directory/
    • tensorflow 索引检查点文件的路径或 URL(例如, ./tf_model/model.ckpt.index)。 在这种情况下, from_tf 应设置为 True,并且应提供配置对象作为 config 参数。 此加载路径比使用提供的转换脚本将 TensorFlow 检查点转换为 PyTorch 模型并随后加载 PyTorch 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, 可选) — 用于模型的配置,而不是自动加载的配置。 在以下情况下可以自动加载配置:

    • 该模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 该模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 通过提供本地目录作为 pretrained_model_name_or_path 加载模型,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • state_dict (Dict[str, torch.Tensor], 可选) — 用于代替从已保存权重文件加载的状态字典的状态字典。

    如果要从预训练配置创建模型但加载自己的权重,则可以使用此选项。 但是在这种情况下,您应该检查使用 save_pretrained()from_pretrained() 是否不是更简单的选择。

  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_tf (bool, optional, defaults to False) — 从 TensorFlow 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。所有下载现在在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理服务器用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许 Hub 上自定义模型在它们自己的建模文件中定义。 此选项仅应针对您信任的存储库和您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。 它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, optional) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。 根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。 kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖所述属性。 不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

实例化库中的一个模型类(带视觉到文本建模头)从预训练模型。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

默认情况下,模型被设置为评估模式,使用 model.eval() (例如,dropout 模块被禁用)。要训练模型,您应该首先使用 model.train() 将其设置回训练模式。

示例

>>> from transformers import AutoConfig, AutoModelForVision2Seq

>>> # Download model and configuration from huggingface.co and cache.
>>> model = AutoModelForVision2Seq.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = AutoModelForVision2Seq.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a TF checkpoint file instead of a PyTorch model (slower)
>>> config = AutoConfig.from_pretrained("./tf_model/bert_tf_model_config.json")
>>> model = AutoModelForVision2Seq.from_pretrained(
...     "./tf_model/bert_tf_checkpoint.ckpt.index", from_tf=True, config=config
... )

TFAutoModelForVision2Seq

class transformers.TFAutoModelForVision2Seq

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个模型类(带有视觉到文本建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有视觉到文本建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, TFAutoModelForVision2Seq

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = TFAutoModelForVision2Seq.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (str or os.PathLike) — 可以是以下之一:

    • 一个字符串,托管在 huggingface.co 上的模型仓库内的预训练模型的模型 ID
    • 一个目录的路径,其中包含使用 save_pretrained() 保存的模型权重,例如,./my_model_directory/
    • 一个PyTorch state_dict 保存文件的路径或 URL (例如, ./pt_model/pytorch_model.bin)。 在这种情况下,from_pt 应设置为 True,并且应提供配置对象作为 config 参数。 此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, optional) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,而不是自动加载的配置。 当以下情况时,可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (str or os.PathLike, optional) — 缓存下载的预训练模型配置的目录路径,如果不想使用标准缓存。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件中加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存版本(如果存在)。 resume_download — 已弃用且被忽略。所有下载现在在可能的情况下默认恢复。将在 Transformers v5 版本中移除。
  • proxies (Dict[str, str], optional) — 代理服务器字典,用于按协议或端点使用,例如,{'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。 代理服务器用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否同时返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许使用 Hub 上定义的自定义模型及其自己的建模文件。此选项应仅针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加关键字参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如, output_attentions=True)。根据是否提供 config 或自动加载 config,行为有所不同:

    • 如果使用 config 提供了配置,则 **kwargs 将直接传递给底层模型的 __init__ 方法(我们假设已完成对配置的所有相关更新)
    • 如果未提供配置,则 kwargs 将首先传递给配置类初始化函数 (from_pretrained())。与配置属性对应的 kwargs 的每个键将用于使用提供的 kwargs 值覆盖所述属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

实例化库中的一个模型类(带视觉到文本建模头)从预训练模型。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, TFAutoModelForVision2Seq

>>> # Download model and configuration from huggingface.co and cache.
>>> model = TFAutoModelForVision2Seq.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = TFAutoModelForVision2Seq.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = TFAutoModelForVision2Seq.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )

FlaxAutoModelForVision2Seq

class transformers.FlaxAutoModelForVision2Seq

< >

( *args **kwargs )

这是一个通用模型类,当使用 from_pretrained() 类方法或 from_config() 类方法创建时,它将被实例化为库中的一个模型类(带有视觉到文本建模头)。

此类不能使用 __init__() 直接实例化(会引发错误)。

from_config

< >

( **kwargs )

参数

从配置实例化库中的一个模型类(带有视觉到文本建模头)。

注意:从其配置文件加载模型不会加载模型权重。它仅影响模型的配置。使用 from_pretrained() 加载模型权重。

示例

>>> from transformers import AutoConfig, FlaxAutoModelForVision2Seq

>>> # Download configuration from huggingface.co and cache.
>>> config = AutoConfig.from_pretrained("google-bert/bert-base-cased")
>>> model = FlaxAutoModelForVision2Seq.from_config(config)

from_pretrained

< >

( *model_args **kwargs )

参数

  • pretrained_model_name_or_path (stros.PathLike) — 可以是以下之一:

    • 字符串,托管在 huggingface.co 上的模型仓库中的预训练模型的 模型 ID
    • 目录 的路径,其中包含使用 save_pretrained() 保存的模型权重,例如, ./my_model_directory/
    • PyTorch state_dict 保存文件 的路径或 URL(例如, ./pt_model/pytorch_model.bin)。在这种情况下, from_pt 应设置为 True,并且应提供配置对象作为 config 参数。此加载路径比使用提供的转换脚本将 PyTorch 模型转换为 TensorFlow 模型并随后加载 TensorFlow 模型要慢。
  • model_args (附加位置参数, 可选) — 将传递给底层模型的 __init__() 方法。
  • config (PretrainedConfig, optional) — 用于模型的配置,以代替自动加载的配置。在以下情况下可以自动加载配置:

    • 模型是库提供的模型(使用预训练模型的 模型 ID 字符串加载)。
    • 模型是使用 save_pretrained() 保存的,并通过提供保存目录重新加载。
    • 模型通过提供本地目录作为 pretrained_model_name_or_path 加载,并且在目录中找到名为 config.json 的配置 JSON 文件。
  • cache_dir (stros.PathLike, 可选) — 如果不应使用标准缓存,则应在其中缓存下载的预训练模型配置的目录的路径。
  • from_pt (bool, optional, defaults to False) — 从 PyTorch 检查点保存文件加载模型权重(请参阅 pretrained_model_name_or_path 参数的文档字符串)。
  • force_download (bool, optional, defaults to False) — 是否强制(重新)下载模型权重和配置文件,覆盖缓存的版本(如果存在)。 resume_download — 已弃用且被忽略。现在,所有下载在可能的情况下默认恢复。将在 Transformers v5 中删除。
  • proxies (Dict[str, str], optional) — 要按协议或端点使用的代理服务器字典,例如, {'http': 'foo.bar:3128', 'http://hostname': 'foo.bar:4012'}。代理用于每个请求。
  • output_loading_info(bool, optional, defaults to False) — 是否还返回一个字典,其中包含缺失的键、意外的键和错误消息。
  • local_files_only(bool, optional, defaults to False) — 是否仅查看本地文件(例如,不尝试下载模型)。
  • revision (str, optional, defaults to "main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • trust_remote_code (bool, optional, defaults to False) — 是否允许使用 Hub 上定义的自定义模型及其自己的建模文件。此选项应仅针对您信任的存储库以及您已阅读代码的存储库设置为 True,因为它将在您的本地计算机上执行 Hub 上存在的代码。
  • code_revision (str, optional, defaults to "main") — 用于 Hub 上代码的特定修订版本,如果代码与模型的其余部分位于不同的存储库中。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此 revision 可以是 git 允许的任何标识符。
  • kwargs (附加的关键词参数, 可选) — 可用于更新配置对象(加载后)并初始化模型(例如,output_attentions=True)。其行为方式取决于是否提供了 config 或自动加载了 config

    • 如果使用 config 提供了配置,**kwargs 将直接传递给底层模型的 __init__ 方法(我们假设对配置的所有相关更新已经完成)
    • 如果未提供配置,kwargs 将首先传递给配置类初始化函数 (from_pretrained())。kwargs 的每个键,如果对应于配置属性,将用于使用提供的 kwargs 值覆盖该属性。不对应于任何配置属性的剩余键将传递给底层模型的 __init__ 函数。

实例化库中的一个模型类(带视觉到文本建模头)从预训练模型。

要实例化的模型类是根据配置对象的 model_type 属性选择的(作为参数传递或在可能的情况下从 pretrained_model_name_or_path 加载),或者当它缺失时,通过回退到在 pretrained_model_name_or_path 上使用模式匹配

示例

>>> from transformers import AutoConfig, FlaxAutoModelForVision2Seq

>>> # Download model and configuration from huggingface.co and cache.
>>> model = FlaxAutoModelForVision2Seq.from_pretrained("google-bert/bert-base-cased")

>>> # Update configuration during loading
>>> model = FlaxAutoModelForVision2Seq.from_pretrained("google-bert/bert-base-cased", output_attentions=True)
>>> model.config.output_attentions
True

>>> # Loading from a PyTorch checkpoint file instead of a TensorFlow model (slower)
>>> config = AutoConfig.from_pretrained("./pt_model/bert_pt_model_config.json")
>>> model = FlaxAutoModelForVision2Seq.from_pretrained(
...     "./pt_model/bert_pytorch_model.bin", from_pt=True, config=config
... )
< > 更新 在 GitHub 上