Transformers 文档

DINOv2

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

DINOv2

概述

DINOv2 模型由 Maxime Oquab、Timothée Darcet、Théo Moutakanni、Huy Vo、Marc Szafraniec、Vasil Khalidov、Pierre Fernandez、Daniel Haziza、Francisco Massa、Alaaeldin El-Nouby、Mahmoud Assran、Nicolas Ballas、Wojciech Galuba、Russell Howes、Po-Yao Huang、Shang-Wen Li、Ishan Misra、Michael Rabbat、Vasu Sharma、Gabriel Synnaeve、Hu Xu、Hervé Jegou、Julien Mairal、Patrick Labatut、Armand Joulin 和 Piotr Bojanowski 在 DINOv2: Learning Robust Visual Features without Supervision 中提出。DINOv2 是 DINO 的升级版,DINO 是一种应用于 Vision Transformers 的自监督方法。该方法实现了通用的视觉特征,即在图像分布和任务中无需微调即可工作的特征。

论文摘要如下:

自然语言处理中模型在大数据量上进行预训练的最新突破为计算机视觉中类似的 基础模型 开辟了道路。这些模型可以通过生成通用视觉特征(即在图像分布和任务中无需微调即可工作的特征)来大大简化图像在任何系统中的使用。这项工作表明,现有的预训练方法,特别是自监督方法,如果使用来自不同来源的足够精选数据进行训练,就可以生成这样的特征。我们重新审视了现有方法,并将不同的技术结合起来,以在数据和模型大小方面扩展我们的预训练。大多数技术贡献旨在加速和稳定大规模训练。在数据方面,我们提出了一个自动流程来构建一个专用的、多样化的和精选的图像数据集,而不是像自监督文献中通常做的那样使用未经筛选的数据。在模型方面,我们训练了一个具有 10 亿参数的 ViT 模型 (Dosovitskiy et al., 2020),并将其提炼成一系列较小的模型,这些模型在图像和像素级别的大多数基准测试中都超过了目前最好的通用功能 OpenCLIP (Ilharco et al., 2021)。

此模型由 nielsr 贡献。原始代码可以在这里找到。

使用技巧

该模型可以使用 torch.jit.trace 进行追踪,后者利用 JIT 编译来优化模型,使其运行速度更快。请注意,这仍然会产生一些不匹配的元素,原始模型和追踪模型之间的差异约为 1e-4 数量级。

import torch
from transformers import AutoImageProcessor, AutoModel
from PIL import Image
import requests

url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)

processor = AutoImageProcessor.from_pretrained('facebook/dinov2-base')
model = AutoModel.from_pretrained('facebook/dinov2-base')

inputs = processor(images=image, return_tensors="pt")
outputs = model(**inputs)
last_hidden_states = outputs[0]

# We have to force return_dict=False for tracing
model.config.return_dict = False

with torch.no_grad():
    traced_model = torch.jit.trace(model, [inputs.pixel_values])
    traced_outputs = traced_model(inputs.pixel_values)

print((last_hidden_states - traced_outputs[0]).abs().max())

资源

以下是官方 Hugging Face 和社区(🌎 表示)资源列表,可帮助你开始使用 DINOv2。

  • DINOv2 的演示笔记本可以在这里找到。🌎
图像分类

如果你有兴趣提交资源并将其包含在此处,请随时打开 Pull Request,我们将对其进行审查!资源最好展示一些新的东西,而不是重复现有的资源。

Dinov2Config

class transformers.Dinov2Config

< >

( hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 mlp_ratio = 4 hidden_act = 'gelu' hidden_dropout_prob = 0.0 attention_probs_dropout_prob = 0.0 initializer_range = 0.02 layer_norm_eps = 1e-06 image_size = 224 patch_size = 16 num_channels = 3 qkv_bias = True layerscale_value = 1.0 drop_path_rate = 0.0 use_swiglu_ffn = False out_features = None out_indices = None apply_layernorm = True reshape_hidden_states = True **kwargs )

参数

  • hidden_size (int, 可选, 默认为 768) — 编码器层和池化层的维度。
  • num_hidden_layers (int, 可选, 默认为 12) — Transformer 编码器中隐藏层的数量。
  • num_attention_heads (int, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数。
  • mlp_ratio (int, 可选, 默认为 4) — MLP 的隐藏层大小相对于 hidden_size 的比率。
  • hidden_act (strfunction, 可选, 默认为 "gelu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "gelu""relu""selu""gelu_new"
  • hidden_dropout_prob (float, 可选, 默认为 0.0) — 嵌入层、编码器和池化器中所有全连接层的 dropout 概率。
  • attention_probs_dropout_prob (float, 可选, 默认为 0.0) — 注意力概率的 dropout 比率。
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • layer_norm_eps (float, 可选, 默认为 1e-06) — 层归一化层使用的 epsilon 值。
  • image_size (int, 可选, 默认为 224) — 每张图片的大小(分辨率)。
  • patch_size (int, 可选, 默认为 16) — 每个 patch 的大小(分辨率)。
  • num_channels (int, 可选, 默认为 3) — 输入通道数。
  • qkv_bias (bool, 可选, 默认为 True) — 是否向 queries、keys 和 values 添加偏置。
  • layerscale_value (float, 可选, 默认为 1.0) — 用于层缩放的初始值。
  • drop_path_rate (float, 可选, 默认为 0.0) — 每个样本的随机深度率(当应用于残差层的主路径时)。
  • use_swiglu_ffn (bool, 可选, 默认为 False) — 是否使用 SwiGLU 前馈神经网络。
  • out_features (List[str], 可选) — 如果用作 backbone,则为要输出的特征列表。可以是 "stem""stage1""stage2" 等中的任何一个(取决于模型有多少个 stage)。如果未设置且设置了 out_indices,则将默认为相应的 stage。如果未设置且未设置 out_indices,则将默认为最后一个 stage。必须与 stage_names 属性中定义的顺序相同。
  • out_indices (List[int], 可选) — 如果用作骨干网络,则为要输出的特征索引列表。可以是 0、1、2 等中的任何一个(取决于模型有多少个阶段)。如果未设置且设置了 out_features,则默认为相应的阶段。如果未设置且未设置 out_features,则默认为最后一个阶段。必须与 stage_names 属性中定义的顺序相同。
  • apply_layernorm (bool, 可选, 默认为 True) — 如果模型用作骨干网络,是否对特征图应用层归一化。
  • reshape_hidden_states (bool, 可选, 默认为 True) — 如果模型用作骨干网络,是否将特征图reshape为形状为 (batch_size, hidden_size, height, width) 的 4D 张量。 如果为 False,则特征图将是形状为 (batch_size, seq_len, hidden_size) 的 3D 张量。

这是用于存储 Dinov2Model 配置的配置类。 它用于根据指定的参数实例化 Dinov2 模型,定义模型架构。 使用默认值实例化配置将产生与 Dinov2 google/dinov2-base-patch16-224 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 有关更多信息,请阅读 PretrainedConfig 的文档。

示例

>>> from transformers import Dinov2Config, Dinov2Model

>>> # Initializing a Dinov2 dinov2-base-patch16-224 style configuration
>>> configuration = Dinov2Config()

>>> # Initializing a model (with random weights) from the dinov2-base-patch16-224 style configuration
>>> model = Dinov2Model(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config
Pytorch
隐藏 Pytorch 内容

Dinov2Model

class transformers.Dinov2Model

< >

( config: Dinov2Config )

参数

  • config (Dinov2Config) — 具有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。

裸 DINOv2 模型 Transformer 输出原始隐藏状态,顶部没有任何特定的 head。 此模型是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并查阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( pixel_values: Optional = None bool_masked_pos: Optional = None head_mask: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.BaseModelOutputWithPoolingtuple(torch.FloatTensor)

参数

  • pixel_values (形状为 (batch_size, num_channels, height, width)torch.FloatTensor) — 像素值。 像素值可以使用 AutoImageProcessor 获得。 有关详细信息,请参阅 BitImageProcessor.preprocess()
  • bool_masked_pos (形状为 (batch_size, sequence_length)torch.BoolTensor) — 布尔掩码位置。 指示哪些patch被掩码 (1) ,哪些没有 (0)。 仅与预训练相关。
  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor, 可选) — 用于置空自注意力模块的选定头的掩码。 在 [0, 1] 中选择的掩码值:

    • 1 表示 head 未被掩码
    • 0 表示 head 已被掩码
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.modeling_outputs.BaseModelOutputWithPoolingtuple(torch.FloatTensor)

transformers.modeling_outputs.BaseModelOutputWithPoolingtorch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),其中包含各种元素,具体取决于配置 (Dinov2Config) 和输入。

  • last_hidden_state (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor) — 模型最后一层的输出处的隐藏状态序列。

  • pooler_output (形状为 (batch_size, hidden_size)torch.FloatTensor) — 序列的第一个 token(分类 token)的最后一层隐藏状态,在通过用于辅助预训练任务的层进一步处理之后。 例如,对于 BERT 系列模型,这会返回通过线性层和 tanh 激活函数处理后的分类 token。 线性层权重通过预训练期间的下一个句子预测(分类)目标进行训练。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(对于嵌入的输出,如果模型具有嵌入层,则为一个;+ 对于每层的输出,则为一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出处的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

Dinov2Model forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但是应该在此之后调用 Module 实例,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, Dinov2Model
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image", trust_remote_code=True)
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("facebook/dinov2-base")
>>> model = Dinov2Model.from_pretrained("facebook/dinov2-base")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state
>>> list(last_hidden_states.shape)
[1, 257, 768]

Dinov2ForImageClassification

class transformers.Dinov2ForImageClassification

< >

( config: Dinov2Config )

参数

  • config (Dinov2Config) — 具有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。

Dinov2 模型 Transformer,顶部带有图像分类 head(位于 [CLS] token 的最终隐藏状态之上的线性层),例如用于 ImageNet。

此模型是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并查阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( pixel_values: Optional = None head_mask: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.ImageClassifierOutputtuple(torch.FloatTensor)

参数

  • pixel_values (形状为 (batch_size, num_channels, height, width)torch.FloatTensor) — 像素值。 像素值可以使用 AutoImageProcessor 获得。 有关详细信息,请参阅 BitImageProcessor.preprocess()
  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor, 可选) — 用于置空自注意力模块的选定头的掩码。 在 [0, 1] 中选择的掩码值:

    • 1 表示 head 未被掩码
    • 0 表示 head 已被掩码
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。 更多细节请参阅返回张量下的 attentions 部分。
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。 更多细节请参阅返回张量下的 hidden_states 部分。
  • return_dict (bool, optional) — 是否返回一个 ModelOutput 对象而不是一个普通的元组。
  • labels (torch.LongTensor of shape (batch_size,), optional) — 用于计算图像分类/回归损失的标签。 索引应在 [0, ..., config.num_labels - 1] 范围内。 如果 config.num_labels == 1,则计算回归损失(均方误差损失);如果 config.num_labels > 1,则计算分类损失(交叉熵损失)。

返回值

transformers.modeling_outputs.ImageClassifierOutput or tuple(torch.FloatTensor)

一个 transformers.modeling_outputs.ImageClassifierOutput 对象或一个 `torch.FloatTensor` 元组(如果传递了 `return_dict=False` 或当 `config.return_dict=False` 时),包含各种元素,具体取决于配置 (Dinov2Config) 和输入。

  • loss (torch.FloatTensor,形状为 (1,),*可选*,当提供 `labels` 时返回) — 分类(或回归,如果 `config.num_labels==1`)损失。

  • logits (torch.FloatTensor,形状为 (batch_size, config.num_labels)) — 分类(或回归,如果 `config.num_labels==1`)得分(在 SoftMax 之前)。

  • hidden_states (tuple(torch.FloatTensor), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — `torch.FloatTensor` 元组(如果模型有嵌入层,则为嵌入输出一个,加上每个阶段的输出一个),形状为 (batch_size, sequence_length, hidden_size)。 模型在每个阶段输出的隐藏状态(也称为特征图)。

  • attentions (tuple(torch.FloatTensor), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — `torch.FloatTensor` 元组(每层一个),形状为 (batch_size, num_heads, patch_size, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

The Dinov2ForImageClassification 的 forward 方法重写了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但是应该在此之后调用 Module 实例,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, Dinov2ForImageClassification
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image", trust_remote_code=True)
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("facebook/dinov2-small-imagenet1k-1-layer")
>>> model = Dinov2ForImageClassification.from_pretrained("facebook/dinov2-small-imagenet1k-1-layer")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
tabby, tabby cat
JAX
隐藏 JAX 内容

FlaxDinov2Model

class transformers.FlaxDinov2Model

< >

( config: Dinov2Config input_shape = None seed: int = 0 dtype: dtype = <class 'jax.numpy.float32'> _do_init: bool = True **kwargs )

参数

  • config (Dinov2Config) — 模型配置类,包含模型的所有参数。 使用配置文件初始化不会加载与模型相关的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。
  • dtype (jax.numpy.dtype, optional, defaults to jax.numpy.float32) — 计算的数据类型。 可以是 `jax.numpy.float32`、`jax.numpy.float16`(在 GPU 上)和 `jax.numpy.bfloat16`(在 TPU 上)之一。

    这可用于在 GPU 或 TPU 上启用混合精度训练或半精度推理。 如果指定,所有计算都将使用给定的 dtype 执行。

    请注意,这仅指定计算的 dtype,不影响模型参数的 dtype。

    如果您希望更改模型参数的 dtype,请参阅 to_fp16()to_bf16()

裸 Dinov2 模型 Transformer,输出原始隐藏状态,顶部没有任何特定的头部。

此模型继承自 FlaxPreTrainedModel。 查看超类文档以了解库为其所有模型实现的通用方法(例如,从 PyTorch 模型下载、保存和转换权重)。

此模型也是 flax.linen.Module 的子类。 将其用作常规 Flax linen Module,并参阅 Flax 文档以了解与一般用法和行为相关的所有事项。

最后,此模型支持固有的 JAX 功能,例如

__call__

< >

( pixel_values params: dict = None dropout_rng: PRNGKey = None train: bool = False output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_flax_outputs.FlaxBaseModelOutputWithPooling or tuple(torch.FloatTensor)

返回值

transformers.modeling_flax_outputs.FlaxBaseModelOutputWithPooling or tuple(torch.FloatTensor)

一个 transformers.modeling_flax_outputs.FlaxBaseModelOutputWithPooling 对象或一个 `torch.FloatTensor` 元组(如果传递了 `return_dict=False` 或当 `config.return_dict=False` 时),包含各种元素,具体取决于配置 (`<class 'transformers.models.dinov2.configuration_dinov2.Dinov2Config'>`) 和输入。

  • last_hidden_state (`jnp.ndarray`,形状为 `(batch_size, sequence_length, hidden_size)`) — 模型最后一层输出的隐藏状态序列。

  • pooler_output (`jnp.ndarray`,形状为 `(batch_size, hidden_size)`) — 序列的第一个 token(分类 token)的最后一层隐藏状态,通过线性层和 Tanh 激活函数进一步处理。 线性层权重在预训练期间从下一句预测(分类)目标中训练而来。

  • hidden_states (tuple(jnp.ndarray), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — `jnp.ndarray` 元组(嵌入输出一个,加上每层输出一个),形状为 `(batch_size, sequence_length, hidden_size)`。

    模型在每层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(jnp.ndarray), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — `jnp.ndarray` 元组(每层一个),形状为 `(batch_size, num_heads, sequence_length, sequence_length)`。

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

The FlaxDinov2PreTrainedModel 的 forward 方法重写了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但是应该在此之后调用 Module 实例,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, FlaxDinov2Model
>>> from PIL import Image
>>> import requests

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> image_processor = AutoImageProcessor.from_pretrained("facebook/dinov2-base")
>>> model = FlaxDinov2Model.from_pretrained("facebook/dinov2-base")

>>> inputs = image_processor(images=image, return_tensors="np")
>>> outputs = model(**inputs)
>>> last_hidden_states = outputs.last_hidden_state

FlaxDinov2ForImageClassification

class transformers.FlaxDinov2ForImageClassification

< >

( config: Dinov2Config input_shape = None seed: int = 0 dtype: dtype = <class 'jax.numpy.float32'> _do_init: bool = True **kwargs )

参数

  • config (Dinov2Config) — 模型配置类,包含模型的所有参数。 使用配置文件初始化不会加载与模型相关的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。
  • dtype (jax.numpy.dtype, optional, defaults to jax.numpy.float32) — 计算的数据类型。 可以是 `jax.numpy.float32`、`jax.numpy.float16`(在 GPU 上)和 `jax.numpy.bfloat16`(在 TPU 上)之一。

    这可用于在 GPU 或 TPU 上启用混合精度训练或半精度推理。 如果指定,所有计算都将使用给定的 dtype 执行。

    请注意,这仅指定计算的 dtype,不影响模型参数的 dtype。

    如果您希望更改模型参数的 dtype,请参阅 to_fp16()to_bf16()

Dinov2 模型 Transformer,顶部带有图像分类 head(位于 [CLS] token 的最终隐藏状态之上的线性层),例如用于 ImageNet。

此模型继承自 FlaxPreTrainedModel。 查看超类文档以了解库为其所有模型实现的通用方法(例如,从 PyTorch 模型下载、保存和转换权重)。

此模型也是 flax.linen.Module 的子类。 将其用作常规 Flax linen Module,并参阅 Flax 文档以了解与一般用法和行为相关的所有事项。

最后,此模型支持固有的 JAX 功能,例如

__call__

< >

( pixel_values params: dict = None dropout_rng: PRNGKey = None train: bool = False output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_flax_outputs.FlaxSequenceClassifierOutput or tuple(torch.FloatTensor)

返回值

transformers.modeling_flax_outputs.FlaxSequenceClassifierOutput or tuple(torch.FloatTensor)

一个 transformers.modeling_flax_outputs.FlaxSequenceClassifierOutput 对象或一个 `torch.FloatTensor` 元组(如果传递了 `return_dict=False` 或当 `config.return_dict=False` 时),包含各种元素,具体取决于配置 (`<class 'transformers.models.dinov2.configuration_dinov2.Dinov2Config'>`) 和输入。

  • logits (`jnp.ndarray`,形状为 `(batch_size, config.num_labels)`) — 分类(或回归,如果 `config.num_labels==1`)得分(在 SoftMax 之前)。

  • hidden_states (tuple(jnp.ndarray), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — `jnp.ndarray` 元组(嵌入输出一个,加上每层输出一个),形状为 `(batch_size, sequence_length, hidden_size)`。

    模型在每层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(jnp.ndarray), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — `jnp.ndarray` 元组(每层一个),形状为 `(batch_size, num_heads, sequence_length, sequence_length)`。

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

The FlaxDinov2PreTrainedModel 的 forward 方法重写了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但是应该在此之后调用 Module 实例,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, FlaxDinov2ForImageClassification
>>> from PIL import Image
>>> import jax
>>> import requests

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> image_processor = AutoImageProcessor.from_pretrained("facebook/dinov2-base-imagenet1k-1-layer")
>>> model = FlaxDinov2ForImageClassification.from_pretrained("facebook/dinov2-base-imagenet1k-1-layer")

>>> inputs = image_processor(images=image, return_tensors="np")
>>> outputs = model(**inputs)
>>> logits = outputs.logits

>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_class_idx = jax.numpy.argmax(logits, axis=-1)
>>> print("Predicted class:", model.config.id2label[predicted_class_idx.item()])
< > 在 GitHub 上更新