Transformers 文档
ShieldGemma 2
并获得增强的文档体验
开始使用
ShieldGemma 2
概述
ShieldGemma 2 模型由 Google 在一份技术报告中提出。ShieldGemma 2 基于 Gemma 3 构建,是一个拥有 40 亿(4B)参数的模型,可以根据关键类别检查合成图像和自然图像的安全性,以帮助您构建强大的数据集和模型。通过将此模型添加到 Gemma 模型系列,研究人员和开发人员现在可以轻松地将模型中有害内容的风险降至最低,具体定义如下:
- 无露骨色情内容:图像不得包含描绘露骨或图形化性行为的内容(例如,色情、色情裸露、描绘强奸或性侵犯)。
- 无危险内容:图像不得包含促使或鼓励可能造成现实世界伤害的活动的内容(例如,制造枪支和爆炸装置、宣扬恐怖主义、自杀说明)。
- 无暴力/血腥内容:图像不得包含描绘令人震惊、耸人听闻或无谓暴力的内容(例如,过度血腥、对动物的无谓暴力、极端伤害或死亡瞬间)。
我们建议将 ShieldGemma 2 用作视觉语言模型的输入过滤器,或图像生成系统的输出过滤器。为了训练一个强大的图像安全模型,我们策划了自然图像和合成图像的训练数据集,并对 Gemma 3 进行了指令微调,以展示强大的性能。
该模型由Ryan Mullins贡献。
使用示例
- ShieldGemma 2 提供了一个处理器 (Processor),它接受一个
images
列表和一个可选的policies
列表作为输入,并使用提供的聊天模板将这两个列表的乘积构建成一批提示。 - 您可以通过处理器的
custom_policies
参数扩展 ShieldGemma 的内置策略。使用与内置策略相同的键将用您的自定义定义覆盖该策略。 - ShieldGemma 2 不支持 Gemma 3 使用的图像裁剪功能。
基于内置策略的分类
from PIL import Image
import requests
from transformers import AutoProcessor, ShieldGemma2ForImageClassification
model_id = "google/shieldgemma-2-4b-it"
model = ShieldGemma2ForImageClassification.from_pretrained(model_id, device_map="auto")
processor = AutoProcessor.from_pretrained(model_id)
url = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/bee.jpg"
image = Image.open(requests.get(url, stream=True).raw)
inputs = processor(images=[image], return_tensors="pt").to(model.device)
output = model(**inputs)
print(output.probabilities)
基于自定义策略的分类
from PIL import Image
import requests
from transformers import AutoProcessor, ShieldGemma2ForImageClassification
model_id = "google/shieldgemma-2-4b-it"
model = ShieldGemma2ForImageClassification.from_pretrained(model_id, device_map="auto")
processor = AutoProcessor.from_pretrained(model_id)
url = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/bee.jpg"
image = Image.open(requests.get(url, stream=True).raw)
custom_policies = {
"key_a": "descrition_a",
"key_b": "descrition_b",
}
inputs = processor(
images=[image],
custom_policies=custom_policies,
policies=["dangerous", "key_a", "key_b"],
return_tensors="pt",
).to(model.device)
output = model(**inputs)
print(output.probabilities)
ShieldGemma2Processor
class transformers.ShieldGemma2Processor
< source >( image_processor tokenizer chat_template = None image_seq_length = 256 policy_definitions = None **kwargs )
ShieldGemma2Config
class transformers.ShieldGemma2Config
< source >( text_config = None vision_config = None mm_tokens_per_image: int = 256 boi_token_index: int = 255999 eoi_token_index: int = 256000 image_token_index: int = 262144 initializer_range: float = 0.02 **kwargs )
参数
- text_config (
Union[ShieldGemma2TextConfig, dict]
, 可选) — 文本骨干的配置对象。 - vision_config (
Union[AutoConfig, dict]
, 可选) — 自定义视觉配置或字典。 - mm_tokens_per_image (
int
, 可选, 默认为 256) — 每个图像嵌入的标记数量。 - boi_token_index (
int
, 可选, 默认为 255999) — 用于包裹图像提示的图像起始标记索引。 - eoi_token_index (
int
, 可选, 默认为 256000) — 用于包裹图像提示的图像结束标记索引。 - image_token_index (
int
, 可选, 默认为 262144) — 用于编码图像提示的图像标记索引。 - initializer_range (
float
, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
这是存储 ShieldGemma2ForImageClassification 配置的配置类。它用于根据指定参数实例化 ShieldGemma2ForImageClassification,定义模型架构。使用默认值实例化配置将产生与 shieldgemma-2-4b-it 相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请参阅 PretrainedConfig 的文档。
示例
>>> from transformers import ShieldGemma2ForConditionalGeneration, ShieldGemma2Config, SiglipVisionConfig, ShieldGemma2TextConfig
>>> # Initializing a Siglip-like vision config
>>> vision_config = SiglipVisionConfig()
>>> # Initializing a ShieldGemma2 Text config
>>> text_config = ShieldGemma2TextConfig()
>>> # Initializing a ShieldGemma2 gemma-3-4b style configuration
>>> configuration = ShieldGemma2Config(vision_config, text_config)
>>> # Initializing a model from the gemma-3-4b style configuration
>>> model = ShieldGemma2TextConfig(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
ShieldGemma2ForImageClassification
class transformers.ShieldGemma2ForImageClassification
< source >( config: ShieldGemma2Config )
参数
- config (ShieldGemma2Config) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只加载配置。请查看 from_pretrained() 方法以加载模型权重。
Shieldgemma2 模型,其顶部带有一个图像分类头,例如用于 ImageNet。
此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。
此模型也是 PyTorch torch.nn.Module 子类。将其作为常规 PyTorch 模块使用,并参考 PyTorch 文档以了解与一般用法和行为相关的所有事项。
forward
< source >( input_ids: typing.Optional[torch.LongTensor] = None pixel_values: typing.Optional[torch.FloatTensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.LongTensor] = None past_key_values: typing.Union[list[torch.FloatTensor], transformers.cache_utils.Cache, NoneType] = None token_type_ids: typing.Optional[torch.LongTensor] = None cache_position: typing.Optional[torch.LongTensor] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None logits_to_keep: typing.Union[int, torch.Tensor] = 0 **lm_kwargs )
参数
- input_ids (形状为
(batch_size, sequence_length)
的torch.LongTensor
,可选) — 词汇表中输入序列标记的索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- pixel_values (形状为
(batch_size, num_channels, image_size, image_size)
的torch.FloatTensor
,可选) — 对应于输入图像的张量。像素值可以使用{image_processor_class}
获取。有关详细信息,请参阅{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
处理图像)。 - attention_mask (形状为
(batch_size, sequence_length)
的torch.Tensor
,可选) — 遮罩,用于避免对填充标记索引执行注意力。遮罩值选择在[0, 1]
之间:- 1 表示**未被遮罩**的标记,
- 0 表示**被遮罩**的标记。
- position_ids (形状为
(batch_size, sequence_length)
的torch.LongTensor
,可选) — 每个输入序列标记在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]
。 - past_key_values (
Union[list[torch.FloatTensor], ~cache_utils.Cache, NoneType]
) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括模型在解码前期返回的past_key_values
,当use_cache=True
或config.use_cache=True
时。允许两种格式:
- Cache 实例,请参阅我们的 kv cache 指南;
- 长度为
config.n_layers
的tuple(torch.FloatTensor)
元组,每个元组包含 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)
的张量。这也称为传统缓存格式。
模型将输出与输入相同的缓存格式。如果未传入
past_key_values
,则将返回传统缓存格式。如果使用
past_key_values
,用户可以选择仅输入最后一个input_ids
(那些没有将其过去键值状态提供给此模型的)形状为(batch_size, 1)
,而不是所有input_ids
形状为(batch_size, sequence_length)
。 - token_type_ids (形状为
(batch_size, sequence_length)
的torch.LongTensor
,可选) — 分段标记索引,指示输入的第一个和第二个部分。索引选择在[0, 1]
之间:- 0 对应于**句子 A** 标记,
- 1 对应于**句子 B** 标记。
- cache_position (形状为
(sequence_length)
的torch.LongTensor
,可选) — 描绘输入序列标记在序列中位置的索引。与position_ids
不同,此张量不受填充影响。它用于在正确位置更新缓存并推断完整的序列长度。 - inputs_embeds (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
,可选) — 可选地,您可以直接传入嵌入表示,而不是传入input_ids
。如果您想对如何将input_ids
索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制权,这将很有用。 - labels (形状为
(batch_size, sequence_length)
的torch.LongTensor
,可选) — 用于计算遮罩语言建模损失的标签。索引应为[0, ..., config.vocab_size]
或 -100 (请参阅input_ids
文档字符串)。索引设置为-100
的标记将被忽略(遮罩),损失仅针对标签在[0, ..., config.vocab_size]
中的标记计算。 - use_cache (
bool
, 可选) — 如果设置为True
,将返回past_key_values
键值状态,可用于加速解码(参见past_key_values
)。 - output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
, 可选) — 是否返回 ModelOutput 而不是纯元组。 - logits_to_keep (
Union[int, torch.Tensor]
, 默认为0
) — 如果是int
,则计算最后logits_to_keep
个标记的逻辑值。如果是0
,则计算所有input_ids
的逻辑值(特殊情况)。生成时只需要最后一个标记的逻辑值,仅计算该标记可以节省内存,这对于长序列或大词汇量非常重要。如果是torch.Tensor
,则必须是对应于序列长度维度中要保留的索引的一维张量。这在使用打包张量格式(批次和序列长度的单维度)时很有用。
ShieldGemma2ForImageClassification 的 forward 方法,覆盖了 __call__
特殊方法。
尽管前向传播的配方需要在此函数中定义,但应在此之后调用 Module
实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
示例
>>> from transformers import AutoImageProcessor, ShieldGemma2ForImageClassification
>>> import torch
>>> from datasets import load_dataset
>>> dataset = load_dataset("huggingface/cats-image")
>>> image = dataset["test"]["image"][0]
>>> image_processor = AutoImageProcessor.from_pretrained("google/gemma-3-4b")
>>> model = ShieldGemma2ForImageClassification.from_pretrained("google/gemma-3-4b")
>>> inputs = image_processor(image, return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
...