timm 文档

大模型迁移 (BiT)

Hugging Face's logo
加入 Hugging Face 社区

并获得增强型文档体验

开始使用

大规模迁移学习 (BiT)

大规模迁移学习 (BiT) 是一种预训练方法,它在大型监督源数据集上进行预训练,并在目标任务上微调权重。模型在 JFT-300M 数据集上进行训练。此集合中包含的微调模型在 ImageNet 上进行微调。

如何在图像上使用此模型?

要加载预训练模型

>>> import timm
>>> model = timm.create_model('resnetv2_101x1_bitm', pretrained=True)
>>> model.eval()

要加载和预处理图像

>>> import urllib
>>> from PIL import Image
>>> from timm.data import resolve_data_config
>>> from timm.data.transforms_factory import create_transform

>>> config = resolve_data_config({}, model=model)
>>> transform = create_transform(**config)

>>> url, filename = ("https://github.com/pytorch/hub/raw/master/images/dog.jpg", "dog.jpg")
>>> urllib.request.urlretrieve(url, filename)
>>> img = Image.open(filename).convert('RGB')
>>> tensor = transform(img).unsqueeze(0) # transform and add batch dimension

要获取模型预测

>>> import torch
>>> with torch.no_grad():
...     out = model(tensor)
>>> probabilities = torch.nn.functional.softmax(out[0], dim=0)
>>> print(probabilities.shape)
>>> # prints: torch.Size([1000])

要获取前 5 个预测类名

>>> # Get imagenet class mappings
>>> url, filename = ("https://raw.githubusercontent.com/pytorch/hub/master/imagenet_classes.txt", "imagenet_classes.txt")
>>> urllib.request.urlretrieve(url, filename) 
>>> with open("imagenet_classes.txt", "r") as f:
...     categories = [s.strip() for s in f.readlines()]

>>> # Print top categories per image
>>> top5_prob, top5_catid = torch.topk(probabilities, 5)
>>> for i in range(top5_prob.size(0)):
...     print(categories[top5_catid[i]], top5_prob[i].item())
>>> # prints class names and probabilities like:
>>> # [('Samoyed', 0.6425196528434753), ('Pomeranian', 0.04062102362513542), ('keeshond', 0.03186424449086189), ('white wolf', 0.01739676296710968), ('Eskimo dog', 0.011717947199940681)]

将模型名称替换为您要使用的变体,例如 resnetv2_101x1_bitm。您可以在此页面顶部的模型摘要中找到 ID。

要使用此模型提取图像特征,请按照 timm 特征提取示例 操作,只需更改要使用的模型名称即可。

如何微调此模型?

您可以通过更改分类器(最后一层)来微调任何预训练模型。

>>> model = timm.create_model('resnetv2_101x1_bitm', pretrained=True, num_classes=NUM_FINETUNE_CLASSES)

要在您自己的数据集上进行微调,您必须编写训练循环或调整 timm 的训练脚本 以使用您的数据集。

如何训练此模型?

您可以按照 timm 食谱脚本 从头开始训练新模型。

引用

@misc{kolesnikov2020big,
      title={Big Transfer (BiT): General Visual Representation Learning}, 
      author={Alexander Kolesnikov and Lucas Beyer and Xiaohua Zhai and Joan Puigcerver and Jessica Yung and Sylvain Gelly and Neil Houlsby},
      year={2020},
      eprint={1912.11370},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}
< > 在 GitHub 上更新