Transformers 文档

FLAN-T5

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

该模型于 2022-10-20 发布,并于 2023-06-20 添加到 Hugging Face Transformers。

FLAN-T5

PyTorch

概述

FLAN-T5 出现在论文 Scaling Instruction-Finetuned Language Models 中,它是 T5 的增强版本,经过了多种任务的微调。

可以直接使用 FLAN-T5 权重,无需对模型进行微调。

>>> from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

>>> model = AutoModelForSeq2SeqLM.from_pretrained("google/flan-t5-small")
>>> tokenizer = AutoTokenizer.from_pretrained("google/flan-t5-small")

>>> inputs = tokenizer("A step by step recipe to make bolognese pasta:", return_tensors="pt")
>>> outputs = model.generate(**inputs)
>>> print(tokenizer.batch_decode(outputs, skip_special_tokens=True))
['Pour a cup of bolognese into a large bowl and add the pasta']

FLAN-T5 包含与 T5 版本 1.1 相同的改进(有关模型改进的完整详情,请参见 此处)。

Google 发布了以下变体:

原始检查点可在 此处找到。

有关所有 API 参考、代码示例和笔记本,请参阅 T5 文档页面。有关 FLAN-T5 训练和评估的更多详细信息,请参阅模型卡。

在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.