Transformers 文档
FLAN-T5
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
FLAN-T5
概述
FLAN-T5 在论文 Scaling Instruction-Finetuned Language Models 中发布 - 它是 T5 的增强版本,已在多种任务的混合数据上进行了微调。
用户可以直接使用 FLAN-T5 的权重,无需对模型进行微调。
>>> from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
>>> model = AutoModelForSeq2SeqLM.from_pretrained("google/flan-t5-small")
>>> tokenizer = AutoTokenizer.from_pretrained("google/flan-t5-small")
>>> inputs = tokenizer("A step by step recipe to make bolognese pasta:", return_tensors="pt")
>>> outputs = model.generate(**inputs)
>>> print(tokenizer.batch_decode(outputs, skip_special_tokens=True))
['Pour a cup of bolognese into a large bowl and add the pasta']
FLAN-T5 包含了与 T5 1.1 版本相同的改进(关于模型改进的完整细节,请参见此处)。
Google 发布了以下变体:
原始的检查点可以在这里找到。
请参阅 T5 的文档页面,获取所有 API 参考、代码示例和笔记本。有关 FLAN-T5 训练和评估的更多详情,请参阅模型卡。