LLM 课程文档
章节末测验
加入 Hugging Face 社区
并获取增强的文档体验
开始使用
章节末测验
1. 语言建模 pipeline 的顺序是什么?
2. 基础 Transformer 模型输出的 tensor 有多少维度?它们是什么?
3. 以下哪项是 subword tokenization 的示例?
4. 什么是模型 head?
5. 什么是 AutoModel?
6. 当一起 batch 处理不同长度的序列时,需要注意哪些技术?
7. 将 SoftMax 函数应用于序列分类模型输出的 logits 的目的是什么?
8. tokenizer API 的大多数方法都围绕哪个方法展开?
9. 在此代码示例中,result 变量包含什么?
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")
10. 以下代码是否有问题?
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")
encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)