LLM 课程文档

章节末测验

Hugging Face's logo
加入 Hugging Face 社区

并获取增强的文档体验

开始使用

章节末测验

Ask a Question

1. 语言建模 pipeline 的顺序是什么?

2. 基础 Transformer 模型输出的 tensor 有多少维度?它们是什么?

3. 以下哪项是 subword tokenization 的示例?

4. 什么是模型 head?

5. 什么是 AutoModel?

6. 当一起 batch 处理不同长度的序列时,需要注意哪些技术?

7. 将 SoftMax 函数应用于序列分类模型输出的 logits 的目的是什么?

8. tokenizer API 的大多数方法都围绕哪个方法展开?

9. 在此代码示例中,result 变量包含什么?

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")

10. 以下代码是否有问题?

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")

encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)
< > Update on GitHub