LLM 课程文档

章节末测验

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

章末测验

Ask a Question

1. 语言建模流水线的顺序是什么?

2. 基础 Transformer 模型输出的张量有多少个维度,它们分别是什么?

3. 以下哪项是子词分词的示例?

4. 什么是模型头?

5. 什么是 AutoModel?

6. 批量处理不同长度的序列时需要注意哪些技术?

7. 对序列分类模型输出的 logits 应用 SoftMax 函数的目的是什么?

8. 大部分分词器 API 以哪个方法为中心?

9. 此代码示例中的 result 变量包含什么?

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")

10. 以下代码有什么问题吗?

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")

encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)
< > 在 GitHub 上更新