LLM 课程文档

章末测验

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始

章末测验

Ask a Question

本章涵盖了很多内容!如果您没有掌握所有细节,请不要担心;接下来的章节将帮助您理解其内部工作原理。

不过,首先,让我们测试一下您在本章中学到的知识!

1. 探索 Hub 并查找 roberta-large-mnli checkpoint。它执行什么任务?

2. 以下代码将返回什么?

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

3. 以下代码示例中应该用什么替换 … ?

from transformers import pipeline

filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")

4. 为什么此代码会失败?

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")

5. “迁移学习”是什么意思?

6. 判断对错?语言模型通常不需要标签进行预训练。

7. 选择最能描述“模型”、“架构”和“权重”这些术语的句子。

8. 您会使用以下哪种类型的模型来完成提示并生成文本?

9. 您会使用以下哪种类型的模型来总结文本?

10. 您会使用以下哪种类型的模型来根据某些标签对文本输入进行分类?

11. 模型中观察到的偏见可能来自哪些来源?

< > 在 GitHub 上更新

总结