LLM 课程文档

Encoder 模型

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Encoder 模型

Ask a Question

Encoder 模型仅使用 Transformer 模型的编码器。在每个阶段,注意力层都可以访问初始句子中的所有单词。这些模型的特点通常是具有“双向”注意力,并且通常被称为自编码模型

这些模型的预训练通常围绕某种方式破坏给定的句子(例如,通过屏蔽其中的随机单词)并让模型负责查找或重建初始句子。

Encoder 模型最适合需要理解完整句子的任务,例如句子分类、命名实体识别(更普遍的词分类)和抽取式问答。

此模型系列的代表包括

< > 在 GitHub 上更新