文本嵌入推理文档

支持的模型和硬件

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

支持的模型和硬件

我们正在持续扩展对其他模型类型的支持,并计划在未来的更新中包含它们。

支持的嵌入模型

文本嵌入推理目前支持带有绝对位置的 Nomic、BERT、CamemBERT、XLM-RoBERTa 模型,带有 Alibi 位置的 JinaBERT 模型,以及带有 Rope 位置的 Mistral、Alibaba GTE、Qwen2 模型,以及 MPNet、ModernBERT 和 Qwen3。

以下是一些当前支持模型的示例

MTEB 排名 模型大小 模型类型 模型 ID
2 8B(非常昂贵) Qwen3 Qwen/Qwen3-Embedding-8B
4 0.6B Qwen3 Qwen/Qwen3-Embedding-0.6B
6 7B(非常昂贵) Qwen2 Alibaba-NLP/gte-Qwen2-7B-instruct
7 0.5B XLM-RoBERTa intfloat/multilingual-e5-large-instruct
14 1.5B(昂贵) Qwen2 Alibaba-NLP/gte-Qwen2-1.5B-instruct
17 7B(非常昂贵) Mistral Salesforce/SFR-Embedding-2_R
34 0.5B XLM-RoBERTa Snowflake/snowflake-arctic-embed-l-v2.0
40 0.3B Alibaba GTE Snowflake/snowflake-arctic-embed-m-v2.0
51 0.3B Bert WhereIsAI/UAE-Large-V1
不适用 0.4B Alibaba GTE Alibaba-NLP/gte-large-en-v1.5
不适用 0.4B ModernBERT answerdotai/ModernBERT-large
不适用 0.3B NomicBert nomic-ai/nomic-embed-text-v2-moe
不适用 0.1B NomicBert nomic-ai/nomic-embed-text-v1
不适用 0.1B NomicBert nomic-ai/nomic-embed-text-v1.5
不适用 0.1B JinaBERT jinaai/jina-embeddings-v2-base-en
不适用 0.1B JinaBERT jinaai/jina-embeddings-v2-base-code
不适用 0.1B MPNet sentence-transformers/all-mpnet-base-v2

要探索性能最佳的文本嵌入模型列表,请访问大规模文本嵌入基准(MTEB)排行榜

支持的重排序模型和序列分类模型

文本嵌入推理目前支持带有绝对位置的 CamemBERT 和 XLM-RoBERTa 序列分类模型。

以下是一些当前支持模型的示例

任务 模型类型 模型 ID
重排序 XLM-RoBERTa BAAI/bge-reranker-large
重排序 XLM-RoBERTa BAAI/bge-reranker-base
重排序 GTE Alibaba-NLP/gte-multilingual-reranker-base
重排序 ModernBert Alibaba-NLP/gte-reranker-modernbert-base
情感分析 RoBERTa SamLowe/roberta-base-go_emotions

支持的硬件

文本嵌入推理支持在 CPU、图灵 (T4、RTX 2000 系列等)、安培 80 (A100、A30)、安培 86 (A10、A40 等)、Ada Lovelace (RTX 4000 系列等) 和 Hopper (H100) 架构上使用。

该库**不**支持 CUDA 计算能力 < 7.5,这意味着 V100、Titan V、GTX 1000 系列等不支持。

要利用您的 GPU,请确保安装 NVIDIA 容器工具包,并使用 CUDA 版本 12.2 或更高版本的 NVIDIA 驱动程序。

在下表中查找适用于您硬件的适当 Docker 镜像

架构 图像
CPU ghcr.io/huggingface/text-embeddings-inference:cpu-1.8
Volta 不支持
图灵 (T4、RTX 2000 系列等) ghcr.io/huggingface/text-embeddings-inference:turing-1.8(实验性)
安培 80 (A100、A30) ghcr.io/huggingface/text-embeddings-inference:1.8
安培 86 (A10、A40 等) ghcr.io/huggingface/text-embeddings-inference:86-1.8
Ada Lovelace (RTX 4000 系列等) ghcr.io/huggingface/text-embeddings-inference:89-1.8
Hopper (H100) ghcr.io/huggingface/text-embeddings-inference:hopper-1.8(实验性)

警告:由于存在精度问题,Turing 镜像默认关闭 Flash Attention。您可以通过使用 USE_FLASH_ATTENTION=True 环境变量来打开 Flash Attention v1。

< > 在 GitHub 上更新