Inference Providers 文档

特征提取

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

特征提取

特征提取是将文本转换为向量(通常称为“嵌入”)的任务。

示例应用

  • 检索与查询最相关的文档(用于 RAG 应用)。
  • 根据文档与查询的相似性重新排序文档列表。
  • 计算两个句子之间的相似度。

有关 feature-extraction 任务的更多详细信息,请查看其专用页面!您将在其中找到示例和相关材料。

推荐模型

浏览所有可用模型,找到最适合您的模型 此处

使用 API

from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="hf-inference",
    api_key="hf_xxxxxxxxxxxxxxxxxxxxxxxx",
)

result = client.feature_extraction(
    inputs="Today is a sunny day and I will get some ice cream.",
    model="intfloat/multilingual-e5-large-instruct",
)

API 规范

请求

载荷
inputs* unknown 以下之一
         (#1) string
         (#2) string[]
normalize boolean
prompt_name string 应该用于编码的 prompt 的名称。如果未设置,则不会应用任何 prompt。必须是 sentence-transformers 配置 prompts 字典中的键。例如,如果 prompt_name 为 “query” 且 prompts 为 {“query”: “query: ”, …},则句子 “What is the capital of France?” 将被编码为 “query: What is the capital of France?”,因为 prompt 文本将添加到任何要编码的文本之前。
truncate boolean
truncation_direction enum 可能的值:Left, Right。

一些选项可以通过将标头传递给 Inference API 进行配置。以下是可用的标头

标头
authorization string 'Bearer: hf_****' 形式的身份验证标头,其中 hf_**** 是具有 Inference API 权限的个人用户访问令牌。您可以从您的设置页面生成一个。
x-use-cache boolean,默认为 true Inference API 上有一个缓存层,用于加速我们已经看到的请求。大多数模型可以使用这些结果,因为它们是确定性的(意味着输出无论如何都是相同的)。但是,如果您使用非确定性模型,则可以设置此参数以防止使用缓存机制,从而产生真正的全新查询。阅读有关缓存的更多信息此处
x-wait-for-model boolean,默认为 false 如果模型尚未准备好,请等待它而不是接收 503 错误。它限制了完成推理所需的请求数量。建议仅在收到 503 错误后才将此标志设置为 true,因为它会将应用程序中的挂起限制在已知位置。阅读有关模型可用性的更多信息此处

有关 Inference API 标头的更多信息,请查看指南中的参数。

响应

正文
(数组) array[] 输出是数组的数组。
< > 在 GitHub 上更新