Inference Providers 文档
文本分类
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
文本分类
文本分类是将标签或类别分配给给定文本的任务。一些用例是情感分析、自然语言推理和评估语法正确性。
有关 text-classification
任务的更多详细信息,请查看其专用页面!您将在其中找到示例和相关材料。
推荐模型
- distilbert/distilbert-base-uncased-finetuned-sst-2-english:一个为情感分析训练的强大模型。
- ProsusAI/finbert:一个专门用于金融情感的情感分析模型。
- cardiffnlp/twitter-roberta-base-sentiment-latest:一个专门用于分析推文的情感分析模型。
- papluca/xlm-roberta-base-language-detection:一个可以分类语言的模型。
- meta-llama/Prompt-Guard-86M:一个可以分类文本生成攻击的模型。
探索所有可用的模型,找到最适合您的模型这里。
使用 API
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key="hf_xxxxxxxxxxxxxxxxxxxxxxxx",
)
result = client.text_classification(
inputs="I like you. I love you",
model="cardiffnlp/twitter-roberta-base-sentiment-latest",
)
API 规范
请求
载荷 | ||
---|---|---|
inputs* | 字符串 | 要分类的文本 |
parameters | 对象 | |
function_to_apply | 枚举 | 可能的值:sigmoid、softmax、none。 |
top_k | 整数 | 指定时,将输出限制为前 K 个最可能的类别。 |
一些选项可以通过将标头传递给 Inference API 进行配置。以下是可用的标头
标头 | ||
---|---|---|
authorization | 字符串 | 形式为 'Bearer: hf_****' 的身份验证标头,其中 hf_**** 是具有 Inference API 权限的个人用户访问令牌。您可以从您的设置页面生成一个。 |
x-use-cache | 布尔值,默认为 true | 推理 API 上有一个缓存层,用于加速我们已经看到的请求。大多数模型都可以使用这些结果,因为它们是确定性的(意味着输出无论如何都是相同的)。但是,如果您使用非确定性模型,则可以设置此参数以防止使用缓存机制,从而产生真正的全新查询。阅读有关缓存的更多信息此处。 |
x-wait-for-model | 布尔值,默认为 false | 如果模型尚未准备就绪,请等待它而不是收到 503 错误。它限制了完成推理所需的请求数量。建议仅在收到 503 错误后才将此标志设置为 true,因为它会将应用程序中的挂起限制在已知位置。阅读有关模型可用性的更多信息此处。 |
有关 Inference API 标头的更多信息,请查看参数指南。
响应
正文 | ||
---|---|---|
(数组) | object[] | 输出是对象数组。 |
label | 字符串 | 预测的类别标签。 |
score | 数字 | 相应的概率。 |