Huggingface.js 文档

类:HfInference

Hugging Face's logo
加入 Hugging Face 社区

并获取增强型文档体验的访问权限

开始

类: HfInference

层次结构

  • TaskWithNoAccessToken

    HfInference

构造函数

constructor

new HfInference(accessToken?, defaultOptions?): HfInference

参数

名称 类型 默认值
accessToken 字符串 ""
defaultOptions 选项 {}

返回值

HfInference

在以下文件中定义

inference/src/HfInference.ts:28

属性

accessToken

私有的 只读 accessToken: 字符串

定义在

inference/src/HfInference.ts:25


audioClassification

audioClassification: (args: { data: Blob | ArrayBuffer ; endpointUrl?: 字符串 ; model?: 字符串 }, options?: 选项) => Promise<audioClassificationReturn>

类型声明

▸ (args, options?): Promise<audioClassificationReturn>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制音频数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<AudioClassificationReturn>

定义于

inference/src/tasks/audio/audioClassification.ts:30


audioToAudio

audioToAudio: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string }, options?: Options) => Promise<AudioToAudioReturn>

类型声明

▸ (args, options?): Promise<AudioToAudioReturn>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制音频数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<AudioToAudioReturn>

定义在

inference/src/tasks/audio/audioToAudio.ts:35


自动语音识别

自动语音识别: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string }, options?: Options) => Promise<AutomaticSpeechRecognitionOutput>

类型声明

▸ (args, options?): Promise<AutomaticSpeechRecognitionOutput>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制音频数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<AutomaticSpeechRecognitionOutput>

定义于

inference/src/tasks/audio/自动语音识别.ts:23


chatCompletion

chatCompletion: (args: {}, options?: Options) => Promise<ChatCompletionOutput>

类型声明

▸ (args, options?): Promise<ChatCompletionOutput>

参数
名称 类型
args 对象
options? 选项
返回值

Promise<ChatCompletionOutput>

定义于

inference/src/tasks/nlp/chatCompletion.ts:10


chatCompletionStream

chatCompletionStream: (args: {}, options?: Options) => AsyncGenerator<ChatCompletionStreamOutput, any, unknown>

类型声明

▸ (args, options?): AsyncGenerator<ChatCompletionStreamOutput, any, unknown>

参数
名称 类型
args 对象
options? 选项
返回值

AsyncGenerator<ChatCompletionStreamOutput, any, unknown>

定义于

inference/src/tasks/nlp/chatCompletionStream.ts:8


defaultOptions

私有 只读 defaultOptions: Options

定义于

inference/src/HfInference.ts:26


documentQuestionAnswering

documentQuestionAnswering: (args: { endpointUrl?: string ; inputs: { image: Blob | ArrayBuffer ; question: string } ; model?: string }, options?: Options) => Promise<DocumentQuestionAnsweringOutput>

类型声明

▸ (args, options?): Promise<DocumentQuestionAnsweringOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.image Blob | ArrayBuffer 原始图像您可以使用浏览器中的原生动態File,或者在node中通过new Blob([buffer]),或者是base64图像new Blob([btoa(base64String)]),甚至可以使用await (await fetch('...')).blob()
args.inputs.question 字符串 -
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<;《DocumentQuestionAnsweringOutput>

定义在

inference/src/tasks/multimodal/documentQuestionAnswering.ts:42


特征提取

特征提取: (args: { endpointUrl?: string ; inputs: string | string[] ; model?: string }, options?: Options) => Promise<《FeatureExtractionOutput>

类型声明

▸ (args, options?): Promise<《FeatureExtractionOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 | 字符串[] 输入是一个字符串或字符串列表,从中提取特征。输入:"这是一个快乐的人",
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<FeatureExtractionOutput>

定义于

inference/src/tasks/nlp/featureExtraction.ts:24


fillMask

fillMask: (args: { endpointUrl?: string ; inputs: string ; model?: string }, options?: Options) => Promise<FillMaskOutput>

类型声明

▸ (args, options?): Promise<FillMaskOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 -
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<FillMaskOutput>

定义于

inference/src/tasks/nlp/fillMask.ts:31


图像分类

图像分类: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string }, options?: Options) => Promise<ImageClassificationOutput>

类型声明

▸ (args, options?): Promise\<ImageClassificationOutput>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制图像数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<ImageClassificationOutput>

定义于

inference/src/tasks/cv/imageClassification.ts:29


图像分割

图像分割: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string }, options?: Options) => Promise<ImageSegmentationOutput>

类型声明

▸ (args, options?): Promise<ImageSegmentationOutput>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制图像数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<ImageSegmentationOutput>

定义于

inference/src/tasks/cv/imageSegmentation.ts:33


图像到图像

图像到图像: (args: { endpointUrl?: string ; inputs: Blob | ArrayBuffer ; model?: string ; parameters?: { guess_mode?: boolean ; guidance_scale?: number ; height?: number ; negative_prompt?: string ; num_inference_steps?: number ; prompt?: string ; strength?: number ; width?: number } }, options?: Options) => Promise<Blob>

类型声明

▸ (args, options?): Promise<Blob>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs Blob | ArrayBuffer 初始图像条件
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
args.parameters? 对象 -
args.parameters.guess_mode? 布尔值 guess_mode只在ControlNet模型中有效,默认值为False。在此模式下,ControlNet编码器会尽力识别输入图像的内容,即使移除了所有提示。建议使用3.0到5.0之间的guidance_scale
args.parameters.guidance_scale? 数字 指导比例:更高的指导比例鼓励生成与文本prompt紧密相关的图像,通常以牺牲较低的图像质量为代价。
args.parameters.height? 数字 生成的图像高度(像素)
args.parameters.negative_prompt? 字符串 图像生成的可选负面提示
args.parameters.num_inference_steps? 数字 去噪步数。更多的去噪步骤通常会导致图像质量更高,但推理速度会变慢。
args.parameters.prompt? 字符串 引导图像生成的文本提示
args.parameters.strength? 数字 strength参数只在SD img2img和alt diffusion img2img模型中有效。概念上意味着要将参考image进行多少转换。必须在0到1之间。image将被用作起点,增加更多噪声使strength增大。去噪步数取决于初始添加的噪声量。当strength为1时,添加的噪声将是最大的,去噪过程将在num_inference_steps中指定的完整次数迭代中运行。因此,值为1实际上忽略了image
args.parameters.width? 数字 生成的图像宽度(像素)
options? 选项 -
返回值

Promise<Blob>

定义于

inference/src/tasks/cv/imageToImage.ts:61


imageToText

imageToText: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string }, options?: Options) => Promise<ImageToTextOutput>

类型声明

▸ (args, options?): Promise<ImageToTextOutput>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制图像数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise <ImageToTextOutput>

定义于

inference/src/tasks/cv/imageToText.ts:22


物体检测

物体检测: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string }, options?: Options) => Promise <ObjectDetectionOutput>

类型声明

▸ (args, options?): Promise <ObjectDetectionOutput>

参数
名称 类型 描述
args 对象 -
args.data Blob | ArrayBuffer 二进制图像数据
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<ObjectDetectionOutput>

定义于

inference/src/tasks/cv/objectDetection.ts:39


问答

· 问答: (args: { endpointUrl?: string ; inputs: { context: string ; question: string } ; model?: string }, options?: Options) => Promise<QuestionAnsweringOutput>

类型声明

▸ (args, options?): Promise<QuestionAnsweringOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.context 字符串 -
args.inputs.question 字符串 -
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<QuestionAnsweringOutput>

定义于

inference/src/tasks/nlp/questionAnswering.ts:34


请求

请求: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string ; parameters?: Record\<string, unknown> } | { endpointUrl?: string ; inputs: unknown ; model?: string ; parameters?: Record\<string, unknown> } | {}, options?: Options & { chatCompletion?: boolean ; task?: string ; taskHint?: InferenceTask }) => Promise\<unknown>

类型声明

▸ (args, options?): Promise\<unknown>

参数
名称 类型
args { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string ; parameters?: Record\<string, unknown> } | { endpointUrl?: string ; inputs: unknown ; model?: string ; parameters?: Record\<string, unknown> } | {}
options? Options & { chatCompletion?: boolean ; task?: string ; taskHint?: InferenceTask }
返回值

Promise<unknown>

定义于

inference/src/tasks/custom/request.ts:7


句子相似度

句子相似度: (args: { endpointUrl?: string ; inputs: Record<string, unknown> | Record<string, unknown>[] ; model?: string }, options?: Options) => Promise<SentenceSimilarityOutput>

类型声明

▸ (args, options?): Promise<SentenceSimilarityOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs Record<string, unknown> | Record<string, unknown>[] 输入参数根据模型而异。例如,在使用 sentence-transformers/paraphrase-xlm-r-multilingual-v1 时,输入将会包含一个 source_sentence 字符串和一个字符串数组 sentences
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<SentenceSimilarityOutput>

定义于

inference/src/tasks/nlp/sentenceSimilarity.ts:24


streamingRequest

streamingRequest: (args: { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string ; parameters?: Record<string, unknown> } | { endpointUrl?: string ; inputs: unknown ; model?: string ; parameters?: Record<string, unknown> } | {}, options?: Options & { chatCompletion?: boolean ; task?: string ; taskHint?: InferenceTask }) => AsyncGenerator<unknown, any, unknown>

类型声明

▸ (args, options?): AsyncGenerator<unknown, any, unknown>

参数
名称 类型
args { data: Blob | ArrayBuffer ; endpointUrl?: string ; model?: string ; parameters?: Record\<string, unknown> } | { endpointUrl?: string ; inputs: unknown ; model?: string ; parameters?: Record\<string, unknown> } | {}
options? Options & { chatCompletion?: boolean ; task?: string ; taskHint?: InferenceTask }
返回值

AsyncGenerator<unknown, any, unknown>

定义于

inference/src/tasks/custom/streamingRequest.ts:9


summarization

summarization: (args: { endpointUrl?: string ; inputs: string ; model?: string ; parameters?: { max_length?: number ; max_time?: number ; min_length?: number ; repetition_penalty?: number ; temperature?: number ; top_k?: number ; top_p?: number } }, options?: Options) => Promise<SummarizationOutput>

类型声明

▸ (args, options?): Promise<SummarizationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 待总结的字符串
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
args.parameters? 对象 -
args.parameters.max_length? 数字 默认:None。定义输出摘要的最大token长度的整数。
args.parameters.max_time? 数字 (默认:无)。浮点数(0-120.0)。查询应最大花费的时间(以秒为单位)。网络可能引起一些开销,因此这将是软限制。
args.parameters.min_length? 数字 (默认:无)。整数,用于定义输出摘要的token的最小长度。
args.parameters.repetition_penalty? 数字 (默认:无)。浮点数(0.0-100.0)。某个token在生成过程中使用得越频繁,在后续生成迭代中不被选中的惩罚就越大。
args.parameters.temperature? 数字 (默认:1.0)。浮点数(0.0-100.0)。采样操作的温度。1表示常规采样,0表示始终选择最高分的token,100.0则接近均匀概率。
args.parameters.top_k? 数字 (默认:无)。整数,用于定义在采样操作中考虑的前top个token,以创建新文本。
args.parameters.top_p? 数字 (默认:无)。浮点数,用于定义在文本生成采样操作中考虑的token。添加token到样本中,其可能性从高到低增加,直到概率总和大于top_p。
options? 选项 -
返回值

Promise<SummarizationOutput>

定义于

inference/src/tasks/nlp/summarization.ts:52


tableQuestionAnswering

tableQuestionAnswering: (args: { endpointUrl?: string ; inputs: { query: string ; table: Record<string, string[]> } ; model?: string }, options?: Options) => Promise<TableQuestionAnsweringOutput>

类型声明

▸ (args, options?): Promise<TableQuestionAnsweringOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.query 字符串 你想要询问表的纯文本查询
args.inputs.table Record<string, string[]> 用一个字典的列表表示的数据表,其中条目是列标题,列表是所有值,所有列表必须具有相同的大小。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回

Promise<TableQuestionAnsweringOutput>

定义于

inference/src/tasks/nlp/tableQuestionAnswering.ts:40


tabularClassification

tabularClassification: (args: { endpointUrl?: string ; inputs: { data: Record<string, string[]> } ; model?: string }, options?: Options) => Promise<TabularClassificationOutput>

类型定义

▸ (args, options?): Promise<TabularClassificationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.data Record<string, string[]> 用一个字典的列表表示的数据表,其中条目是列标题,列表是所有值,所有列表必须具有相同的大小。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<TabularClassificationOutput>

定义于

inference/src/tasks/tabular/tabularClassification.ts:24


tabularRegression

tabularRegression: (args: { endpointUrl?: string ; inputs: { data: Record<string, string[]> } ; model?: string }, options?: Options) => Promise<TabularRegressionOutput>

类型声明

▸ (args, options?): Promise<TabularRegressionOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.data Record<string, string[]> 用一个字典的列表表示的数据表,其中条目是列标题,列表是所有值,所有列表必须具有相同的大小。
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<TabularRegressionOutput>

定义于

在 inference/src/tasks/tabular/tabularRegression.ts:24


textClassification

textClassification: (args: { endpointUrl?: string ; inputs: string ; model?: string }, options?: Options) => Promise<TextClassificationOutput>

类型声明

▸ (args, options?): Promise<TextClassificationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 待分类的字符串
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<TextClassificationOutput>

定义于

inference/src/tasks/nlp/textClassification.ts:26


textGeneration

textGeneration: (args: {}, options?: Options) => Promise<TextGenerationOutput>

类型声明

▸ (args, options?): Promise<TextGenerationOutput>

参数
名称 类型
args 对象
options? 选项
返回值

Promise<TextGenerationOutput>

定义于

inference/src/tasks/nlp/textGeneration.ts:12


textGenerationStream

textGenerationStream: (args: {}, options?: Options) => AsyncGenerator<TextGenerationStreamOutput, any, unknown>

类型声明

▸ (args, options?): AsyncGenerator<TextGenerationStreamOutput, any, unknown>

参数
名称 类型
args 对象
options? 选项
返回值

AsyncGenerator<TextGenerationStreamOutput, any, unknown>

定义在

inference/src/tasks/nlp/textGenerationStream.ts:88


textToImage

textToImage: (args: { endpointUrl?: string ; inputs: string ; model?: string ; parameters?: { guidance_scale?: number ; height?: number ; negative_prompt?: string ; num_inference_steps?: number ; width?: number } }, options?: Options) => Promise<Blob>

类型声明

▸ (args, options?): Promise<Blob>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 从文本生成图像的文本
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
args.parameters? 对象 -
args.parameters.guidance_scale? 数字 指导比例:更高的指导比例鼓励生成与文本prompt紧密相关的图像,通常以牺牲较低的图像质量为代价。
args.parameters.height? 数字 生成的图像高度(像素)
args.parameters.negative_prompt? 字符串 图像生成的可选负面提示
args.parameters.num_inference_steps? 数字 去噪步数。更多的去噪步骤通常会导致图像质量更高,但推理速度会变慢。
args.parameters.width? 数字 生成的图像宽度(像素)
options? 选项 -
返回

Promise<Blob>

定义于

inference/src/tasks/cv/textToImage.ts:41


textToSpeech

textToSpeech: (args: { endpointUrl?: string ; inputs: string ; model?: string }, options?: Options) => Promise<Blob>

类型声明

▸ (args, options?): Promise<Blob>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 生成音频的文本
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<Blob>

定义于

inference/src/tasks/audio/textToSpeech.ts:18


tokenClassification

tokenClassification: (args: { endpointUrl?: string ; inputs: string ; model?: string ; parameters?: { aggregation_strategy?: "none" | "simple" | "first" | "average" | "max" } }, options?: Options) => Promise<TokenClassificationOutput>

类型声明

▸ (args, options?): Promise<TokenClassificationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 待分类的字符串
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
args.parameters? 对象 -
args.parameters.aggregation_strategy? “none” | “simple” | “first” | “average” | “max” (默认:simple)。存在几种聚合策略:none:每个标记都进行分类,不进行进一步聚合。simple:根据默认架构(B-、I- 标签相似时合并)。first:与simple策略相似,除了单词不能以不同的标签结尾。在存在歧义时,单词将使用第一个标记的标签。average:与simple策略相似,除了单词不能以不同的标签结尾。分数在标记之间平均然后应用最大标签。max:与simple策略相似,除了单词不能以不同的标签结尾。单词实体将是分数最高的标记。
options? 选项 -
返回值

Promise<TokenClassificationOutput>

定义于

inference/src/tasks/nlp/tokenClassification.ts:57


translation

translation: (args: { endpointUrl?: string ; inputs: string | string[] ; model?: string }, options?: Options) => Promise<TranslationOutput>

类型定义

▸ (args, options?): Promise<TranslationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 | 字符串[] 待翻译的字符串
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<TranslationOutput>

定义于

在 inference/src/tasks/nlp/translation.ts:24


visualQuestionAnswering

visualQuestionAnswering: (args: { endpointUrl?: string ; inputs: { image: Blob | ArrayBuffer ; question: string } ; model?: string }, options?: Options) => Promise<VisualQuestionAnsweringOutput>

类型声明

▸ (args, options?): Promise<VisualQuestionAnsweringOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.image Blob | ArrayBuffer 原始图像您可以使用浏览器中的原生动態File,或者在node中通过new Blob([buffer]),或者是base64图像new Blob([btoa(base64String)]),甚至可以使用await (await fetch('...')).blob()
args.inputs.question 字符串 -
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
options? 选项 -
返回值

Promise<VisualQuestionAnsweringOutput>

定义于

inference/src/tasks/multimodal/visualQuestionAnswering.ts:32


zeroShotClassification

zeroShotClassification: (args: { endpointUrl?: string ; inputs: string | string[] ; model?: string ; parameters: { candidate_labels: string[] ; multi_label?: boolean } }, options?: Options) => Promise<ZeroShotClassificationOutput>

类型声明

▸ (args, options?): Promise<ZeroShotClassificationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 字符串 | 字符串[] 一个字符串或字符串列表
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
args.parameters 对象 -
args.parameters.candidate_labels 字符串[] 一系列潜在类别输入。 (最多10个candidate_labels,更多的话只需要运行多次请求,使用过多的candidate_labels结果可能会误导。如果您想保持完全相同,可以简单地运行multi_label=True并在您的端进行缩放。
args.parameters.multi_label? 布尔值 (默认: false) 一个布尔值,当类别可以重叠时设置为True
options? 选项 -
返回值

Promise<ZeroShotClassificationOutput>

定义于

inference/src/tasks/nlp/zeroShotClassification.ts:34


ZeroShotImageClassification

zeroShotImageClassification: (args: { endpointUrl?: string ; inputs: { image: Blob | ArrayBuffer } ; model?: string ; parameters: { candidate_labels: string[] } }, options?: Options) => Promise<ZeroShotImageClassificationOutput>

类型定义

▸ (args, options?): Promise<ZeroShotImageClassificationOutput>

参数
名称 类型 描述
args 对象 -
args.endpointUrl? 字符串 要使用端点的URL。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认端点。如果指定,将使用此URL而不是默认端点。
args.inputs 对象 -
args.inputs.image Blob | ArrayBuffer 二进制图像数据
args.model? 字符串 要使用的模型。如果未指定,将调用 huggingface.co/api/tasks 获取任务的默认模型。/!\ 过时的行为允许这可以是一个URL,但这是不推荐的,将来将会被删除。请使用 endpointUrl 参数代替。
args.parameters 对象 -
args.parameters.candidate_labels 字符串[] 输入可能类别的字符串列表。(最大10个)
options? 选项 -
返回

Promise<ZeroShotImageClassificationOutput>

定义于

inference/src/tasks/cv/zeroShotImageClassification.ts:33

方法

端点

端点(endpointUrl): HfInferenceEndpoint

返回与指定端点相关联的 HfInference 的副本。

参数

名称 类型
endpointUrl 字符串

返回值

HfInferenceEndpoint

定义于

inference/src/HfInference.ts:45

< > 更新于GitHub