pipelines
Pipelines 为运行机器学习模型提供了高级、易于使用的 API。
示例: 使用 pipeline
函数实例化 pipeline。
import { pipeline } from '@huggingface/transformers';
const classifier = await pipeline('sentiment-analysis');
const output = await classifier('I love transformers!');
// [{'label': 'POSITIVE', 'score': 0.999817686}]
- pipelines
- 静态
- .Pipeline ⇐
Callable
new Pipeline(options)
.dispose()
:DisposeType
._call(...args)
- .TextClassificationPipeline
new TextClassificationPipeline(options)
._call()
:TextClassificationPipelineCallback
- .TokenClassificationPipeline
new TokenClassificationPipeline(options)
._call()
:TokenClassificationPipelineCallback
- .QuestionAnsweringPipeline
new QuestionAnsweringPipeline(options)
._call()
:QuestionAnsweringPipelineCallback
- .FillMaskPipeline
new FillMaskPipeline(options)
._call()
:FillMaskPipelineCallback
- .Text2TextGenerationPipeline
new Text2TextGenerationPipeline(options)
._key
:’generated_text’
._call()
:Text2TextGenerationPipelineCallback
- .SummarizationPipeline
new SummarizationPipeline(options)
._key
:’summary_text’
- .TranslationPipeline
new TranslationPipeline(options)
._key
:’translation_text’
- .TextGenerationPipeline
new TextGenerationPipeline(options)
._call()
:TextGenerationPipelineCallback
- .ZeroShotClassificationPipeline
new ZeroShotClassificationPipeline(options)
.model
:any
._call()
:ZeroShotClassificationPipelineCallback
- .FeatureExtractionPipeline
new FeatureExtractionPipeline(options)
._call()
:FeatureExtractionPipelineCallback
- .ImageFeatureExtractionPipeline
new ImageFeatureExtractionPipeline(options)
._call()
:ImageFeatureExtractionPipelineCallback
- .AudioClassificationPipeline
new AudioClassificationPipeline(options)
._call()
:AudioClassificationPipelineCallback
- .ZeroShotAudioClassificationPipeline
new ZeroShotAudioClassificationPipeline(options)
._call()
:ZeroShotAudioClassificationPipelineCallback
- .AutomaticSpeechRecognitionPipeline
new AutomaticSpeechRecognitionPipeline(options)
._call()
:AutomaticSpeechRecognitionPipelineCallback
- .ImageToTextPipeline
new ImageToTextPipeline(options)
._call()
:ImageToTextPipelineCallback
- .ImageClassificationPipeline
new ImageClassificationPipeline(options)
._call()
:ImageClassificationPipelineCallback
- .ImageSegmentationPipeline
new ImageSegmentationPipeline(options)
._call()
:ImageSegmentationPipelineCallback
- .ZeroShotImageClassificationPipeline
new ZeroShotImageClassificationPipeline(options)
._call()
:ZeroShotImageClassificationPipelineCallback
- .ObjectDetectionPipeline
new ObjectDetectionPipeline(options)
._call()
:ObjectDetectionPipelineCallback
- .ZeroShotObjectDetectionPipeline
new ZeroShotObjectDetectionPipeline(options)
._call()
:ZeroShotObjectDetectionPipelineCallback
- .DocumentQuestionAnsweringPipeline
new DocumentQuestionAnsweringPipeline(options)
._call()
:DocumentQuestionAnsweringPipelineCallback
- .TextToAudioPipeline
new TextToAudioPipeline(options)
._call()
:TextToAudioPipelineCallback
- .ImageToImagePipeline
new ImageToImagePipeline(options)
._call()
:ImageToImagePipelineCallback
- .DepthEstimationPipeline
new DepthEstimationPipeline(options)
._call()
:DepthEstimationPipelineCallback
.pipeline(task, [model], [options])
⇒*
- .Pipeline ⇐
- 内部
~ImagePipelineInputs
:string
|RawImage
|URL
~AudioPipelineInputs
:string
|URL
|Float32Array
|Float64Array
~BoundingBox
:Object
~Disposable
⇒Promise.<void>
~TextPipelineConstructorArgs
:Object
~ImagePipelineConstructorArgs
:Object
~TextImagePipelineConstructorArgs
:Object
~TextClassificationPipelineType
⇒Promise.<(TextClassificationOutput|Array<TextClassificationOutput>)>
~TokenClassificationPipelineType
⇒Promise.<(TokenClassificationOutput|Array<TokenClassificationOutput>)>
~QuestionAnsweringPipelineType
⇒Promise.<(QuestionAnsweringOutput|Array<QuestionAnsweringOutput>)>
~FillMaskPipelineType
⇒Promise.<(FillMaskOutput|Array<FillMaskOutput>)>
~Text2TextGenerationPipelineType
⇒Promise.<(Text2TextGenerationOutput|Array<Text2TextGenerationOutput>)>
~SummarizationPipelineType
⇒Promise.<(SummarizationOutput|Array<SummarizationOutput>)>
~TranslationPipelineType
⇒Promise.<(TranslationOutput|Array<TranslationOutput>)>
~TextGenerationPipelineType
⇒Promise.<(TextGenerationOutput|Array<TextGenerationOutput>)>
~ZeroShotClassificationPipelineType
⇒Promise.<(ZeroShotClassificationOutput|Array<ZeroShotClassificationOutput>)>
~FeatureExtractionPipelineType
⇒Promise.<Tensor>
~ImageFeatureExtractionPipelineType
⇒Promise.<Tensor>
~AudioClassificationPipelineType
⇒Promise.<(AudioClassificationOutput|Array<AudioClassificationOutput>)>
~ZeroShotAudioClassificationPipelineType
⇒Promise.<(Array<ZeroShotAudioClassificationOutput>|Array<Array<ZeroShotAudioClassificationOutput>>)>
~Chunk
:Object
~AutomaticSpeechRecognitionPipelineType
⇒Promise.<(AutomaticSpeechRecognitionOutput|Array<AutomaticSpeechRecognitionOutput>)>
~ImageToTextPipelineType
⇒Promise.<(ImageToTextOutput|Array<ImageToTextOutput>)>
~ImageClassificationPipelineType
⇒Promise.<(ImageClassificationOutput|Array<ImageClassificationOutput>)>
~ImageSegmentationPipelineType
⇒Promise.<Array<ImageSegmentationPipelineOutput>>
~ZeroShotImageClassificationPipelineType
⇒Promise.<(Array<ZeroShotImageClassificationOutput>|Array<Array<ZeroShotImageClassificationOutput>>)>
~ObjectDetectionPipelineType
⇒Promise.<(ObjectDetectionPipelineOutput|Array<ObjectDetectionPipelineOutput>)>
~ZeroShotObjectDetectionPipelineType
⇒Promise.<(Array<ZeroShotObjectDetectionOutput>|Array<Array<ZeroShotObjectDetectionOutput>>)>
~DocumentQuestionAnsweringPipelineType
⇒Promise.<(DocumentQuestionAnsweringOutput|Array<DocumentQuestionAnsweringOutput>)>
~TextToAudioPipelineConstructorArgs
:Object
~TextToAudioPipelineType
⇒Promise.<TextToAudioOutput>
~ImageToImagePipelineType
⇒Promise.<(RawImage|Array<RawImage>)>
~DepthEstimationPipelineType
⇒Promise.<(DepthEstimationPipelineOutput|Array<DepthEstimationPipelineOutput>)>
~AllTasks
:*
- 静态
pipelines.Pipeline ⇐ <code> Callable </code>
Pipeline 类是所有 pipelines 继承的类。有关不同 pipelines 共享的方法,请参阅此类。
类型:pipelines
的静态类
继承自:Callable
- .Pipeline ⇐
Callable
new Pipeline(options)
.dispose()
:DisposeType
._call(...args)
new Pipeline(options)
创建一个新的 Pipeline。
参数 | 类型 | 默认值 | 描述 |
---|---|---|---|
options | Object | 包含以下属性的对象 | |
[options.task] | string | pipeline 的任务。用于指定子任务。 | |
[options.model] | PreTrainedModel | pipeline 使用的模型。 | |
[options.tokenizer] | PreTrainedTokenizer |
| pipeline 使用的分词器(如果有)。 |
[options.processor] | Processor |
| pipeline 使用的处理器(如果有)。 |
pipeline.dispose() : <code> DisposeType </code>
类型:Pipeline
的实例方法
pipeline._call(...args)
此方法应在子类中实现,以提供可调用对象的功能。
类型:Pipeline
的实例方法
覆盖:_call
抛出:
Error
如果子类未实现 `_call` 方法。
参数 | 类型 |
---|---|
...args | Array.<any> |
pipelines.TextClassificationPipeline
文本分类 pipeline,使用任何 ModelForSequenceClassification
。
示例: 情感分析,使用 Xenova/distilbert-base-uncased-finetuned-sst-2-english
。
const classifier = await pipeline('sentiment-analysis', 'Xenova/distilbert-base-uncased-finetuned-sst-2-english');
const output = await classifier('I love transformers!');
// [{ label: 'POSITIVE', score: 0.999788761138916 }]
示例: 多语言情感分析,使用 Xenova/bert-base-multilingual-uncased-sentiment
(并返回前 5 个类别)。
const classifier = await pipeline('sentiment-analysis', 'Xenova/bert-base-multilingual-uncased-sentiment');
const output = await classifier('Le meilleur film de tous les temps.', { top_k: 5 });
// [
// { label: '5 stars', score: 0.9610759615898132 },
// { label: '4 stars', score: 0.03323351591825485 },
// { label: '3 stars', score: 0.0036155181005597115 },
// { label: '1 star', score: 0.0011325967498123646 },
// { label: '2 stars', score: 0.0009423971059732139 }
// ]
示例: 毒性评论分类,使用 Xenova/toxic-bert
(并返回所有类别)。
const classifier = await pipeline('text-classification', 'Xenova/toxic-bert');
const output = await classifier('I hate you!', { top_k: null });
// [
// { label: 'toxic', score: 0.9593140482902527 },
// { label: 'insult', score: 0.16187334060668945 },
// { label: 'obscene', score: 0.03452680632472038 },
// { label: 'identity_hate', score: 0.0223250575363636 },
// { label: 'threat', score: 0.019197041168808937 },
// { label: 'severe_toxic', score: 0.005651099607348442 }
// ]
类型:pipelines
的静态类
- .TextClassificationPipeline
new TextClassificationPipeline(options)
._call()
:TextClassificationPipelineCallback
new TextClassificationPipeline(options)
创建一个新的 TextClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
textClassificationPipeline._call() : <code> TextClassificationPipelineCallback </code>
类型:TextClassificationPipeline
的实例方法
pipelines.TokenClassificationPipeline
命名实体识别 pipeline,使用任何 ModelForTokenClassification
。
示例: 使用 Xenova/bert-base-NER
执行命名实体识别。
const classifier = await pipeline('token-classification', 'Xenova/bert-base-NER');
const output = await classifier('My name is Sarah and I live in London');
// [
// { entity: 'B-PER', score: 0.9980202913284302, index: 4, word: 'Sarah' },
// { entity: 'B-LOC', score: 0.9994474053382874, index: 9, word: 'London' }
// ]
示例: 使用 Xenova/bert-base-NER
执行命名实体识别(并返回所有标签)。
const classifier = await pipeline('token-classification', 'Xenova/bert-base-NER');
const output = await classifier('Sarah lives in the United States of America', { ignore_labels: [] });
// [
// { entity: 'B-PER', score: 0.9966587424278259, index: 1, word: 'Sarah' },
// { entity: 'O', score: 0.9987385869026184, index: 2, word: 'lives' },
// { entity: 'O', score: 0.9990072846412659, index: 3, word: 'in' },
// { entity: 'O', score: 0.9988298416137695, index: 4, word: 'the' },
// { entity: 'B-LOC', score: 0.9995510578155518, index: 5, word: 'United' },
// { entity: 'I-LOC', score: 0.9990395307540894, index: 6, word: 'States' },
// { entity: 'I-LOC', score: 0.9986724853515625, index: 7, word: 'of' },
// { entity: 'I-LOC', score: 0.9975294470787048, index: 8, word: 'America' }
// ]
类型:pipelines
的静态类
- .TokenClassificationPipeline
new TokenClassificationPipeline(options)
._call()
:TokenClassificationPipelineCallback
new TokenClassificationPipeline(options)
创建一个新的 TokenClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
tokenClassificationPipeline._call() : <code> TokenClassificationPipelineCallback </code>
类型:TokenClassificationPipeline
的实例方法
pipelines.QuestionAnsweringPipeline
问答 pipeline,使用任何 ModelForQuestionAnswering
。
示例: 使用 Xenova/distilbert-base-uncased-distilled-squad
运行问答。
const answerer = await pipeline('question-answering', 'Xenova/distilbert-base-uncased-distilled-squad');
const question = 'Who was Jim Henson?';
const context = 'Jim Henson was a nice puppet.';
const output = await answerer(question, context);
// {
// answer: "a nice puppet",
// score: 0.5768911502526741
// }
类型:pipelines
的静态类
- .QuestionAnsweringPipeline
new QuestionAnsweringPipeline(options)
._call()
:QuestionAnsweringPipelineCallback
new QuestionAnsweringPipeline(options)
创建一个新的 QuestionAnsweringPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
questionAnsweringPipeline._call() : <code> QuestionAnsweringPipelineCallback </code>
类型:QuestionAnsweringPipeline
的实例方法
pipelines.FillMaskPipeline
掩码语言建模预测 pipeline,使用任何 ModelWithLMHead
。
示例: 使用 Xenova/bert-base-uncased
执行掩码语言建模(又名 “fill-mask”)。
const unmasker = await pipeline('fill-mask', 'Xenova/bert-base-cased');
const output = await unmasker('The goal of life is [MASK].');
// [
// { token_str: 'survival', score: 0.06137419492006302, token: 8115, sequence: 'The goal of life is survival.' },
// { token_str: 'love', score: 0.03902450203895569, token: 1567, sequence: 'The goal of life is love.' },
// { token_str: 'happiness', score: 0.03253183513879776, token: 9266, sequence: 'The goal of life is happiness.' },
// { token_str: 'freedom', score: 0.018736306577920914, token: 4438, sequence: 'The goal of life is freedom.' },
// { token_str: 'life', score: 0.01859794743359089, token: 1297, sequence: 'The goal of life is life.' }
// ]
示例: 使用 Xenova/bert-base-cased
执行掩码语言建模(又名 “fill-mask”)(并返回最佳结果)。
const unmasker = await pipeline('fill-mask', 'Xenova/bert-base-cased');
const output = await unmasker('The Milky Way is a [MASK] galaxy.', { top_k: 1 });
// [{ token_str: 'spiral', score: 0.6299987435340881, token: 14061, sequence: 'The Milky Way is a spiral galaxy.' }]
类型:pipelines
的静态类
- .FillMaskPipeline
new FillMaskPipeline(options)
._call()
:FillMaskPipelineCallback
new FillMaskPipeline(options)
创建一个新的 FillMaskPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
fillMaskPipeline._call() : <code> FillMaskPipelineCallback </code>
类型:FillMaskPipeline
的实例方法
pipelines.Text2TextGenerationPipeline
Text2TextGenerationPipeline 类,用于使用执行文本到文本生成任务的模型生成文本。
示例: 文本到文本生成,使用 Xenova/LaMini-Flan-T5-783M
。
const generator = await pipeline('text2text-generation', 'Xenova/LaMini-Flan-T5-783M');
const output = await generator('how can I become more healthy?', {
max_new_tokens: 100,
});
// [{ generated_text: "To become more healthy, you can: 1. Eat a balanced diet with plenty of fruits, vegetables, whole grains, lean proteins, and healthy fats. 2. Stay hydrated by drinking plenty of water. 3. Get enough sleep and manage stress levels. 4. Avoid smoking and excessive alcohol consumption. 5. Regularly exercise and maintain a healthy weight. 6. Practice good hygiene and sanitation. 7. Seek medical attention if you experience any health issues." }]
类型:pipelines
的静态类
- .Text2TextGenerationPipeline
new Text2TextGenerationPipeline(options)
._key
:’generated_text’
._call()
:Text2TextGenerationPipelineCallback
new Text2TextGenerationPipeline(options)
创建一个新的 Text2TextGenerationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
text2TextGenerationPipeline._key : <code> ’ generated_text ’ </code>
Kind: instance property of Text2TextGenerationPipeline
text2TextGenerationPipeline._call() : <code> Text2TextGenerationPipelineCallback </code>
Kind: instance method of Text2TextGenerationPipeline
pipelines.SummarizationPipeline
用于摘要任务的 pipeline,继承自 Text2TextGenerationPipeline。
Example: 使用 Xenova/distilbart-cnn-6-6
进行摘要。
const generator = await pipeline('summarization', 'Xenova/distilbart-cnn-6-6');
const text = 'The tower is 324 metres (1,063 ft) tall, about the same height as an 81-storey building, ' +
'and the tallest structure in Paris. Its base is square, measuring 125 metres (410 ft) on each side. ' +
'During its construction, the Eiffel Tower surpassed the Washington Monument to become the tallest ' +
'man-made structure in the world, a title it held for 41 years until the Chrysler Building in New ' +
'York City was finished in 1930. It was the first structure to reach a height of 300 metres. Due to ' +
'the addition of a broadcasting aerial at the top of the tower in 1957, it is now taller than the ' +
'Chrysler Building by 5.2 metres (17 ft). Excluding transmitters, the Eiffel Tower is the second ' +
'tallest free-standing structure in France after the Millau Viaduct.';
const output = await generator(text, {
max_new_tokens: 100,
});
// [{ summary_text: ' The Eiffel Tower is about the same height as an 81-storey building and the tallest structure in Paris. It is the second tallest free-standing structure in France after the Millau Viaduct.' }]
类型:pipelines
的静态类
- .SummarizationPipeline
new SummarizationPipeline(options)
._key
:’summary_text’
new SummarizationPipeline(options)
创建一个新的 SummarizationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
summarizationPipeline._key : <code> ’ summary_text ’ </code>
Kind: instance property of SummarizationPipeline
pipelines.TranslationPipeline
将文本从一种语言翻译成另一种语言。
Example: 使用 Xenova/nllb-200-distilled-600M
进行多语言翻译。
有关语言及其对应代码的完整列表,请参阅此处。
const translator = await pipeline('translation', 'Xenova/nllb-200-distilled-600M');
const output = await translator('जीवन एक चॉकलेट बॉक्स की तरह है।', {
src_lang: 'hin_Deva', // Hindi
tgt_lang: 'fra_Latn', // French
});
// [{ translation_text: 'La vie est comme une boîte à chocolat.' }]
Example: 使用 Xenova/m2m100_418M
进行多语言翻译。
有关语言及其对应代码的完整列表,请参阅此处。
const translator = await pipeline('translation', 'Xenova/m2m100_418M');
const output = await translator('生活就像一盒巧克力。', {
src_lang: 'zh', // Chinese
tgt_lang: 'en', // English
});
// [{ translation_text: 'Life is like a box of chocolate.' }]
Example: 使用 Xenova/mbart-large-50-many-to-many-mmt
进行多语言翻译。
有关语言及其对应代码的完整列表,请参阅此处。
const translator = await pipeline('translation', 'Xenova/mbart-large-50-many-to-many-mmt');
const output = await translator('संयुक्त राष्ट्र के प्रमुख का कहना है कि सीरिया में कोई सैन्य समाधान नहीं है', {
src_lang: 'hi_IN', // Hindi
tgt_lang: 'fr_XX', // French
});
// [{ translation_text: 'Le chef des Nations affirme qu 'il n 'y a military solution in Syria.' }]
类型:pipelines
的静态类
- .TranslationPipeline
new TranslationPipeline(options)
._key
:’translation_text’
new TranslationPipeline(options)
创建一个新的 TranslationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
translationPipeline._key : <code> ’ translation_text ’ </code>
Kind: instance property of TranslationPipeline
pipelines.TextGenerationPipeline
使用任何 ModelWithLMHead
或 ModelForCausalLM
的语言生成 pipeline。此 pipeline 预测指定文本提示后将出现的单词。注意:有关生成参数的完整列表,请参阅GenerationConfig
。
Example: 使用 Xenova/distilgpt2
进行文本生成(默认设置)。
const generator = await pipeline('text-generation', 'Xenova/distilgpt2');
const text = 'I enjoy walking with my cute dog,';
const output = await generator(text);
// [{ generated_text: "I enjoy walking with my cute dog, and I love to play with the other dogs." }]
Example: 使用 Xenova/distilgpt2
进行文本生成(自定义设置)。
const generator = await pipeline('text-generation', 'Xenova/distilgpt2');
const text = 'Once upon a time, there was';
const output = await generator(text, {
temperature: 2,
max_new_tokens: 10,
repetition_penalty: 1.5,
no_repeat_ngram_size: 2,
num_beams: 2,
num_return_sequences: 2,
});
// [{
// "generated_text": "Once upon a time, there was an abundance of information about the history and activities that"
// }, {
// "generated_text": "Once upon a time, there was an abundance of information about the most important and influential"
// }]
Example: 使用 Xenova/codegen-350M-mono
运行代码生成。
const generator = await pipeline('text-generation', 'Xenova/codegen-350M-mono');
const text = 'def fib(n):';
const output = await generator(text, {
max_new_tokens: 44,
});
// [{
// generated_text: 'def fib(n):\n' +
// ' if n == 0:\n' +
// ' return 0\n' +
// ' elif n == 1:\n' +
// ' return 1\n' +
// ' else:\n' +
// ' return fib(n-1) + fib(n-2)\n'
// }]
类型:pipelines
的静态类
- .TextGenerationPipeline
new TextGenerationPipeline(options)
._call()
:TextGenerationPipelineCallback
new TextGenerationPipeline(options)
创建一个新的 TextGenerationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
textGenerationPipeline._call() : <code> TextGenerationPipelineCallback </code>
Kind: instance method of TextGenerationPipeline
pipelines.ZeroShotClassificationPipeline
基于 NLI 的零样本分类 pipeline,使用在 NLI(自然语言推理)任务上训练的 ModelForSequenceClassification
。等效于 text-classification
pipelines,但这些模型不需要硬编码的潜在类别数量,它们可以在运行时选择。它通常意味着速度较慢,但更灵活。
Example: 使用 Xenova/mobilebert-uncased-mnli
进行零样本分类。
const classifier = await pipeline('zero-shot-classification', 'Xenova/mobilebert-uncased-mnli');
const text = 'Last week I upgraded my iOS version and ever since then my phone has been overheating whenever I use your app.';
const labels = [ 'mobile', 'billing', 'website', 'account access' ];
const output = await classifier(text, labels);
// {
// sequence: 'Last week I upgraded my iOS version and ever since then my phone has been overheating whenever I use your app.',
// labels: [ 'mobile', 'website', 'billing', 'account access' ],
// scores: [ 0.5562091040482018, 0.1843621307860853, 0.13942646639336376, 0.12000229877234923 ]
// }
Example: 使用 Xenova/nli-deberta-v3-xsmall
进行零样本分类(多标签)。
const classifier = await pipeline('zero-shot-classification', 'Xenova/nli-deberta-v3-xsmall');
const text = 'I have a problem with my iphone that needs to be resolved asap!';
const labels = [ 'urgent', 'not urgent', 'phone', 'tablet', 'computer' ];
const output = await classifier(text, labels, { multi_label: true });
// {
// sequence: 'I have a problem with my iphone that needs to be resolved asap!',
// labels: [ 'urgent', 'phone', 'computer', 'tablet', 'not urgent' ],
// scores: [ 0.9958870956360275, 0.9923963400697035, 0.002333537946160235, 0.0015134138567598765, 0.0010699384208377163 ]
// }
类型:pipelines
的静态类
- .ZeroShotClassificationPipeline
new ZeroShotClassificationPipeline(options)
.model
:any
._call()
:ZeroShotClassificationPipelineCallback
new ZeroShotClassificationPipeline(options)
创建一个新的 ZeroShotClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
zeroShotClassificationPipeline.model : <code> any </code>
Kind: instance property of ZeroShotClassificationPipeline
zeroShotClassificationPipeline._call() : <code> ZeroShotClassificationPipelineCallback </code>
Kind: instance method of ZeroShotClassificationPipeline
pipelines.FeatureExtractionPipeline
特征提取 pipeline,不使用模型头。此 pipeline 从基础 transformer 中提取隐藏状态,可用作下游任务中的特征。
Example: 运行 bert-base-uncased
的特征提取(不进行池化/归一化)。
const extractor = await pipeline('feature-extraction', 'Xenova/bert-base-uncased', { revision: 'default' });
const output = await extractor('This is a simple test.');
// Tensor {
// type: 'float32',
// data: Float32Array [0.05939924716949463, 0.021655935794115067, ...],
// dims: [1, 8, 768]
// }
Example: 运行 bert-base-uncased
的特征提取(进行池化/归一化)。
const extractor = await pipeline('feature-extraction', 'Xenova/bert-base-uncased', { revision: 'default' });
const output = await extractor('This is a simple test.', { pooling: 'mean', normalize: true });
// Tensor {
// type: 'float32',
// data: Float32Array [0.03373778983950615, -0.010106077417731285, ...],
// dims: [1, 768]
// }
Example: 使用 sentence-transformers
模型计算嵌入。
const extractor = await pipeline('feature-extraction', 'Xenova/all-MiniLM-L6-v2');
const output = await extractor('This is a simple test.', { pooling: 'mean', normalize: true });
// Tensor {
// type: 'float32',
// data: Float32Array [0.09094982594251633, -0.014774246141314507, ...],
// dims: [1, 384]
// }
Example: 使用 sentence-transformers
模型计算二元嵌入。
const extractor = await pipeline('feature-extraction', 'Xenova/all-MiniLM-L6-v2');
const output = await extractor('This is a simple test.', { pooling: 'mean', quantize: true, precision: 'binary' });
// Tensor {
// type: 'int8',
// data: Int8Array [49, 108, 24, ...],
// dims: [1, 48]
// }
类型:pipelines
的静态类
- .FeatureExtractionPipeline
new FeatureExtractionPipeline(options)
._call()
:FeatureExtractionPipelineCallback
new FeatureExtractionPipeline(options)
创建一个新的 FeatureExtractionPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
featureExtractionPipeline._call() : <code> FeatureExtractionPipelineCallback </code>
Kind: instance method of FeatureExtractionPipeline
pipelines.ImageFeatureExtractionPipeline
图像特征提取 pipeline,不使用模型头。此 pipeline 从基础 transformer 中提取隐藏状态,可用作下游任务中的特征。
Example: 使用 Xenova/vit-base-patch16-224-in21k
执行图像特征提取。
const image_feature_extractor = await pipeline('image-feature-extraction', 'Xenova/vit-base-patch16-224-in21k');
const url = 'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/cats.png';
const features = await image_feature_extractor(url);
// Tensor {
// dims: [ 1, 197, 768 ],
// type: 'float32',
// data: Float32Array(151296) [ ... ],
// size: 151296
// }
Example: 使用 Xenova/clip-vit-base-patch32
计算图像嵌入。
const image_feature_extractor = await pipeline('image-feature-extraction', 'Xenova/clip-vit-base-patch32');
const url = 'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/cats.png';
const features = await image_feature_extractor(url);
// Tensor {
// dims: [ 1, 512 ],
// type: 'float32',
// data: Float32Array(512) [ ... ],
// size: 512
// }
类型:pipelines
的静态类
- .ImageFeatureExtractionPipeline
new ImageFeatureExtractionPipeline(options)
._call()
:ImageFeatureExtractionPipelineCallback
new ImageFeatureExtractionPipeline(options)
创建一个新的 ImageFeatureExtractionPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | ImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
imageFeatureExtractionPipeline._call() : <code> ImageFeatureExtractionPipelineCallback </code>
Kind: instance method of ImageFeatureExtractionPipeline
pipelines.AudioClassificationPipeline
使用任何 AutoModelForAudioClassification
的音频分类 pipeline。此 pipeline 预测原始波形或音频文件的类别。
Example: 使用 Xenova/wav2vec2-large-xlsr-53-gender-recognition-librispeech
执行音频分类。
const classifier = await pipeline('audio-classification', 'Xenova/wav2vec2-large-xlsr-53-gender-recognition-librispeech');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/jfk.wav';
const output = await classifier(url);
// [
// { label: 'male', score: 0.9981542229652405 },
// { label: 'female', score: 0.001845747814513743 }
// ]
Example: 使用 Xenova/ast-finetuned-audioset-10-10-0.4593
执行音频分类并返回前 4 个结果。
const classifier = await pipeline('audio-classification', 'Xenova/ast-finetuned-audioset-10-10-0.4593');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/cat_meow.wav';
const output = await classifier(url, { top_k: 4 });
// [
// { label: 'Meow', score: 0.5617874264717102 },
// { label: 'Cat', score: 0.22365376353263855 },
// { label: 'Domestic animals, pets', score: 0.1141069084405899 },
// { label: 'Animal', score: 0.08985692262649536 },
// ]
类型:pipelines
的静态类
- .AudioClassificationPipeline
new AudioClassificationPipeline(options)
._call()
:AudioClassificationPipelineCallback
new AudioClassificationPipeline(options)
创建一个新的 AudioClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | AudioPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
audioClassificationPipeline._call() : <code> AudioClassificationPipelineCallback </code>
Kind: instance method of AudioClassificationPipeline
pipelines.ZeroShotAudioClassificationPipeline
使用 ClapModel
的零样本音频分类 pipeline。当您提供音频和一组 candidate_labels
时,此 pipeline 预测音频的类别。
Example: 使用 Xenova/clap-htsat-unfused
执行零样本音频分类。
const classifier = await pipeline('zero-shot-audio-classification', 'Xenova/clap-htsat-unfused');
const audio = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/dog_barking.wav';
const candidate_labels = ['dog', 'vaccum cleaner'];
const scores = await classifier(audio, candidate_labels);
// [
// { score: 0.9993992447853088, label: 'dog' },
// { score: 0.0006007603369653225, label: 'vaccum cleaner' }
// ]
类型:pipelines
的静态类
- .ZeroShotAudioClassificationPipeline
new ZeroShotAudioClassificationPipeline(options)
._call()
:ZeroShotAudioClassificationPipelineCallback
new ZeroShotAudioClassificationPipeline(options)
创建一个新的 ZeroShotAudioClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextAudioPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
zeroShotAudioClassificationPipeline._call() : <code> ZeroShotAudioClassificationPipelineCallback </code>
Kind: ZeroShotAudioClassificationPipeline
的实例方法
pipelines.AutomaticSpeechRecognitionPipeline
旨在提取音频中包含的口语文本的 Pipeline。
Example: 转录英语。
const transcriber = await pipeline('automatic-speech-recognition', 'Xenova/whisper-tiny.en');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/jfk.wav';
const output = await transcriber(url);
// { text: " And so my fellow Americans ask not what your country can do for you, ask what you can do for your country." }
Example: 转录带时间戳的英语。
const transcriber = await pipeline('automatic-speech-recognition', 'Xenova/whisper-tiny.en');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/jfk.wav';
const output = await transcriber(url, { return_timestamps: true });
// {
// text: " And so my fellow Americans ask not what your country can do for you, ask what you can do for your country."
// chunks: [
// { timestamp: [0, 8], text: " And so my fellow Americans ask not what your country can do for you" }
// { timestamp: [8, 11], text: " ask what you can do for your country." }
// ]
// }
Example: 转录带单词级时间戳的英语。
const transcriber = await pipeline('automatic-speech-recognition', 'Xenova/whisper-tiny.en');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/jfk.wav';
const output = await transcriber(url, { return_timestamps: 'word' });
// {
// "text": " And so my fellow Americans ask not what your country can do for you ask what you can do for your country.",
// "chunks": [
// { "text": " And", "timestamp": [0, 0.78] },
// { "text": " so", "timestamp": [0.78, 1.06] },
// { "text": " my", "timestamp": [1.06, 1.46] },
// ...
// { "text": " for", "timestamp": [9.72, 9.92] },
// { "text": " your", "timestamp": [9.92, 10.22] },
// { "text": " country.", "timestamp": [10.22, 13.5] }
// ]
// }
Example: 转录法语。
const transcriber = await pipeline('automatic-speech-recognition', 'Xenova/whisper-small');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/french-audio.mp3';
const output = await transcriber(url, { language: 'french', task: 'transcribe' });
// { text: " J'adore, j'aime, je n'aime pas, je déteste." }
Example: 将法语翻译成英语。
const transcriber = await pipeline('automatic-speech-recognition', 'Xenova/whisper-small');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/french-audio.mp3';
const output = await transcriber(url, { language: 'french', task: 'translate' });
// { text: " I love, I like, I don't like, I hate." }
Example: 转录/翻译超过 30 秒的音频。
const transcriber = await pipeline('automatic-speech-recognition', 'Xenova/whisper-tiny.en');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/ted_60.wav';
const output = await transcriber(url, { chunk_length_s: 30, stride_length_s: 5 });
// { text: " So in college, I was a government major, which means [...] So I'd start off light and I'd bump it up" }
类型:pipelines
的静态类
- .AutomaticSpeechRecognitionPipeline
new AutomaticSpeechRecognitionPipeline(options)
._call()
:AutomaticSpeechRecognitionPipelineCallback
new AutomaticSpeechRecognitionPipeline(options)
创建一个新的 AutomaticSpeechRecognitionPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextAudioPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
automaticSpeechRecognitionPipeline._call() : <code> AutomaticSpeechRecognitionPipelineCallback </code>
Kind: AutomaticSpeechRecognitionPipeline
的实例方法
pipelines.ImageToTextPipeline
图像到文本 pipeline,使用 AutoModelForVision2Seq
。此 pipeline 预测给定图像的标题。
Example: 使用 Xenova/vit-gpt2-image-captioning
为图像生成标题。
const captioner = await pipeline('image-to-text', 'Xenova/vit-gpt2-image-captioning');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/cats.jpg';
const output = await captioner(url);
// [{ generated_text: 'a cat laying on a couch with another cat' }]
Example: 使用 Xenova/trocr-small-handwritten
进行光学字符识别 (OCR)。
const captioner = await pipeline('image-to-text', 'Xenova/trocr-small-handwritten');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/handwriting.jpg';
const output = await captioner(url);
// [{ generated_text: 'Mr. Brown commented icily.' }]
类型:pipelines
的静态类
- .ImageToTextPipeline
new ImageToTextPipeline(options)
._call()
:ImageToTextPipelineCallback
new ImageToTextPipeline(options)
创建一个新的 ImageToTextPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
imageToTextPipeline._call() : <code> ImageToTextPipelineCallback </code>
Kind: ImageToTextPipeline
的实例方法
pipelines.ImageClassificationPipeline
图像分类 pipeline,使用任何 AutoModelForImageClassification
。此 pipeline 预测图像的类别。
Example: 分类图像。
const classifier = await pipeline('image-classification', 'Xenova/vit-base-patch16-224');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/tiger.jpg';
const output = await classifier(url);
// [
// { label: 'tiger, Panthera tigris', score: 0.632695734500885 },
// ]
Example: 分类图像并返回前 n
个类别。
const classifier = await pipeline('image-classification', 'Xenova/vit-base-patch16-224');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/tiger.jpg';
const output = await classifier(url, { top_k: 3 });
// [
// { label: 'tiger, Panthera tigris', score: 0.632695734500885 },
// { label: 'tiger cat', score: 0.3634825646877289 },
// { label: 'lion, king of beasts, Panthera leo', score: 0.00045060308184474707 },
// ]
Example: 分类图像并返回所有类别。
const classifier = await pipeline('image-classification', 'Xenova/vit-base-patch16-224');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/tiger.jpg';
const output = await classifier(url, { top_k: 0 });
// [
// { label: 'tiger, Panthera tigris', score: 0.632695734500885 },
// { label: 'tiger cat', score: 0.3634825646877289 },
// { label: 'lion, king of beasts, Panthera leo', score: 0.00045060308184474707 },
// { label: 'jaguar, panther, Panthera onca, Felis onca', score: 0.00035465499968267977 },
// ...
// ]
类型:pipelines
的静态类
- .ImageClassificationPipeline
new ImageClassificationPipeline(options)
._call()
:ImageClassificationPipelineCallback
new ImageClassificationPipeline(options)
创建一个新的 ImageClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | ImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
imageClassificationPipeline._call() : <code> ImageClassificationPipelineCallback </code>
Kind: ImageClassificationPipeline
的实例方法
pipelines.ImageSegmentationPipeline
图像分割 pipeline,使用任何 AutoModelForXXXSegmentation
。此 pipeline 预测对象的掩码及其类别。
Example: 使用 Xenova/detr-resnet-50-panoptic
执行图像分割。
const segmenter = await pipeline('image-segmentation', 'Xenova/detr-resnet-50-panoptic');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/cats.jpg';
const output = await segmenter(url);
// [
// { label: 'remote', score: 0.9984649419784546, mask: RawImage { ... } },
// { label: 'cat', score: 0.9994316101074219, mask: RawImage { ... } }
// ]
类型:pipelines
的静态类
- .ImageSegmentationPipeline
new ImageSegmentationPipeline(options)
._call()
:ImageSegmentationPipelineCallback
new ImageSegmentationPipeline(options)
创建一个新的 ImageSegmentationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | ImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
imageSegmentationPipeline._call() : <code> ImageSegmentationPipelineCallback </code>
Kind: ImageSegmentationPipeline
的实例方法
pipelines.ZeroShotImageClassificationPipeline
零样本图像分类 pipeline。当您提供图像和一组 candidate_labels
时,此 pipeline 预测图像的类别。
Example: 使用 Xenova/clip-vit-base-patch32
进行零样本图像分类。
const classifier = await pipeline('zero-shot-image-classification', 'Xenova/clip-vit-base-patch32');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/tiger.jpg';
const output = await classifier(url, ['tiger', 'horse', 'dog']);
// [
// { score: 0.9993917942047119, label: 'tiger' },
// { score: 0.0003519294841680676, label: 'horse' },
// { score: 0.0002562698791734874, label: 'dog' }
// ]
类型:pipelines
的静态类
- .ZeroShotImageClassificationPipeline
new ZeroShotImageClassificationPipeline(options)
._call()
:ZeroShotImageClassificationPipelineCallback
new ZeroShotImageClassificationPipeline(options)
创建一个新的 ZeroShotImageClassificationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
zeroShotImageClassificationPipeline._call() : <code> ZeroShotImageClassificationPipelineCallback </code>
Kind: ZeroShotImageClassificationPipeline
的实例方法
pipelines.ObjectDetectionPipeline
对象检测 pipeline,使用任何 AutoModelForObjectDetection
。此 pipeline 预测对象的边界框及其类别。
Example: 使用 Xenova/detr-resnet-50
运行对象检测。
const detector = await pipeline('object-detection', 'Xenova/detr-resnet-50');
const img = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/cats.jpg';
const output = await detector(img, { threshold: 0.9 });
// [{
// score: 0.9976370930671692,
// label: "remote",
// box: { xmin: 31, ymin: 68, xmax: 190, ymax: 118 }
// },
// ...
// {
// score: 0.9984092116355896,
// label: "cat",
// box: { xmin: 331, ymin: 19, xmax: 649, ymax: 371 }
// }]
类型:pipelines
的静态类
- .ObjectDetectionPipeline
new ObjectDetectionPipeline(options)
._call()
:ObjectDetectionPipelineCallback
new ObjectDetectionPipeline(options)
创建一个新的 ObjectDetectionPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | ImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
objectDetectionPipeline._call() : <code> ObjectDetectionPipelineCallback </code>
Kind: ObjectDetectionPipeline
的实例方法
pipelines.ZeroShotObjectDetectionPipeline
零样本对象检测 pipeline。当您提供图像和一组 candidate_labels
时,此 pipeline 预测对象的边界框。
Example: 使用 Xenova/owlvit-base-patch32
进行零样本对象检测。
const detector = await pipeline('zero-shot-object-detection', 'Xenova/owlvit-base-patch32');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/astronaut.png';
const candidate_labels = ['human face', 'rocket', 'helmet', 'american flag'];
const output = await detector(url, candidate_labels);
// [
// {
// score: 0.24392342567443848,
// label: 'human face',
// box: { xmin: 180, ymin: 67, xmax: 274, ymax: 175 }
// },
// {
// score: 0.15129457414150238,
// label: 'american flag',
// box: { xmin: 0, ymin: 4, xmax: 106, ymax: 513 }
// },
// {
// score: 0.13649864494800568,
// label: 'helmet',
// box: { xmin: 277, ymin: 337, xmax: 511, ymax: 511 }
// },
// {
// score: 0.10262022167444229,
// label: 'rocket',
// box: { xmin: 352, ymin: -1, xmax: 463, ymax: 287 }
// }
// ]
Example: 使用 Xenova/owlvit-base-patch32
进行零样本对象检测(返回前 4 个匹配项并设置阈值)。
const detector = await pipeline('zero-shot-object-detection', 'Xenova/owlvit-base-patch32');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/beach.png';
const candidate_labels = ['hat', 'book', 'sunglasses', 'camera'];
const output = await detector(url, candidate_labels, { top_k: 4, threshold: 0.05 });
// [
// {
// score: 0.1606510728597641,
// label: 'sunglasses',
// box: { xmin: 347, ymin: 229, xmax: 429, ymax: 264 }
// },
// {
// score: 0.08935828506946564,
// label: 'hat',
// box: { xmin: 38, ymin: 174, xmax: 258, ymax: 364 }
// },
// {
// score: 0.08530698716640472,
// label: 'camera',
// box: { xmin: 187, ymin: 350, xmax: 260, ymax: 411 }
// },
// {
// score: 0.08349756896495819,
// label: 'book',
// box: { xmin: 261, ymin: 280, xmax: 494, ymax: 425 }
// }
// ]
类型:pipelines
的静态类
- .ZeroShotObjectDetectionPipeline
new ZeroShotObjectDetectionPipeline(options)
._call()
:ZeroShotObjectDetectionPipelineCallback
new ZeroShotObjectDetectionPipeline(options)
创建一个新的 ZeroShotObjectDetectionPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
zeroShotObjectDetectionPipeline._call() : <code> ZeroShotObjectDetectionPipelineCallback </code>
Kind: ZeroShotObjectDetectionPipeline
的实例方法
pipelines.DocumentQuestionAnsweringPipeline
文档问答 pipeline,使用任何 AutoModelForDocumentQuestionAnswering
。输入/输出类似于(抽取式)问答 pipeline;但是,pipeline 将图像(和可选的 OCR 文字/框)作为输入,而不是文本上下文。
Example: 使用 Xenova/donut-base-finetuned-docvqa
回答有关文档的问题。
const qa_pipeline = await pipeline('document-question-answering', 'Xenova/donut-base-finetuned-docvqa');
const image = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/invoice.png';
const question = 'What is the invoice number?';
const output = await qa_pipeline(image, question);
// [{ answer: 'us-001' }]
类型:pipelines
的静态类
- .DocumentQuestionAnsweringPipeline
new DocumentQuestionAnsweringPipeline(options)
._call()
:DocumentQuestionAnsweringPipelineCallback
new DocumentQuestionAnsweringPipeline(options)
创建一个新的 DocumentQuestionAnsweringPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
documentQuestionAnsweringPipeline._call() : <code> DocumentQuestionAnsweringPipelineCallback </code>
Kind: DocumentQuestionAnsweringPipeline
的实例方法
pipelines.TextToAudioPipeline
文本到音频生成 pipeline,使用任何 AutoModelForTextToWaveform
或 AutoModelForTextToSpectrogram
。此 pipeline 从输入文本和可选的其他条件输入生成音频文件。
Example: 使用 Xenova/speecht5_tts
从文本生成音频。
const synthesizer = await pipeline('text-to-speech', 'Xenova/speecht5_tts', { quantized: false });
const speaker_embeddings = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/speaker_embeddings.bin';
const out = await synthesizer('Hello, my dog is cute', { speaker_embeddings });
// {
// audio: Float32Array(26112) [-0.00005657337896991521, 0.00020583874720614403, ...],
// sampling_rate: 16000
// }
然后,您可以使用 wavefile
包将音频保存到 .wav 文件中
import wavefile from 'wavefile';
import fs from 'fs';
const wav = new wavefile.WaveFile();
wav.fromScratch(1, out.sampling_rate, '32f', out.audio);
fs.writeFileSync('out.wav', wav.toBuffer());
Example: 使用 Xenova/mms-tts-fra
进行多语言语音生成。有关可用语言的完整列表 (1107),请参阅此处。
const synthesizer = await pipeline('text-to-speech', 'Xenova/mms-tts-fra');
const out = await synthesizer('Bonjour');
// {
// audio: Float32Array(23808) [-0.00037693005288019776, 0.0003325853613205254, ...],
// sampling_rate: 16000
// }
类型:pipelines
的静态类
- .TextToAudioPipeline
new TextToAudioPipeline(options)
._call()
:TextToAudioPipelineCallback
new TextToAudioPipeline(options)
创建一个新的 TextToAudioPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | TextToAudioPipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
textToAudioPipeline._call() : <code> TextToAudioPipelineCallback </code>
Kind: TextToAudioPipeline
的实例方法
pipelines.ImageToImagePipeline
图像到图像 pipeline,使用任何 AutoModelForImageToImage
。此 pipeline 基于先前的图像输入生成图像。
Example: 超分辨率,使用 Xenova/swin2SR-classical-sr-x2-64
const upscaler = await pipeline('image-to-image', 'Xenova/swin2SR-classical-sr-x2-64');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/butterfly.jpg';
const output = await upscaler(url);
// RawImage {
// data: Uint8Array(786432) [ 41, 31, 24, 43, ... ],
// width: 512,
// height: 512,
// channels: 3
// }
类型:pipelines
的静态类
- .ImageToImagePipeline
new ImageToImagePipeline(options)
._call()
:ImageToImagePipelineCallback
new ImageToImagePipeline(options)
创建一个新的 ImageToImagePipeline。
参数 | 类型 | 描述 |
---|---|---|
options | ImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
imageToImagePipeline._call() : <code> ImageToImagePipelineCallback </code>
Kind: ImageToImagePipeline
的实例方法
pipelines.DepthEstimationPipeline
深度估计 pipeline,使用任何 AutoModelForDepthEstimation
。此 pipeline 预测图像的深度。
示例: 深度估计 使用 Xenova/dpt-hybrid-midas
const depth_estimator = await pipeline('depth-estimation', 'Xenova/dpt-hybrid-midas');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/cats.jpg';
const out = await depth_estimator(url);
// {
// predicted_depth: Tensor {
// dims: [ 384, 384 ],
// type: 'float32',
// data: Float32Array(147456) [ 542.859130859375, 545.2833862304688, 546.1649169921875, ... ],
// size: 147456
// },
// depth: RawImage {
// data: Uint8Array(307200) [ 86, 86, 86, ... ],
// width: 640,
// height: 480,
// channels: 1
// }
// }
类型:pipelines
的静态类
- .DepthEstimationPipeline
new DepthEstimationPipeline(options)
._call()
:DepthEstimationPipelineCallback
new DepthEstimationPipeline(options)
创建新的 DepthEstimationPipeline。
参数 | 类型 | 描述 |
---|---|---|
options | ImagePipelineConstructorArgs | 用于实例化 pipeline 的对象。 |
depthEstimationPipeline._call() : <code> DepthEstimationPipelineCallback </code>
类型:DepthEstimationPipeline
的实例方法
pipelines.pipeline(task, [model], [options]) ⇒ <code> * </code>
用于构建 Pipeline
对象的实用工厂方法。
类型:pipelines
的静态方法
返回值:*
- 用于指定任务的 Pipeline 对象。
抛出:
Error
如果请求了不支持的 pipeline。
参数 | 类型 | 默认值 | 描述 |
---|---|---|---|
task | T | 定义将返回哪个 pipeline 的任务。当前接受的任务是
| |
[model] | string | null | 要使用的预训练模型的名称。如果未指定,将使用该任务的默认模型。 |
[options] | * | pipeline 的可选参数。 |
pipelines~ImagePipelineInputs : <code> string </code> | <code> RawImage </code> | <code> URL </code>
类型:pipelines
的内部类型定义
pipelines~AudioPipelineInputs : <code> string </code> | <code> URL </code> | <code> Float32Array </code> | <code> Float64Array </code>
类型:pipelines
的内部类型定义
pipelines~BoundingBox : <code> Object </code>
类型:pipelines
的内部类型定义
属性
名称 | 类型 | 描述 |
---|---|---|
xmin | number | bounding box 的最小 x 坐标。 |
ymin | number | bounding box 的最小 y 坐标。 |
xmax | number | bounding box 的最大 x 坐标。 |
ymax | number | bounding box 的最大 y 坐标。 |
pipelines~Disposable ⇒ <code> Promise. < void > </code>
类型:pipelines
的内部类型定义
返回值:Promise.<void>
- 在项目被释放时解析的 promise。
属性
名称 | 类型 | 描述 |
---|---|---|
dispose | DisposeType | 在 pipeline 被释放时解析的 promise。 |
pipelines~TextPipelineConstructorArgs : <code> Object </code>
用于实例化基于文本的 pipeline 的对象。
类型:pipelines
的内部类型定义
属性
名称 | 类型 | 描述 |
---|---|---|
task | string | pipeline 的任务。用于指定子任务。 |
model | PreTrainedModel | pipeline 使用的模型。 |
tokenizer | PreTrainedTokenizer | pipeline 使用的 tokenizer。 |
pipelines~ImagePipelineConstructorArgs : <code> Object </code>
用于实例化基于音频的 pipeline 的对象。
类型:pipelines
的内部类型定义
属性
名称 | 类型 | 描述 |
---|---|---|
task | string | pipeline 的任务。用于指定子任务。 |
model | PreTrainedModel | pipeline 使用的模型。 |
processor | Processor | pipeline 使用的 processor。 |
pipelines~TextImagePipelineConstructorArgs : <code> Object </code>
用于实例化基于文本和音频的 pipeline 的对象。
类型:pipelines
的内部类型定义
属性
名称 | 类型 | 描述 |
---|---|---|
task | string | pipeline 的任务。用于指定子任务。 |
model | PreTrainedModel | pipeline 使用的模型。 |
tokenizer | PreTrainedTokenizer | pipeline 使用的 tokenizer。 |
processor | Processor | pipeline 使用的 processor。 |
pipelines~TextClassificationPipelineType ⇒ <code> Promise. < (TextClassificationOutput|Array < TextClassificationOutput > ) > </code>
特定于文本分类 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(TextClassificationOutput|Array<TextClassificationOutput>)>
- 包含预测的标签和分数的数组或对象。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 要分类的输入文本。 |
[options] | TextClassificationPipelineOptions | 用于文本分类的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 预测的标签。 | |
score | number | 相应的概率。 | |
[top_k] | number | 1 | 要返回的顶部预测的数量。 |
pipelines~TokenClassificationPipelineType ⇒ <code> Promise. < (TokenClassificationOutput|Array < TokenClassificationOutput > ) > </code>
特定于 token 分类 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(TokenClassificationOutput|Array<TokenClassificationOutput>)>
- 结果。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 一个或多个文本(或一个文本列表)用于 token 分类。 |
[options] | TokenClassificationPipelineOptions | 用于 token 分类的选项。 |
属性
名称 | 类型 | 描述 |
---|---|---|
word | string | 分类的 token/word。这是通过解码选定的 token 获得的。 |
score | number |
|
entity | string | 为该 token/word 预测的实体。 |
index | number | 句子中对应 token 的索引。 |
[start] | number | 句子中对应实体的开始索引。 |
[end] | number | 句子中对应实体的结束索引。 |
[ignore_labels] | Array.<string> | 要忽略的标签列表。 |
pipelines~QuestionAnsweringPipelineType ⇒ <code> Promise. < (QuestionAnsweringOutput|Array < QuestionAnsweringOutput > ) > </code>
特定于问题回答 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(QuestionAnsweringOutput|Array<QuestionAnsweringOutput>)>
- 包含预测的答案和分数的数组或对象。
参数 | 类型 | 描述 |
---|---|---|
question | string | Array<string> | 一个或多个问题(必须与 |
context | string | Array<string> | 与问题关联的一个或多个上下文(必须与 |
[options] | QuestionAnsweringPipelineOptions | 用于问题回答的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
score | number | 与答案关联的概率。 | |
[start] | number | 答案的字符起始索引(在输入的 token 化版本中)。 | |
[end] | number | 答案的字符结束索引(在输入的 token 化版本中)。 | |
answer | string | 问题的答案。 | |
[top_k] | number | 1 | 要返回的顶部答案预测的数量。 |
pipelines~FillMaskPipelineType ⇒ <code> Promise. < (FillMaskOutput|Array < FillMaskOutput > ) > </code>
特定于 fill mask pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(FillMaskOutput|Array<FillMaskOutput>)>
- 包含分数、预测的 token、预测的 token 字符串以及填充了预测 token 的序列的对象数组,或此类数组的数组(每个输入文本一个)。如果仅给出一个输入文本,则输出将是对象数组。
抛出:
Error
当在输入文本中找不到 mask token 时。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 一个或多个带有 masked token 的文本(或一个提示列表)。 |
[options] | FillMaskPipelineOptions | 用于 masked language modelling 的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
sequence | string | 带有 mask token 预测的相应输入。 | |
score | number | 相应的概率。 | |
token | number | 预测的 token id(用于替换 masked token)。 | |
token_str | string | 预测的 token(用于替换 masked token)。 | |
[top_k] | number | 5 | 当传递时,覆盖要返回的预测数。 |
pipelines~Text2TextGenerationPipelineType ⇒ <code> Promise. < (Text2TextGenerationOutput|Array < Text2TextGenerationOutput > ) > </code>
类型:pipelines
的内部类型定义
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 编码器的输入文本。 |
[options] | * | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 描述 |
---|---|---|
generated_text | string | 生成的文本。 |
pipelines~SummarizationPipelineType ⇒ <code> Promise. < (SummarizationOutput|Array < SummarizationOutput > ) > </code>
类型:pipelines
的内部类型定义
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 一篇或多篇文章(或文章列表)以进行总结。 |
[options] | * | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 描述 |
---|---|---|
summary_text | string | 摘要文本。 |
pipelines~TranslationPipelineType ⇒ <code> Promise. < (TranslationOutput|Array < TranslationOutput > ) > </code>
类型:pipelines
的内部类型定义
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 要翻译的文本。 |
[options] | * | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 描述 |
---|---|---|
translation_text | string | 翻译后的文本。 |
pipelines~TextGenerationPipelineType ⇒ <code> Promise. < (TextGenerationOutput|Array < TextGenerationOutput > ) > </code>
特定于文本生成 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(TextGenerationOutput|Array<TextGenerationOutput>)>
- 包含生成的文本的数组或对象。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | Chat | Array<Chat> | 一个或多个要完成的提示(或一个提示列表)。 |
[options] | Partial.<TextGenerationConfig> | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
generated_text | string | Chat | 生成的文本。 | |
[add_special_tokens] | boolean | 在对序列进行 token 化时是否添加特殊 token。 | |
[return_full_text] | boolean | true | 如果设置为 |
pipelines~ZeroShotClassificationPipelineType ⇒ <code> Promise. < (ZeroShotClassificationOutput|Array < ZeroShotClassificationOutput > ) > </code>
特定于 zero-shot 分类 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(ZeroShotClassificationOutput|Array<ZeroShotClassificationOutput>)>
- 包含预测的标签和分数的数组或对象。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 要分类的序列,如果模型输入过大,将会被截断。 |
candidate_labels | string | Array<string> | 用于将每个序列分类到的可能类别标签集。可以是单个标签、逗号分隔的标签字符串或标签列表。 |
[options] | ZeroShotClassificationPipelineOptions | 用于 zero-shot 分类的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
sequence | string | 这是其输出的序列。 | |
labels | Array.<string> | 按可能性顺序排序的标签。 | |
scores | Array.<number> | 每个标签的概率。 | |
[hypothesis_template] | string | ""This example is {}."" | 用于将每个候选标签转换为 NLI 风格假设的模板。候选标签将替换 {} 占位符。 |
[multi_label] | boolean | false | 是否可以有多个候选标签为真。如果为 |
pipelines~FeatureExtractionPipelineType ⇒ <code> Promise. < Tensor > </code>
特定于特征提取 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<Tensor>
- 模型计算的特征。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 要获取其特征的一个或多个文本(或一个文本列表)。 |
[options] | FeatureExtractionPipelineOptions | 用于特征提取的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
[pooling] | 'none' | 'mean' | 'cls' | "none" | 要使用的池化方法。 |
[normalize] | boolean | false | 是否归一化最后一维中的嵌入。 |
[quantize] | boolean | false | 是否量化嵌入。 |
[precision] | 'binary' | 'ubinary' | 'binary' | 用于量化的精度。 |
pipelines~ImageFeatureExtractionPipelineType ⇒ <code> Promise. < Tensor > </code>
特定于图像特征提取 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<Tensor>
- 模型计算的图像特征。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 要获取其特征的一个或多个图像(或一个图像列表)。 |
[options] | ImageFeatureExtractionPipelineOptions | 用于图像特征提取的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
[pool] | boolean |
| 是否返回池化输出。如果设置为 |
pipelines~AudioClassificationPipelineType ⇒ <code> Promise. < (AudioClassificationOutput|Array < AudioClassificationOutput > ) > </code>
特定于音频分类 pipeline 的参数。
类型:pipelines
的内部类型定义
返回值:Promise.<(AudioClassificationOutput|Array<AudioClassificationOutput>)>
- 包含预测的标签和分数的数组或对象。
参数 | 类型 | 描述 |
---|---|---|
audio | AudioPipelineInputs | 要分类的输入音频文件。输入可以是
|
[options] | AudioClassificationPipelineOptions | 用于音频分类的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 预测的标签。 | |
score | number | 相应的概率。 | |
[top_k] | number | 5 | pipeline 将返回的顶部标签的数量。如果提供的数字为 |
pipelines~ZeroShotAudioClassificationPipelineType ⇒ <code> Promise. < (Array < ZeroShotAudioClassificationOutput > |Array < Array < ZeroShotAudioClassificationOutput > > ) > </code>
特定于零样本音频分类管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<(Array<ZeroShotAudioClassificationOutput>|Array<Array<ZeroShotAudioClassificationOutput>>)>
- 包含预测标签和分数的对象数组。
参数 | 类型 | 描述 |
---|---|---|
audio | AudioPipelineInputs | 要分类的输入音频文件。输入可以是
|
candidate_labels | Array.<string> | 此音频的候选标签。 |
[options] | ZeroShotAudioClassificationPipelineOptions | 用于零样本音频分类的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 模型识别的标签。 它是建议的 | |
score | number | 模型为此标签赋予的分数(介于 0 和 1 之间)。 | |
[hypothesis_template] | string | ""这是 {} 的声音。"" | 与 |
pipelines~Chunk : <code> Object </code>
类型:pipelines
的内部类型定义
属性
名称 | 类型 | 描述 |
---|---|---|
timestamp | * | 块的开始和结束时间戳,以秒为单位。 |
text | string | 识别的文本。 |
pipelines~AutomaticSpeechRecognitionPipelineType ⇒ <code> Promise. < (AutomaticSpeechRecognitionOutput|Array < AutomaticSpeechRecognitionOutput > ) > </code>
特定于自动语音识别管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<(AutomaticSpeechRecognitionOutput|Array<AutomaticSpeechRecognitionOutput>)>
- 包含转录文本的对象,如果 return_timestamps
为 true
,则可选地包含时间戳。
参数 | 类型 | 描述 |
---|---|---|
audio | AudioPipelineInputs | 要转录的输入音频文件。 输入可以是
|
[options] | Partial.<AutomaticSpeechRecognitionConfig> | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 描述 |
---|---|---|
text | string | 识别的文本。 |
[chunks] | Array.<Chunk> | 当使用 |
[return_timestamps] | boolean | 'word' | 是否返回时间戳。 默认值为 |
[chunk_length_s] | number | 要处理的音频块的长度,以秒为单位。 默认值为 0(不分块)。 |
[stride_length_s] | number | 连续音频块之间重叠的长度,以秒为单位。 如果未提供,则默认为 |
[force_full_sequences] | boolean | 是否强制输出完整序列。 默认值为 |
[language] | string | 源语言。 默认值为 |
[task] | string | 要执行的任务。 默认值为 |
[num_frames] | number | 输入音频中的帧数。 |
pipelines~ImageToTextPipelineType ⇒ <code> Promise. < (ImageToTextOutput|Array < ImageToTextOutput > ) > </code>
类型:pipelines
的内部类型定义
返回: Promise.<(ImageToTextOutput|Array<ImageToTextOutput>)>
- 包含生成的文本的对象(或对象数组)。
参数 | 类型 | 描述 |
---|---|---|
texts | ImagePipelineInputs | 要添加字幕的图像。 |
[options] | * | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 描述 |
---|---|---|
generated_text | string | 生成的文本。 |
pipelines~ImageClassificationPipelineType ⇒ <code> Promise. < (ImageClassificationOutput|Array < ImageClassificationOutput > ) > </code>
特定于图像分类管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<(ImageClassificationOutput|Array<ImageClassificationOutput>)>
- 包含预测标签和分数的数组或对象。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 要分类的输入图像。 |
[options] | ImageClassificationPipelineOptions | 用于图像分类的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 模型识别的标签。 | |
score | number | 模型为此标签赋予的分数。 | |
[top_k] | number | 1 | 管道将返回的顶部标签的数量。 |
pipelines~ImageSegmentationPipelineType ⇒ <code> Promise. < Array < ImageSegmentationPipelineOutput > > </code>
特定于图像分割管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<Array<ImageSegmentationPipelineOutput>>
- 注释的片段。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 输入图像。 |
[options] | ImageSegmentationPipelineOptions | 用于图像分割的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 片段的标签。 | |
score | number | null | 片段的分数。 | |
mask | RawImage | 片段的掩码。 | |
[threshold] | number | 0.5 | 用于滤除预测掩码的概率阈值。 |
[mask_threshold] | number | 0.5 | 将预测掩码转换为二元值时使用的阈值。 |
[overlap_mask_area_threshold] | number | 0.8 | 掩码重叠阈值,用于消除小的、不连贯的片段。 |
[subtask] | null | string |
| 要执行的分割任务。 [ |
[label_ids_to_fuse] | Array.<number> |
| 要融合的标签 ID 列表。 如果未设置,则不融合任何标签。 |
[target_sizes] | Array.<Array<number>> |
| 输入图像的目标大小列表。 如果未设置,则使用原始图像大小。 |
pipelines~ZeroShotImageClassificationPipelineType ⇒ <code> Promise. < (Array < ZeroShotImageClassificationOutput > |Array < Array < ZeroShotImageClassificationOutput > > ) > </code>
特定于零样本图像分类管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<(Array<ZeroShotImageClassificationOutput>|Array<Array<ZeroShotImageClassificationOutput>>)>
- 包含预测标签和分数的对象数组。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 输入图像。 |
candidate_labels | Array.<string> | 此图像的候选标签。 |
[options] | ZeroShotImageClassificationPipelineOptions | 用于零样本图像分类的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 模型识别的标签。 它是建议的 | |
score | number | 模型为此标签赋予的分数(介于 0 和 1 之间)。 | |
[hypothesis_template] | string | ""这是一张 {} 的照片"" | 与 |
pipelines~ObjectDetectionPipelineType ⇒ <code> Promise. < (ObjectDetectionPipelineOutput|Array < ObjectDetectionPipelineOutput > ) > </code>
特定于对象检测管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<(ObjectDetectionPipelineOutput|Array<ObjectDetectionPipelineOutput>)>
- 对象列表或对象列表的列表。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 输入图像。 |
[options] | ObjectDetectionPipelineOptions | 用于对象检测的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 模型识别的类别标签。 | |
score | number | 模型为此标签赋予的分数。 | |
box | BoundingBox | 检测到的对象在图像原始大小中的边界框,或者如果 | |
[threshold] | number | 0.9 | 用于按分数过滤框的阈值。 |
[percentage] | boolean | false | 是否以百分比 (true) 或像素 (false) 返回框坐标。 |
pipelines~ZeroShotObjectDetectionPipelineType ⇒ <code> Promise. < (Array < ZeroShotObjectDetectionOutput > |Array < Array < ZeroShotObjectDetectionOutput > > ) > </code>
特定于零样本对象检测管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<(Array<ZeroShotObjectDetectionOutput>|Array<Array<ZeroShotObjectDetectionOutput>>)>
- 包含预测标签、分数和边界框的对象数组。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 输入图像。 |
candidate_labels | Array.<string> | 模型应在图像中识别的内容。 |
[options] | ZeroShotObjectDetectionPipelineOptions | 用于零样本对象检测的选项。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
label | string | 与找到的对象对应的文本查询。 | |
score | number | 与对象对应的分数(介于 0 和 1 之间)。 | |
box | BoundingBox | 检测到的对象在图像原始大小中的边界框,或者如果 | |
[threshold] | number | 0.1 | 进行预测所需的概率。 |
[top_k] | number |
| 管道将返回的顶部预测的数量。 如果提供的数字为 |
[percentage] | boolean | false | 是否以百分比 (true) 或像素 (false) 返回框坐标。 |
pipelines~DocumentQuestionAnsweringPipelineType ⇒ <code> Promise. < (DocumentQuestionAnsweringOutput|Array < DocumentQuestionAnsweringOutput > ) > </code>
类型:pipelines
的内部类型定义
返回: Promise.<(DocumentQuestionAnsweringOutput|Array<DocumentQuestionAnsweringOutput>)>
- 包含答案的对象(或对象数组)。
参数 | 类型 | 描述 |
---|---|---|
image | ImageInput | 要使用的文档图像。 |
question | string | 要向文档提出的问题。 |
[options] | * | 要传递给模型 generate 方法的其他关键字参数。 |
属性
名称 | 类型 | 描述 |
---|---|---|
answer | string | 生成的文本。 |
pipelines~TextToAudioPipelineConstructorArgs : <code> Object </code>
类型:pipelines
的内部类型定义
属性
名称 | 类型 | 描述 |
---|---|---|
[vocoder] | PreTrainedModel | 管道使用的声码器(如果模型使用声码器)。 如果未提供,则使用默认的 HifiGan 声码器。 |
pipelines~TextToAudioPipelineType ⇒ <code> Promise. < TextToAudioOutput > </code>
特定于文本到音频管道的参数。
类型:pipelines
的内部类型定义
返回: Promise.<TextToAudioOutput>
- 包含生成的音频和采样率的对象。
参数 | 类型 | 描述 |
---|---|---|
texts | string | Array<string> | 要生成的文本。 |
options | TextToAudioPipelineOptions | 传递给模型生成/前向方法的参数。 |
属性
名称 | 类型 | 默认值 | 描述 |
---|---|---|---|
audio | Float32Array | 生成的音频波形。 | |
sampling_rate | number | 生成的音频波形的采样率。 | |
[speaker_embeddings] | Tensor | Float32Array | string | URL |
| 说话人嵌入(如果模型需要)。 |
pipelines~ImageToImagePipelineType ⇒ <code> Promise. < (RawImage|Array < RawImage > ) > </code>
类型:pipelines
的内部类型定义
返回: Promise.<(RawImage|Array<RawImage>)>
- 转换后的图像或图像列表。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 要转换的图像。 |
pipelines~DepthEstimationPipelineType ⇒ <code> Promise. < (DepthEstimationPipelineOutput|Array < DepthEstimationPipelineOutput > ) > </code>
类型:pipelines
的内部类型定义
返回: Promise.<(DepthEstimationPipelineOutput|Array<DepthEstimationPipelineOutput>)>
- 包含结果的图像或图像列表。
参数 | 类型 | 描述 |
---|---|---|
images | ImagePipelineInputs | 要计算深度的图像。 |
属性
名称 | 类型 | 描述 |
---|---|---|
predicted_depth | Tensor | 模型预测的原始深度图。 |
depth | RawImage | 处理后的深度图,作为图像(与输入图像大小相同)。 |
pipelines~AllTasks : <code> * </code>
所有可能的管道类型。
类型:pipelines
的内部类型定义
< > 在 GitHub 上更新