Transformers.js 文档

backends/onnx

您正在查看的是需要从源码安装。如果您希望进行常规的 npm 安装,请查看最新的稳定版本(v3.0.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

backends/onnx

根据环境选择正确版本的 ONNX Runtime 的处理文件。理想情况下,我们只在需要时才导入 onnxruntime-webonnxruntime-node 包,但动态导入似乎不适用于当前的 webpack 版本和/或配置。这可能是由于顶级 await 语句的实验性质。因此,我们只导入这两个包,并根据环境使用适当的包。

  • 在 Node 中运行时,我们使用 onnxruntime-node
  • 在浏览器中运行时,我们使用 onnxruntime-web(不捆绑 onnxruntime-node)。

此模块未直接导出,但可以通过环境变量访问

import { env } from '@huggingface/transformers';
console.log(env.backends.onnx);

backends/onnx.deviceToExecutionProviders([device]) ⇒ <code> Array. < ONNXExecutionProviders > </code>

将设备映射到给定设备的执行提供程序。

类型backends/onnx 的静态方法
返回Array.<ONNXExecutionProviders> - 用于给定设备的执行提供程序。

参数量类型默认描述
[device]*

(可选)用于运行推理的设备。


backends/onnx.createInferenceSession(buffer_or_path, session_options, session_config) ⇒ <code> * </code>

创建 ONNX 推理会话。

类型backends/onnx 的静态方法
返回* - ONNX 推理会话。

参数量类型描述
buffer_or_pathUint8Array | string

ONNX 模型缓冲区或路径。

session_options*

ONNX 推理会话选项。

session_configObject

ONNX 推理会话配置。


backends/onnx.isONNXTensor(x) ⇒ <code> boolean </code>

检查对象是否是 ONNX 张量。

类型backends/onnx 的静态方法
返回boolean - 对象是否是 ONNX 张量。

参数量类型描述
x任何

要检查的对象


backends/onnx.isONNXProxy() ⇒ <code> boolean </code>

检查 ONNX 的 WASM 后端是否正在代理。

类型backends/onnx 的静态方法
返回boolean - ONNX 的 WASM 后端是否正在代理。


backends/onnx~defaultDevices : <code> Array. < ONNXExecutionProviders > </code>

类型backends/onnx 的内部属性


backends/onnx~wasmInitPromise : <code> Promise < any > </code> | <code> null </code>

为防止多次调用 initWasm(),我们将第一次调用存储在一个 Promise 中,当第一个 InferenceSession 创建时,该 Promise 将被解析。后续调用将在创建自己的 InferenceSession 之前等待此 Promise 解析。

类型backends/onnx 的内部属性


backends/onnx~DEVICE_TO_EXECUTION_PROVIDER_MAPPING : <code> * </code>

类型backends/onnx 的内部常量


backends/onnx~supportedDevices : <code> * </code>

支持的设备列表,按优先级/性能排序。

类型backends/onnx 的内部常量


backends/onnx~ONNX_ENV : <code> * </code>

类型backends/onnx 的内部常量


backends/onnx~ONNXExecutionProviders : <code> * </code>

类型backends/onnx 的内部类型定义


< > 在 GitHub 上更新