Transformers.js 文档

后端/onnx

您正在查看 main 版本,该版本需要从源代码安装。如果您想进行常规 npm 安装,请查看最新的稳定版本 (v3.0.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始

后端/onnx

用于根据环境选择正确 ONNX Runtime 版本的处理程序文件。理想情况下,我们可以在需要时才导入 onnxruntime-webonnxruntime-node 包,但动态导入似乎不适用于当前的 webpack 版本和/或配置。这可能是由于顶层 await 语句的实验性质。因此,我们只导入这两个包,并根据环境使用适当的一个

  • 当在 Node 中运行时,我们使用 onnxruntime-node
  • 当在浏览器中运行时,我们使用 onnxruntime-web (onnxruntime-node 未捆绑)。

此模块未直接导出,但可以通过环境变量访问

import { env } from '@huggingface/transformers';
console.log(env.backends.onnx);

backends/onnx.deviceToExecutionProviders([device]) ⇒ <code> Array. < ONNXExecutionProviders > </code>

将设备映射到用于给定设备的执行提供程序。

类型backends/onnx 的静态方法
返回值Array.<ONNXExecutionProviders> - 用于给定设备的执行提供程序。

参数类型默认值描述
[device]*

(可选) 在其上运行推理的设备。


backends/onnx.createInferenceSession(buffer_or_path, session_options, session_config) ⇒ <code> * </code>

创建 ONNX 推理会话。

类型backends/onnx 的静态方法
返回值* - ONNX 推理会话。

参数类型描述
buffer_or_pathUint8Array | string

ONNX 模型缓冲区或路径。

session_options*

ONNX 推理会话选项。

session_configObject

ONNX 推理会话配置。


backends/onnx.isONNXTensor(x) ⇒ <code> boolean </code>

检查对象是否为 ONNX 张量。

类型backends/onnx 的静态方法
返回值boolean - 对象是否为 ONNX 张量。

参数类型描述
xany

要检查的对象


backends/onnx.isONNXProxy() ⇒ <code> boolean </code>

检查 ONNX 的 WASM 后端是否正在被代理。

类型backends/onnx 的静态方法
返回值boolean - ONNX 的 WASM 后端是否正在被代理。


backends/onnx~defaultDevices : <code> Array. < ONNXExecutionProviders > </code>

类型backends/onnx 的内部属性


backends/onnx~wasmInitPromise : <code> Promise < any > </code> | <code> null </code>

为了防止多次调用 initWasm(),我们将第一次调用存储在一个 Promise 中,该 Promise 在创建第一个 InferenceSession 时解析。后续调用将等待此 Promise 解析,然后再创建它们自己的 InferenceSession。

类型backends/onnx 的内部属性


backends/onnx~DEVICE_TO_EXECUTION_PROVIDER_MAPPING : <code> * </code>

类型backends/onnx 的内部常量


backends/onnx~supportedDevices : <code> * </code>

支持设备的列表,按优先级/性能排序。

类型backends/onnx 的内部常量


backends/onnx~ONNX_ENV : <code> * </code>

类型backends/onnx 的内部常量


backends/onnx~ONNXExecutionProviders : <code> * </code>

类型backends/onnx 的内部类型定义


< > 在 GitHub 上更新