Transformers.js 文档

使用自定义模型

您正在查看 main 版本,该版本需要从源代码安装. 如果您想进行常规 npm 安装,请查看最新的稳定版本 (v3.0.0)。
Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

使用自定义模型

默认情况下,Transformers.js 使用托管的预训练模型预编译的 WASM 二进制文件,这些文件应该可以开箱即用。您可以按如下方式自定义此设置

设置

import { env } from '@huggingface/transformers';

// Specify a custom location for models (defaults to '/models/').
env.localModelPath = '/path/to/models/';

// Disable the loading of remote models from the Hugging Face Hub:
env.allowRemoteModels = false;

// Set location of .wasm files. Defaults to use a CDN.
env.backends.onnx.wasm.wasmPaths = '/path/to/files/';

有关可用设置的完整列表,请查看API 参考

将您的模型转换为 ONNX

我们建议使用我们的转换脚本,以单个命令将您的 PyTorch、TensorFlow 或 JAX 模型转换为 ONNX。在幕后,它使用🤗 Optimum来执行模型的转换和量化。

python -m scripts.convert --quantize --model_id <model_name_or_path>

例如,使用以下命令转换和量化 bert-base-uncased

python -m scripts.convert --quantize --model_id bert-base-uncased

这会将以下文件保存到 ./models/

bert-base-uncased/
├── config.json
├── tokenizer.json
├── tokenizer_config.json
└── onnx/
    ├── model.onnx
    └── model_quantized.onnx

有关支持的架构的完整列表,请参阅Optimum 文档

< > GitHub 上更新