Transformers.js 文档

使用自定义模型

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验的访问权限

开始使用

使用自定义模型

默认情况下,Transformers.js 使用 托管预训练模型预编译的 WASM 二进制文件,这些文件应该可以开箱即用。您可以按如下方式自定义它

设置

import { env } from '@huggingface/transformers';

// Specify a custom location for models (defaults to '/models/').
env.localModelPath = '/path/to/models/';

// Disable the loading of remote models from the Hugging Face Hub:
env.allowRemoteModels = false;

// Set location of .wasm files. Defaults to use a CDN.
env.backends.onnx.wasm.wasmPaths = '/path/to/files/';

有关可用设置的完整列表,请查看 API 参考

将您的模型转换为 ONNX

我们建议使用我们的 转换脚本 通过单个命令将您的 PyTorch、TensorFlow 或 JAX 模型转换为 ONNX。在后台,它使用 🤗 Optimum 来执行模型的转换和量化。

python -m scripts.convert --quantize --model_id <model_name_or_path>

例如,使用以下命令转换和量化 bert-base-uncased

python -m scripts.convert --quantize --model_id bert-base-uncased

这会将以下文件保存到 ./models/

bert-base-uncased/
├── config.json
├── tokenizer.json
├── tokenizer_config.json
└── onnx/
    ├── model.onnx
    └── model_quantized.onnx

有关支持的架构的完整列表,请参阅 Optimum 文档

< > 更新 在 GitHub 上