Hugging Face
模型
数据集
空间
帖子
文档
企业版
定价
登录
注册
Learn
Optimum 文档
笔记本
Optimum
🏡 查看所有文档
AWS Trainium & Inferentia
Accelerate
Amazon SageMaker
Argilla
AutoTrain
Bitsandbytes
Chat UI
Competitions
Dataset viewer
数据集
Diffusers
Distilabel
Evaluate
Gradio
Hub
Hub Python Library
Hugging Face Generative AI Services (HUGS)
Huggingface.js
Inference Endpoints (dedicated)
Inference Providers
Leaderboards
Lighteval
Optimum
PEFT
Safetensors
Sentence Transformers
TRL
Tasks
Text Embeddings Inference
Text Generation Inference
Tokenizers
Transformers
Transformers.js
smolagents
timm
搜索文档
main
v1.24.0
v1.23.3
v1.22.0
v1.21.4
v1.20.0
v1.19.0
v1.18.1
v1.17.1
v1.16.2
v1.15.0
v1.14.0
v1.13.2
v1.12.0
v1.11.2
v1.10.1
v1.9.0
v1.8.6
v1.7.3
v1.6.4
v1.5.2
v1.4.1
v1.3.0
v1.2.3
v1.0.0
EN
概览
🤗 Optimum
安装
快速入门
笔记本
概念指南
量化
Nvidia
AMD
Intel
🤗 Optimum Intel
安装
Neural Compressor
OpenVINO
IPEX
Inference
支持的模型
教程
笔记本
AWS Trainium/Inferentia
Google TPUs
for Intel Gaudi
Furiosa
ExecuTorch
ONNX Runtime
导出器
BetterTransformer
Torch FX
LLM 量化
实用工具
您正在查看
main
版本,该版本需要
从源代码安装
。如果您想要常规 pip 安装,请查看最新的稳定版本 (
v1.24.0
)。
加入 Hugging Face 社区
并获得增强的文档体验
协作处理模型、数据集和 Spaces
通过加速推理获得更快的示例
切换文档主题
注册
开始使用
笔记本
Inference
笔记本
描述
如何使用 IPEX 运行推理
解释了如何将您的模型导出到 IPEX,以及如何在文本生成任务中使用 IPEX 模型运行推理
<
>
在 GitHub 上更新
←
支持的模型
🤗 Optimum Neuron
→
笔记本
Inference