Transformers
🏡 查看所有文档 AWS Trainium & Inferentia Accelerate Argilla AutoTrain Bitsandbytes 聊天用户界面 数据集查看器 数据集 在 AWS 上部署 Diffusers Distilabel Evaluate Gradio Hub Hub Python 库 Huggingface.js 推理端点(专用) 推理服务提供商 LeRobot 排行榜 Lighteval Microsoft Azure Optimum PEFT Safetensors Sentence Transformers TRL 任务 文本嵌入推理 文本生成推理 Tokenizers Transformers Transformers.js smolagents timm
搜索文档
main v4.53.3 v4.52.3 v4.51.3 v4.50.0 v4.49.0 v4.48.2 v4.47.1 v4.46.3 v4.45.2 v4.44.2 v4.43.4 v4.42.4 v4.41.2 v4.40.2 v4.39.3 v4.38.2 v4.37.2 v4.36.1 v4.35.2 v4.34.1 v4.33.3 v4.32.1 v4.31.0 v4.30.0 v4.29.1 v4.28.1 v4.27.2 v4.26.1 v4.25.1 v4.24.0 v4.23.1 v4.22.2 v4.21.3 v4.20.1 v4.19.4 v4.18.0 v4.17.0 v4.16.2 v4.15.0 v4.14.1 v4.13.0 v4.12.5 v4.11.3 v4.10.1 v4.9.2 v4.8.2 v4.7.0 v4.6.0 v4.5.1 v4.4.2 v4.3.3 v4.2.2 v4.1.1 v4.0.1 v3.5.1 v3.4.0 v3.3.1 v3.2.0 v3.1.0 v3.0.2 v2.11.0 v2.10.0 v2.9.1 v2.8.0 v2.7.0 v2.6.0 v2.5.1 v2.4.1 v2.3.0 v2.2.2 v2.1.1 v2.0.0 v1.2.0 v1.1.0 v1.0.0 doc-builder-html
阿拉伯语 德语 英 西班牙语 法 印地语 意大利语 日语 韩 葡萄牙语 泰卢固语 土 中文
加入 Hugging Face 社区
并获得增强的文档体验
机器学习应用 Gradio 是一个用于构建和共享机器学习应用的快速简便的库,它与 Pipeline 集成,可以快速创建简单的推理界面。
在开始之前,请确保已安装 Gradio。
为您的任务创建一个管道,然后将其传递给 Gradio 的 Interface.from_pipeline 函数以创建界面。Gradio 会自动为 Pipeline 确定合适的输入和输出组件。
添加 launch 以创建 Web 服务器并启动应用程序。
from transformers import pipeline
import gradio as gr
pipeline = pipeline("image-classification" , model="google/vit-base-patch16-224" )
gr.Interface.from_pipeline(pipeline).launch() Web 应用程序默认在本地服务器上运行。要与其他用户共享应用程序,请在 launch 中设置 share=True
以生成临时公共链接。如需更持久的解决方案,请将应用程序托管在 Hugging Face Spaces 上。
gr.Interface.from_pipeline(pipeline).launch(share=True ) 下面的 Space 是使用上述代码创建并托管在 Spaces 上的。
< > 在 GitHub 上更新
© . This site is unofficial and not affiliated with Hugging Face, Inc.