NLP 课程文档

与他人共享演示

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验

开始

与他人共享演示

Ask a Question Open In Colab Open In Studio Lab

现在您已经构建了一个演示,您可能希望与他人共享。Gradio 演示可以通过两种方式共享:使用**临时共享链接**或**在 Spaces 上永久托管**。

我们将很快介绍这两种方法。但在共享演示之前,您可能需要对其进行润色💅。

润色您的 Gradio 演示:

Overview of a gradio interface

要向您的演示添加更多内容,Interface 类支持一些可选参数

  • title: 您可以为您的演示提供标题,它显示在输入和输出组件上方
  • description: 您可以为界面提供说明(以文本、Markdown 或 HTML 格式),它显示在输入和输出组件上方,标题下方。
  • article: 您还可以编写扩展文章(以文本、Markdown 或 HTML 格式)来解释界面。如果提供,它将显示在输入和输出组件下方
  • theme: 不喜欢默认颜色?将主题设置为使用以下主题之一:defaulthuggingfacegrasspeach。您还可以添加dark- 前缀,例如 dark-peach 表示深色主题(或仅使用 dark 表示默认深色主题)。
  • examples: 要使您的演示更易于使用,您可以为函数提供一些示例输入。这些示例显示在 UI 组件下方,可用于填充界面。这些示例应作为嵌套列表提供,其中外层列表包含样本,每个内层列表包含对应于每个输入组件的输入。
  • live: 如果您想使您的演示“实时”,意味着您的模型会在每次输入更改时重新运行,您可以设置 live=True。这在使用快速模型时很有用(我们将在本节末尾看到一个示例)。使用以上选项,我们最终得到了一个更完整的界面。运行下面的代码,以便您可以与 Rick 和 Morty 聊天
title = "Ask Rick a Question"
description = """
The bot was trained to answer questions based on Rick and Morty dialogues. Ask Rick anything!
<img src="https://huggingface.co/spaces/course-demos/Rick_and_Morty_QA/resolve/main/rick.png" width=200px>
"""

article = "Check out [the original Rick and Morty Bot](https://huggingface.co/spaces/kingabzpro/Rick_and_Morty_Bot) that this demo is based off of."

gr.Interface(
    fn=predict,
    inputs="textbox",
    outputs="text",
    title=title,
    description=description,
    article=article,
    examples=[["What are you doing?"], ["Where should we time travel to?"]],
).launch()

使用以上选项,我们最终得到了一个更完整的界面。尝试下面的界面

使用临时链接共享您的演示

现在我们已经拥有了机器学习模型的工作演示,让我们学习如何轻松地共享指向界面的链接。可以通过在 launch() 方法中设置 share=True 来轻松地公开共享界面。

gr.Interface(classify_image, "image", "label").launch(share=True)

这将生成一个公共可共享的链接,您可以将其发送给任何人!当您发送此链接时,另一端的用户可以在其浏览器中尝试该模型,最多 72 小时。由于处理发生在您的设备上(只要您的设备保持开启!),您不必担心打包任何依赖项。如果您是在 Google Colab 笔记本中工作,则始终会自动创建共享链接。它通常看起来像这样:XXXXX.gradio.app。虽然链接是通过 Gradio 链接提供服务的,但我们只是您本地服务器的代理,不会存储通过界面发送的任何数据。

但是请记住,这些链接是公开可访问的,这意味着任何人都可以使用您的模型进行预测!因此,请确保不要通过您编写的函数公开任何敏感信息,或允许对您的设备进行任何关键更改。如果您设置 share=False(默认值),则只会创建本地链接。

在 Hugging Face Spaces 上托管您的演示

您可以传递给同事的共享链接很酷,但如何才能永久托管您的演示并在互联网上拥有它自己的“空间”?

Hugging Face Spaces 提供了在互联网上永久托管您的 Gradio 模型的**免费**基础设施!Spaces 允许您创建并推送到(公共或私有)存储库,您的 Gradio 界面代码将存在于 app.py 文件中。 阅读分步教程 以开始使用,或观看下面的示例视频。

✏️ 让我们应用它!

使用我们到目前为止在各节中所学到的知识,让我们创建本章 第一节 中看到的草图识别演示。让我们向界面添加一些自定义内容,并设置 share=True 以创建一个我们可以传递的公共链接。

我们可以从 class_names.txt 加载标签,并从 pytorch_model.bin 加载预训练的 PyTorch 模型。通过点击链接并点击文件预览左上角的下载按钮,可以下载这些文件。让我们看一下下面的代码,看看如何使用这些文件加载模型并创建一个 predict() 函数。

from pathlib import Path
import torch
import gradio as gr
from torch import nn

LABELS = Path("class_names.txt").read_text().splitlines()

model = nn.Sequential(
    nn.Conv2d(1, 32, 3, padding="same"),
    nn.ReLU(),
    nn.MaxPool2d(2),
    nn.Conv2d(32, 64, 3, padding="same"),
    nn.ReLU(),
    nn.MaxPool2d(2),
    nn.Conv2d(64, 128, 3, padding="same"),
    nn.ReLU(),
    nn.MaxPool2d(2),
    nn.Flatten(),
    nn.Linear(1152, 256),
    nn.ReLU(),
    nn.Linear(256, len(LABELS)),
)
state_dict = torch.load("pytorch_model.bin", map_location="cpu")
model.load_state_dict(state_dict, strict=False)
model.eval()


def predict(im):
    x = torch.tensor(im, dtype=torch.float32).unsqueeze(0).unsqueeze(0) / 255.0
    with torch.no_grad():
        out = model(x)
    probabilities = torch.nn.functional.softmax(out[0], dim=0)
    values, indices = torch.topk(probabilities, 5)
    return {LABELS[i]: v.item() for i, v in zip(indices, values)}

现在我们有了 predict() 函数。下一步是定义和启动我们的 Gradio 界面。

interface = gr.Interface(
    predict,
    inputs="sketchpad",
    outputs="label",
    theme="huggingface",
    title="Sketch Recognition",
    description="Who wants to play Pictionary? Draw a common object like a shovel or a laptop, and the algorithm will guess in real time!",
    article="<p style='text-align: center'>Sketch Recognition | Demo Model</p>",
    live=True,
)
interface.launch(share=True)

请注意 Interface 中的 live=True 参数,这意味着每次有人在绘图板上绘制时,草图演示都会进行预测(没有提交按钮!)。

此外,我们在 launch() 方法中设置了 share=True 参数。这将创建一个公共链接,您可以将其发送给任何人!当您发送此链接时,对方用户可以试用草图识别模型。重申一下,您也可以将模型托管在 Hugging Face Spaces 上,这就是我们能够将上面的演示嵌入其中的方式。

接下来,我们将介绍 Gradio 可以与 Hugging Face 生态系统结合使用的其他方法!