Hub 文档

你的第一个 Docker Space:使用 T5 进行文本生成

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始

你的第一个 Docker Space:使用 T5 进行文本生成

在以下部分中,你将学习创建 Docker Space、配置它以及将代码部署到它的基础知识。我们将创建一个使用 Docker 的文本生成 Space,它将用于演示 google/flan-t5-small 模型,该模型可以使用 FastAPI 作为服务器,根据一些输入文本生成文本。

你可以在这里找到托管的完整版本。

创建一个新的 Docker Space

我们将从创建一个全新的 Space 并选择 Docker 作为我们的 SDK 开始。

Hugging Face Spaces 是 Git 仓库,这意味着你可以通过推送提交以增量方式(和协作方式)处理你的 Space。查看仓库入门指南,了解如何在继续操作之前创建和编辑文件。如果你更喜欢使用 UI,你也可以直接在浏览器中完成工作。

创建新 Space 时选择 Docker 作为 SDK 将通过在你的 README.md 文件的 YAML 块中将 sdk 属性设置为 docker 来初始化你的 Docker Space。

sdk: docker

你可以通过在你的 README.md 文件的 YAML 块中设置 app_port 属性来更改你的 Space 的默认应用程序端口。默认端口为 7860

app_port: 7860

添加依赖项

对于文本生成 Space,我们将构建一个 FastAPI 应用程序,展示一个名为 Flan T5 的文本生成模型。对于模型推理,我们将使用 🤗 Transformers pipeline 来使用该模型。我们需要从安装一些依赖项开始。这可以通过在我们的仓库中创建一个 requirements.txt 文件,并将以下依赖项添加到其中来完成

fastapi==0.74.*
requests==2.27.*
sentencepiece==0.1.*
torch==1.11.*
transformers==4.*
uvicorn[standard]==0.17.*

这些依赖项将在我们稍后创建的 Dockerfile 中安装。

创建应用程序

让我们从一个虚拟的 FastAPI 应用程序开始这个过程,看看我们是否可以让一个端点工作。第一步是创建一个应用程序文件,在本例中,我们将其命名为 main.py

from fastapi import FastAPI

app = FastAPI()

@app.get("/")
def read_root():
    return {"Hello": "World!"}

创建 Dockerfile

Docker Space 的主要步骤是创建 Dockerfile。你可以在这里阅读更多关于 Dockerfile 的信息。虽然我们在这个教程中使用 FastAPI,但 Dockerfile 为用户提供了很大的灵活性,允许你构建新一代的 ML 演示。让我们为我们的应用程序编写 Dockerfile

# read the doc: https://huggingface.co/docs/hub/spaces-sdks-docker
# you will also find guides on how best to write your Dockerfile

FROM python:3.9

# The two following lines are requirements for the Dev Mode to be functional
# Learn more about the Dev Mode at https://huggingface.co/dev-mode-explorers
RUN useradd -m -u 1000 user
WORKDIR /app

COPY --chown=user ./requirements.txt requirements.txt
RUN pip install --no-cache-dir --upgrade -r requirements.txt

COPY --chown=user . /app
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "7860"]

当更改保存后,Space 将重建,你的演示应该会在几秒钟后启动!这里是此时的一个示例结果。

本地测试

高级用户提示(你可以跳过): 如果你在本地开发,这是一个很好的时机,你可以在本地进行 docker builddocker run 来进行调试,但更简单的方法是将更改推送到 Hub 并查看它的外观!

docker build -t fastapi .
docker run  -it -p 7860:7860 fastapi

如果你有 Secrets,你可以使用 docker buildx 并将 secrets 作为构建参数传递

export SECRET_EXAMPLE="my_secret_value"
docker buildx build --secret id=SECRET_EXAMPLE,env=SECRET_EXAMPLE -t fastapi .

并使用 docker run 运行,将 secrets 作为环境变量传递

export SECRET_EXAMPLE="my_secret_value"
docker run -it -p 7860:7860 -e SECRET_EXAMPLE=$SECRET_EXAMPLE fastapi

向我们的应用程序添加一些 ML

如前所述,我们的想法是使用 Flan T5 模型进行文本生成。我们将要为输入字段添加一些 HTML 和 CSS,所以让我们创建一个名为 static 的目录,其中包含 index.htmlstyle.cssscript.js 文件。此时,你的文件结构应该如下所示

/static
/static/index.html
/static/script.js
/static/style.css
Dockerfile
main.py
README.md
requirements.txt

让我们完成使之工作的所有步骤。我们将跳过 CSS 和 HTML 的一些细节。你可以在 DockerTemplates/fastapi_t5 Space 的“文件和版本”选项卡中找到完整的代码。

  1. 编写 FastAPI 端点以进行推理

我们将使用 transformers 中的 pipeline 来加载 google/flan-t5-small 模型。我们将设置一个名为 infer_t5 的端点,它接收输入并输出推理调用的结果

from transformers import pipeline

pipe_flan = pipeline("text2text-generation", model="google/flan-t5-small")

@app.get("/infer_t5")
def t5(input):
    output = pipe_flan(input)
    return {"output": output[0]["generated_text"]}
  1. 编写 index.html 以拥有一个包含页面代码的简单表单。
<main>
  <section id="text-gen">
    <h2>Text generation using Flan T5</h2>
    <p>
      Model:
      <a
        href="https://huggingface.co/google/flan-t5-small"
        rel="noreferrer"
        target="_blank"
        >google/flan-t5-small
      </a>
    </p>
    <form class="text-gen-form">
      <label for="text-gen-input">Text prompt</label>
      <input
        id="text-gen-input"
        type="text"
        value="German: There are many ducks"
      />
      <button id="text-gen-submit">Submit</button>
      <p class="text-gen-output"></p>
    </form>
  </section>
</main>
  1. main.py 文件中,挂载静态文件并在根路由中显示 html 文件
app.mount("/", StaticFiles(directory="static", html=True), name="static")

@app.get("/")
def index() -> FileResponse:
    return FileResponse(path="/app/static/index.html", media_type="text/html")
  1. script.js 文件中,使其处理请求
const textGenForm = document.querySelector(".text-gen-form");

const translateText = async (text) => {
  const inferResponse = await fetch(`infer_t5?input=${text}`);
  const inferJson = await inferResponse.json();

  return inferJson.output;
};

textGenForm.addEventListener("submit", async (event) => {
  event.preventDefault();

  const textGenInput = document.getElementById("text-gen-input");
  const textGenParagraph = document.querySelector(".text-gen-output");

  textGenParagraph.textContent = await translateText(textGenInput.value);
});
  1. 授予对正确目录的权限

正如在权限部分讨论的那样,容器以用户 ID 1000 运行。这意味着 Space 可能会遇到权限问题。例如,transformers 下载并将模型缓存在 HF_HOME 路径下的路径中。解决此问题的最简单方法是创建一个具有正确权限的用户,并使用它来运行容器应用程序。我们可以通过将以下行添加到 Dockerfile 来做到这一点。

# Switch to the "user" user
USER user

# Set home to the user's home directory
ENV HOME=/home/user \
	PATH=/home/user/.local/bin:$PATH

最终的 Dockerfile 应该如下所示


# read the doc: https://huggingface.co/docs/hub/spaces-sdks-docker
# you will also find guides on how best to write your Dockerfile

FROM python:3.9

# The two following lines are requirements for the Dev Mode to be functional
# Learn more about the Dev Mode at https://huggingface.co/dev-mode-explorers
RUN useradd -m -u 1000 user
WORKDIR /app

COPY --chown=user ./requirements.txt requirements.txt
RUN pip install --no-cache-dir --upgrade -r requirements.txt

COPY --chown=user . /app

USER user

ENV HOME=/home/user \
	PATH=/home/user/.local/bin:$PATH

CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "7860"]

成功!你的应用程序现在应该可以工作了!查看 DockerTemplates/fastapi_t5 以查看最终结果。

多么棒的旅程!请记住,Docker Spaces 给你很大的自由度,所以你不必局限于使用 FastAPI。从 Go 端点Shiny 应用程序,你的想象力就是极限!查看一些官方示例。如果需要,你还可以将你的 Space 升级到 GPU 😃

调试

你可以通过查看“构建”和“容器”日志来调试你的 Space。单击“打开日志”按钮以打开模态框。

如果一切顺利,你将在“构建”选项卡上看到“正在推送镜像”和“正在调度 Space”

Container 选项卡中,您将看到应用程序状态,在本例中为 Uvicorn running on http://0.0.0.0:7860

此外,您可以在您的 Space 上启用 Dev Mode。Dev Mode 允许您通过 VSCode 或 SSH 连接到您正在运行的 Space。在此处了解更多信息: https://huggingface.co/dev-mode-explorers

阅读更多

< > GitHub 上更新