通过 API 运行
要通过 API 运行,而不是复制 LGM-tiny 空间,请复制 LGM-tiny-api 空间。其中包含以下 app.py
。
import gradio as gr
from gradio_client import Client, file
def run(image_url):
client = Client("dylanebert/LGM-tiny")
image = file(image_url)
result = client.predict(image, api_name="/predict")
return result
demo = gr.Interface(
fn=run,
title="LGM Tiny API",
description="An API wrapper for [LGM Tiny](https://huggingface.co/spaces/dylanebert/LGM-tiny). Intended as a resource for the [ML for 3D Course](https://huggingface.co/learn/ml-for-3d-course).",
inputs=gr.Textbox(label="Image URL", placeholder="Enter image URL, e.g. https://huggingface.co/datasets/dylanebert/iso3d/resolve/main/jpg@512/a_cat_statue.jpg"),
outputs=gr.Model3D(),
examples=[
"https://huggingface.co/datasets/dylanebert/iso3d/resolve/main/jpg@512/a_cat_statue.jpg"
],
allow_duplication=True,
)
demo.queue().launch()
这将在 CPU 上运行,但依赖于原始的 LGM-tiny,而不是你的自定义模型。但是,如果你的重点是 UI/UX 或下游任务,这可能是可以接受的。
< > 更新 在 GitHub 上