Hub 文档

在 Hugging Face 上使用 PaddleNLP

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

paddlenlp-banner

在 Hugging Face 上使用 PaddleNLP

利用 PaddlePaddle 框架,PaddleNLP 是一个易于使用且功能强大的 NLP 库,拥有出色的预训练模型库,支持从研究到工业应用的广泛 NLP 任务。

在 Hub 中探索 PaddleNLP

您可以通过在模型页面左侧筛选来找到 PaddleNLP 模型。

Hub 上的所有模型都具有以下功能

  1. 自动生成的模型卡片,其中包含简要描述和元数据标签,有助于发现。
  2. 一个交互式小部件,您可以使用它直接在浏览器中试用模型。
  1. 一个允许发出推理请求的推理 API。
  1. 轻松将您的模型作为 Gradio 应用程序部署在 Spaces 上。

安装

要开始使用,您可以按照 PaddlePaddle 快速入门 来安装 PaddlePaddle 框架,并选择您喜欢的操作系统、包管理器和计算平台。

paddlenlp 提供通过 pip 进行的快速单行安装

pip install -U paddlenlp

使用现有模型

transformer 模型类似,paddlenlp 库提供了一个简单的单行代码,通过设置 from_hf_hub=True! 从 Hugging Face Hub 加载模型! 根据您想要如何使用它们,您可以使用 Taskflow 函数使用高级 API,或者您可以使用 AutoModelAutoTokenizer 以获得更多控制。

# Taskflow provides a simple end-to-end capability and a more optimized experience for inference
from paddlenlp.transformers import Taskflow
taskflow = Taskflow("fill-mask", task_path="PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)

# If you want more control, you will need to define the tokenizer and model.
from paddlenlp.transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
model = AutoModelForMaskedLM.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)

如果您想了解如何加载特定模型,您可以单击“Use in paddlenlp”,您将获得一个可用的代码片段,您可以加载它!

分享您的模型

您可以使用所有 ModelTokenizer 类下的 save_to_hf_hub 方法来分享您的 PaddleNLP 模型。

from paddlenlp.transformers import AutoTokenizer, AutoModelForMaskedLM

tokenizer = AutoTokenizer.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
model = AutoModelForMaskedLM.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)

tokenizer.save_to_hf_hub(repo_id="<my_org_name>/<my_repo_name>")
model.save_to_hf_hub(repo_id="<my_org_name>/<my_repo_name>")

其他资源

< > 更新 在 GitHub 上