Hub 文档

在 Hugging Face 上使用 PaddleNLP

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

paddlenlp-banner

在 Hugging Face 上使用 PaddleNLP

PaddleNLP 借助 PaddlePaddle 框架,是一个易于使用且功能强大的 NLP 库,拥有出色的预训练模型库,支持从研究到工业应用的广泛 NLP 任务。

在 Hub 中探索 PaddleNLP

你可以在模型页面左侧进行筛选,找到 PaddleNLP 模型。

中心上的所有模型都具有以下功能:

  1. 自动生成的模型卡片,其中包含简要说明和有助于发现的元数据标签。
  2. 可直接在浏览器中与模型交互的交互式小部件。
  1. 允许进行推理请求的推理 API。
  1. 轻松将你的模型部署为 Spaces 上的 Gradio 应用。

安装

首先,你可以遵循PaddlePaddle 快速入门指南,使用你喜欢的操作系统、包管理器和计算平台来安装 PaddlePaddle 框架。

paddlenlp 提供通过 pip 进行快速单行安装的方式。

pip install -U paddlenlp

使用现有模型

transformer 模型类似,paddlenlp 库提供了一个简单的一行代码,通过设置 from_hf_hub=True 从 Hugging Face Hub 加载模型!根据你的使用需求,你可以使用高级 API Taskflow 函数,或者使用 AutoModelAutoTokenizer 来获得更多控制。

# Taskflow provides a simple end-to-end capability and a more optimized experience for inference
from paddlenlp.transformers import Taskflow
taskflow = Taskflow("fill-mask", task_path="PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)

# If you want more control, you will need to define the tokenizer and model.
from paddlenlp.transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
model = AutoModelForMaskedLM.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)

如果你想查看如何加载特定模型,可以点击 `Use in paddlenlp`,你将获得一个可用的代码片段来加载它!

分享你的模型

你可以通过使用所有 `Model` 和 `Tokenizer` 类下的 `save_to_hf_hub` 方法来分享你的 `PaddleNLP` 模型。

from paddlenlp.transformers import AutoTokenizer, AutoModelForMaskedLM

tokenizer = AutoTokenizer.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
model = AutoModelForMaskedLM.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)

tokenizer.save_to_hf_hub(repo_id="<my_org_name>/<my_repo_name>")
model.save_to_hf_hub(repo_id="<my_org_name>/<my_repo_name>")

其他资源

< > 在 GitHub 上更新