Hub 文档
在 Hugging Face 上使用 PaddleNLP
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
在 Hugging Face 上使用 PaddleNLP
PaddleNLP
借助 PaddlePaddle 框架,是一个易于使用且功能强大的 NLP 库,拥有出色的预训练模型库,支持从研究到工业应用的广泛 NLP 任务。
在 Hub 中探索 PaddleNLP
你可以在模型页面左侧进行筛选,找到 PaddleNLP
模型。
中心上的所有模型都具有以下功能:

- 自动生成的模型卡片,其中包含简要说明和有助于发现的元数据标签。
- 可直接在浏览器中与模型交互的交互式小部件。

- 允许进行推理请求的推理 API。

- 轻松将你的模型部署为 Spaces 上的 Gradio 应用。

安装
首先,你可以遵循PaddlePaddle 快速入门指南,使用你喜欢的操作系统、包管理器和计算平台来安装 PaddlePaddle 框架。
paddlenlp
提供通过 pip 进行快速单行安装的方式。
pip install -U paddlenlp
使用现有模型
与 transformer
模型类似,paddlenlp
库提供了一个简单的一行代码,通过设置 from_hf_hub=True
从 Hugging Face Hub 加载模型!根据你的使用需求,你可以使用高级 API Taskflow
函数,或者使用 AutoModel
和 AutoTokenizer
来获得更多控制。
# Taskflow provides a simple end-to-end capability and a more optimized experience for inference
from paddlenlp.transformers import Taskflow
taskflow = Taskflow("fill-mask", task_path="PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
# If you want more control, you will need to define the tokenizer and model.
from paddlenlp.transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
model = AutoModelForMaskedLM.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
如果你想查看如何加载特定模型,可以点击 `Use in paddlenlp`,你将获得一个可用的代码片段来加载它!

分享你的模型
你可以通过使用所有 `Model` 和 `Tokenizer` 类下的 `save_to_hf_hub` 方法来分享你的 `PaddleNLP` 模型。
from paddlenlp.transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
model = AutoModelForMaskedLM.from_pretrained("PaddlePaddle/ernie-1.0-base-zh", from_hf_hub=True)
tokenizer.save_to_hf_hub(repo_id="<my_org_name>/<my_repo_name>")
model.save_to_hf_hub(repo_id="<my_org_name>/<my_repo_name>")
其他资源
- PaddlePaddle 安装指南。
- PaddleNLP GitHub 仓库。
- Hugging Face Hub 上的 PaddlePaddle