Transformers 文档
PhoBERT
并获取增强的文档体验
开始使用
PhoBERT
概述
PhoBERT 模型在 PhoBERT: Pre-trained language models for Vietnamese 这篇论文中被提出,作者是 Dat Quoc Nguyen 和 Anh Tuan Nguyen。
以下是论文的摘要
我们介绍了 PhoBERT 的两个版本,PhoBERT-base 和 PhoBERT-large,这是首个为越南语预训练的大规模单语语言模型。实验结果表明,PhoBERT 在多个越南语特定的 NLP 任务(包括词性标注、依存句法分析、命名实体识别和自然语言推理)中,始终优于最新的最佳预训练多语言模型 XLM-R (Conneau et al., 2020),并改进了最先进水平。
此模型由 dqnguyen 贡献。 原始代码可以在这里找到。
使用示例
>>> import torch
>>> from transformers import AutoModel, AutoTokenizer
>>> phobert = AutoModel.from_pretrained("vinai/phobert-base")
>>> tokenizer = AutoTokenizer.from_pretrained("vinai/phobert-base")
>>> # INPUT TEXT MUST BE ALREADY WORD-SEGMENTED!
>>> line = "Tôi là sinh_viên trường đại_học Công_nghệ ."
>>> input_ids = torch.tensor([tokenizer.encode(line)])
>>> with torch.no_grad():
... features = phobert(input_ids) # Models outputs are now tuples
>>> # With TensorFlow 2.0+:
>>> # from transformers import TFAutoModel
>>> # phobert = TFAutoModel.from_pretrained("vinai/phobert-base")
PhoBERT 的实现与 BERT 相同,除了分词器。 有关配置类及其参数的信息,请参阅 BERT 文档。 PhoBERT 特定的分词器在下面有文档记录。
PhobertTokenizer
class transformers.PhobertTokenizer
< 源代码 >( vocab_file merges_file bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' **kwargs )
参数
- vocab_file (
str
) — 词汇表文件的路径。 - merges_file (
str
) — merges 文件的路径。 - bos_token (
st
, 可选, 默认为"<s>"
) — 序列开始标记,在预训练期间使用。 可以用作序列分类器标记。当使用特殊标记构建序列时,这不是用于序列开始的标记。 使用的标记是
cls_token
。 - eos_token (
str
, 可选, 默认为"</s>"
) — 序列结束标记。当使用特殊标记构建序列时,这不是用于序列结束的标记。 使用的标记是
sep_token
。 - sep_token (
str
, 可选, 默认为"</s>"
) — 分隔符标记,用于从多个序列构建序列时,例如用于序列分类的两个序列,或用于问答的文本和问题。 它也用作使用特殊标记构建的序列的最后一个标记。 - cls_token (
str
, 可选, 默认为"<s>"
) — 分类器标记,用于进行序列分类(对整个序列而不是每个标记进行分类)。 当使用特殊标记构建序列时,它是序列的第一个标记。 - unk_token (
str
, 可选, 默认为"<unk>"
) — 未知标记。 词汇表中不存在的标记无法转换为 ID,而是设置为此标记。 - pad_token (
str
, 可选, 默认为"<pad>"
) — 用于填充的标记,例如在批量处理不同长度的序列时。 - mask_token (
str
, 可选, 默认为"<mask>"
) — 用于屏蔽值的标记。 这是在使用掩码语言建模训练此模型时使用的标记。 这是模型将尝试预测的标记。
构建 PhoBERT 分词器。 基于 Byte-Pair-Encoding。
此分词器继承自 PreTrainedTokenizer,其中包含大多数主要方法。 用户应参考此超类以获取有关这些方法的更多信息。
从文本文件加载预先存在的字典,并将其符号添加到此实例。
build_inputs_with_special_tokens
< source >( token_ids_0: typing.List[int] token_ids_1: typing.Optional[typing.List[int]] = None ) → List[int]
通过连接和添加特殊标记,从序列或序列对构建模型输入,以用于序列分类任务。 PhoBERT 序列具有以下格式
- 单个序列:
<s> X </s>
- 序列对:
<s> A </s></s> B </s>
将标记(字符串)序列转换为单个字符串。
create_token_type_ids_from_sequences
< source >( token_ids_0: typing.List[int] token_ids_1: typing.Optional[typing.List[int]] = None ) → List[int]
从传递的两个序列创建一个掩码,用于序列对分类任务。 PhoBERT 不使用标记类型 ID,因此返回零列表。
get_special_tokens_mask
< source >( token_ids_0: typing.List[int] token_ids_1: typing.Optional[typing.List[int]] = None already_has_special_tokens: bool = False ) → List[int]
从没有添加特殊标记的标记列表中检索序列 ID。 当使用分词器的 prepare_for_model
方法添加特殊标记时,将调用此方法。