使用 Hugging Face 和 Flower 进行联邦学习
本教程将展示如何利用 Hugging Face,通过 Flower 在多个客户端上联邦训练语言模型。更具体地说,我们将针对 IMDB 评分数据集对预训练的 Transformer 模型 (distilBERT) 进行微调,以进行序列分类。最终目标是检测电影评分是正面还是负面。
还有一份笔记本可在此处获取,但它不是在多个独立的客户端上运行,而是利用 Flower 的模拟功能(使用 flwr['simulation']
)在 Google Colab 中模拟联邦设置(这也意味着我们将调用 start_simulation
而不是 start_server
,并且需要进行一些其他修改)。
依赖项
要按照本教程操作,您需要安装以下软件包:datasets
、evaluate
、flwr
、torch
和 transformers
。这可以使用 pip
完成
pip install datasets evaluate flwr torch transformers
标准 Hugging Face 工作流程
处理数据
为了获取 IMDB 数据集,我们将使用 Hugging Face 的 datasets
库。然后我们需要对数据进行标记化并创建 PyTorch
数据加载器,所有这些都在 load_data
函数中完成
import random
import torch
from datasets import load_dataset
from torch.utils.data import DataLoader
from transformers import AutoTokenizer, DataCollatorWithPadding
DEVICE = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
CHECKPOINT = "distilbert-base-uncased"
def load_data():
"""Load IMDB data (training and eval)"""
raw_datasets = load_dataset("imdb")
raw_datasets = raw_datasets.shuffle(seed=42)
# remove unnecessary data split
del raw_datasets["unsupervised"]
tokenizer = AutoTokenizer.from_pretrained(CHECKPOINT)
def tokenize_function(examples):
return tokenizer(examples["text"], truncation=True)
# We will take a small sample in order to reduce the compute time, this is optional
train_population = random.sample(range(len(raw_datasets["train"])), 100)
test_population = random.sample(range(len(raw_datasets["test"])), 100)
tokenized_datasets = raw_datasets.map(tokenize_function, batched=True)
tokenized_datasets["train"] = tokenized_datasets["train"].select(train_population)
tokenized_datasets["test"] = tokenized_datasets["test"].select(test_population)
tokenized_datasets = tokenized_datasets.remove_columns("text")
tokenized_datasets = tokenized_datasets.rename_column("label", "labels")
data_collator = DataCollatorWithPadding(tokenizer=tokenizer)
trainloader = DataLoader(
tokenized_datasets["train"],
shuffle=True,
batch_size=32,
collate_fn=data_collator,
)
testloader = DataLoader(
tokenized_datasets["test"], batch_size=32, collate_fn=data_collator
)
return trainloader, testloader
trainloader, testloader = load_data()
训练和测试模型
一旦我们有了创建训练器和测试器的方法,我们就可以进行训练和测试。这与任何 PyTorch
训练或测试循环都非常相似。
from evaluate import load as load_metric
from transformers import AdamW
def train(net, trainloader, epochs):
optimizer = AdamW(net.parameters(), lr=5e-5)
net.train()
for _ in range(epochs):
for batch in trainloader:
batch = {k: v.to(DEVICE) for k, v in batch.items()}
outputs = net(**batch)
loss = outputs.loss
loss.backward()
optimizer.step()
optimizer.zero_grad()
def test(net, testloader):
metric = load_metric("accuracy")
loss = 0
net.eval()
for batch in testloader:
batch = {k: v.to(DEVICE) for k, v in batch.items()}
with torch.no_grad():
outputs = net(**batch)
logits = outputs.logits
loss += outputs.loss.item()
predictions = torch.argmax(logits, dim=-1)
metric.add_batch(predictions=predictions, references=batch["labels"])
loss /= len(testloader.dataset)
accuracy = metric.compute()["accuracy"]
return loss, accuracy
创建模型本身
要创建模型本身,我们只需使用 Hugging Face 的 AutoModelForSequenceClassification
加载预训练的 distillBERT 模型。
from transformers import AutoModelForSequenceClassification
net = AutoModelForSequenceClassification.from_pretrained(
CHECKPOINT, num_labels=2
).to(DEVICE)
联邦化示例
联邦学习的核心思想是在多个客户端和一台服务器之间训练模型,而无需共享任何数据。这是通过让每个客户端在本地数据上训练模型,然后将参数发送回服务器来完成的,服务器再使用预定义的策略聚合所有客户端的参数。使用 Flower 框架可以非常简单地实现这个过程。如果您想获得更全面的概述,请务必查看此指南:什么是联邦学习?
创建 IMDBClient
为了将我们的示例联邦化到多个客户端,我们首先需要编写我们的 Flower 客户端类(继承自 flwr.client.NumPyClient
)。这非常容易,因为我们的模型是一个标准的 PyTorch
模型。
from collections import OrderedDict
import flwr as fl
class IMDBClient(fl.client.NumPyClient):
def get_parameters(self, config):
return [val.cpu().numpy() for _, val in net.state_dict().items()]
def set_parameters(self, parameters):
params_dict = zip(net.state_dict().keys(), parameters)
state_dict = OrderedDict({k: torch.Tensor(v) for k, v in params_dict})
net.load_state_dict(state_dict, strict=True)
def fit(self, parameters, config):
self.set_parameters(parameters)
print("Training Started...")
train(net, trainloader, epochs=1)
print("Training Finished.")
return self.get_parameters(config={}), len(trainloader), {}
def evaluate(self, parameters, config):
self.set_parameters(parameters)
loss, accuracy = test(net, testloader)
return float(loss), len(testloader), {"accuracy": float(accuracy)}
get_parameters
函数允许服务器获取客户端的参数。相反,set_parameters
函数允许服务器将其参数发送给客户端。最后,fit
函数在本地为客户端训练模型,而 evaluate
函数在本地测试模型并返回相关指标。
我们现在可以使用以下方式启动客户端实例:
fl.client.start_numpy_client(
server_address="127.0.0.1:8080",
client=IMDBClient(),
)
启动服务器
现在我们有了实例化客户端的方法,我们需要创建我们的服务器以聚合结果。使用 Flower,这可以非常容易地完成,首先选择一个策略(这里我们使用 FedAvg
,它将在每一轮中将全局权重定义为所有客户端权重的平均值),然后使用 flwr.server.start_server
函数。
def weighted_average(metrics):
accuracies = [num_examples * m["accuracy"] for num_examples, m in metrics]
losses = [num_examples * m["loss"] for num_examples, m in metrics]
examples = [num_examples for num_examples, _ in metrics]
return {"accuracy": sum(accuracies) / sum(examples), "loss": sum(losses) / sum(examples)}
# Define strategy
strategy = fl.server.strategy.FedAvg(
fraction_fit=1.0,
fraction_evaluate=1.0,
evaluate_metrics_aggregation_fn=weighted_average,
)
# Start server
fl.server.start_server(
server_address="0.0.0.0:8080",
config=fl.server.ServerConfig(num_rounds=3),
strategy=strategy,
)
weighted_average
函数用于提供一种聚合客户端之间分布的指标的方法(这基本上允许我们显示每一轮的平均准确度和损失)。
整合所有内容
如果你想查看所有内容整合在一起的代码,请查看我们为 Flower 仓库编写的代码示例:https://github.com/adap/flower/tree/main/examples/quickstart-huggingface。
当然,这只是一个非常基本的例子,可以添加或修改很多内容,它只是为了展示我们如何简单地使用 Flower 实现 Hugging Face 工作流程的联邦化。
请注意,在这个例子中我们使用了 PyTorch
,但我们也可以很好地使用 TensorFlow
。