大语言模型(LLM)中评估数据污染的应对策略:高质量微调和模型合并

社区文章 发布于2023年12月20日

大型语言模型(LLM)在自然语言处理(NLP)任务中扮演着关键角色;然而,要取得成功,就必须严格遵守质量控制措施,并就模型融合策略做出明智的决策。其中一个主要挑战是避免评估数据污染,这会引入偏差并损害性能指标的可信度。幸运的是,诸如 https://github.com/cg123/mergekithttps://github.com/swj0419/detect-pretrain-code-contamination 等工具通过简化模型合并和识别受污染训练数据的过程,有助于应对这些障碍。此外,研究CatPPT等出色的LLM有助于了解最佳配置和微调策略。本综合指南探讨了通过严格验证过程和创新技术发布高性能LLM的关键方面。

第一部分:干净训练数据的重要性

创建强大的LLM首先需要收集和验证高质量的训练数据集。在为模型准备监督微调或直接偏好优化(DPO)训练时,确保评估数据集不与训练数据重叠至关重要。任何共享的实例都会人为地提高性能指标,使其无法有效指示真实熟练度。实施以下指南以最大程度地降低污染风险:

  • 认真管理您的训练数据集,清除任何源自与评估数据集(例如ARC、HellaSwag、MMLU、TruthfulQA、Winogrande或GSM8K)相同来源的内容。
  • 定期审查您的训练数据集,以发现评估数据意外包含的情况。利用“detect-pretrain-code-contamination”等资源高效地查明不必要的重叠。
  • 将数据验证工作外包给外部方或进行众包检查,以确保公正的审查并减少确认偏差。

第二部分:模型合并的高级方法

LLM 开发的最新进展涉及融合多个预训练模型以提升整体性能。尽管传统的权重平均方法仍然普遍存在,但球面线性插值 (SLERP) 等新颖方法提供了显著优势。这些优势包括无缝的转换管理、增强的特征保留以及基于几何和旋转特性的精细组合。深入了解SLERP为何超越基本权重平均方法:

  • 平滑过渡 - SLERP 促进模型权重之间更平滑的调整,即使在高维环境中,也能减少可能对下游性能有害的突兀变化。
  • 改进的特征保留 - 独特的特征不会因过度简化的平均而丢失,这得益于 SLERP 在复杂向量空间中保留父模型曲率和独特性的能力。
  • 精细组合 - SLERP 考虑了每个贡献模型在向量景观中的固有形状和方向,从而产生平衡的融合体,反映了从两个父模型继承的期望属性。

第三部分:组合前的验证优先级

为了防止因不明智的模型选择而引入污染,在开始融合过程之前,请彻底调查每个候选模型。像CatPPT这样的优秀混合模型展示了通过明智的父模型选择和细致的验证协议所能达到的卓越性能。请遵循以下建议:

  • 确认每个潜在模型的出处,以避免纳入受损实体。
  • 验证所选候选模型之间的兼容性,以促进能够利用互补优势的和谐融合。
  • 建立清晰的标准,概述在后续LLM中寻求的理想属性,从而指导关于合适父模型的明智决策。

第四部分:展示成功——CatPPT的崛起

一个体现LLM组装精湛技艺的杰出样本是托管在Hugging Face上的 rishiraj/CatPPT。CatPPT由Intel/neural-chat-7b-v3-3和openchat/openchat-3.5-1210结合而成,随后按照HuggingFaceH4/no_robots的风格进行了针对性的对话微调。CatPPT作为首个没有明显评估数据污染的7B参数模型,独领风骚。它的成功突显了精心选择父模型、严格验证程序和有目的微调策略的优点。这篇博客的部分内容也由该模型生成。在您的LLM开发过程中,借鉴这些策略,复制这一成功。

模型 平均分 ARC HellaSwag MMLU TruthfulQA Winogrande GSM8K
rishiraj/CatPPT 72.32 68.09 86.69 65.16 61.55 81.61 70.81
Intel/neural-chat-7b-v3-3 69.83 66.89 85.26 63.07 63.01 79.64 61.11
openchat/openchat-3.5-1210 68.89 64.93 84.92 64.62 52.15 80.74 65.96
meta-math/MetaMath-Mistral-7B 65.78 60.67 82.58 61.95 44.89 75.77 68.84
Deci/DeciLM-7B-instruct 63.19 61.01 82.37 60.24 49.75 79.72 46.02
mistralai/Mistral-7B-Instruct-v0.2 65.71 63.14 84.88 60.78 68.26 77.19 40.03
mistralai/Mixtral-8x7B-Instruct-v0.1 72.62 70.22 87.63 71.16 64.58 81.37 60.73
meta-llama/Llama-2-70b-hf 67.87 67.32 87.33 69.83 44.92 83.74 54.06
tiiuae/falcon-180B 67.85 69.45 88.86 70.5 45.47 86.9 45.94

结论:

打造卓越的LLM需要致力于质量控制、模型合并创新以及战略性微调。在设计和执行的每个阶段——从初始数据收集到最终模型集成——都要保持警惕,避免有害的评估数据污染。利用 https://github.com/cg123/mergekithttps://github.com/swj0419/detect-pretrain-code-contamination 等尖端工具来增强您工作流程的信心。最后,从CatPPT等优秀LLM中汲取灵感,为您的NLP目标量身定制成功的组合。今天就带着知识和决心,踏上构建世界级LLM的征程吧,如果这篇博客对您有帮助,请在Hugging Face上关注我!

社区

注册登录 以评论