LoRA 训练思考 第二部分:在哪里训练

社区文章 发布于2024年6月18日

这是一个相当快的后续,但有一些即时的“我从何开始”的问题我想回答。

首先,如果你**从未**训练过 LoRA,请从一个有预设值的地方开始——比如一个带有预设训练参数的笔记本或平台。我恳求你。

我坚持这样做的原因是——如果你在不确定是否理解如何整理数据集和标注之前就开始调整设置,那么你将永远不知道问题出在你的数据还是你的参数上。诊断起来会是一场噩梦,而且会非常令人沮丧。此外,大多数这些平台或默认设置并非随意设定的——它们在某些时候对**某些人**有效,所以你大概也能让它们奏效!

所以,不再犹豫,这里列出了一些我用过的工具,以及一些我没用过但看到过良好结果的工具。

开源

我认为开源可能是一个不错的选择——我就是这样开始的——在很多情况下,这取决于你牺牲时间以换取实用性的意愿。

The Last Ben Runpod

最简单的方法,而且 TLB 非常棒。真的,如果你不想想太多,只想开始,就用他的 runpod。我建议你的标注尽量简短,使用**唯一标识符**+**几个描述词**的格式。说实话,Ben 一直建议只使用唯一标识符。两者都行。

只使用唯一标识符的唯一挑战是,你需要确保拥有一个平衡的数据集。也就是说——图片数量要足够但不能太多(10-30张),没有重复,概念一致,同时也要包含你不想让模型学习的各种变化。

Kohya

Kohya 也很好——我只是不愿把它推荐给新手,因为它允许你调整太多设置。我觉得这可能会导致灾难。但是,最终,它是一个黄金标准。

付费服务

说实话,我还没遇到一个完美的平台,但这里列出了我所知道的所有平台,并附有我是否使用过它们的说明。

Scenario - 我实际上帮助 Scenario 开发了训练预设,所以我很喜欢它。我相信对于账户持有者来说,训练次数仍然是无限的,但是没有办法导出你的模型,这让我觉得很有挑战性。我通常只使用预设。

CivitAI - 我不太喜欢 Civit 的氛围,但如果我说他们的训练不起作用,那是在误导你。我甚至相信他们那些疯狂的自动标注。通常我会进行 20 个 epoch,17 次重复,Clip Skip 设置为 2。

Pimento - Pimento 在插画方面的预设让我印象深刻。我还没有深入研究,但最终我认为它作为一项服务有很大的潜力。

Leonardo - 我没有花太多时间使用 Leonardo 进行训练,但当我使用时并没有完全失望。我确实认为他们的微调团队创造了令人惊叹的作品,并希望看到他们的训练能更多地反映这一点。

Layer - 我自己没有怎么使用他们的服务,但我听说人们获得了非常好的结果。

EverArt - 对于那些想要一个非常非常简单、无需太多改动的设置的人来说,我认为 EverArt 潜力巨大。

Astria - 我实际上在 2022 年首次在 Astria 上进行了训练,我认为他们在一致的角色/物体设置方面做得非常完善。我还没有重新访问过,但它在我的清单上。

所以——希望这份清单能帮到你!

社区

注册登录 以评论

© . This site is unofficial and not affiliated with Hugging Face, Inc.