logo
pub

FluxGym für Low VRAM Flux LoRA Training nutzen

Einführung

FluxGym ist ein Web-UI, um Flux LoRAs mit wenig VRAM (12G, 16G usw.) zu trainieren. Das Ganze kommt von Black Forest Labs und nutzt Kohya-ss/sd-scripts, um den Trainingsprozess für Leute mit weniger leistungsstarken GPUs einfacher zu machen. In dieser Notiz fasse ich die häufigsten Probleme zusammen, die Nutzer haben, und gebe Lösungen.

Problem Beschreibung

Nutzer haben diverse Probleme mit FluxGym, wie zum Beispiel hohe VRAM-Nutzung, Implementierungsprobleme und Unterschiede bei den Trainingsergebnissen.

Die häufigsten Probleme sind:

  • Hohe VRAM-Anforderungen, selbst nach Optimierungen
  • Unterschiede beim Training
  • Fehler wegen Umgebungs-Konfigurationen
  • Langsame Trainingszeiten bei Low-VRAM-Setups

Problem 1: Hohe VRAM-Nutzung

Auch nach den Optimierungen finden manche Nutzer die VRAM-Nutzung immer noch zu hoch. Zum Beispiel:

UPDATE: Habe gerade gelernt, dass der Florence-2 Auto-caption den Cache nicht gelöscht hat... das allein scheint 4GB VRAM zu sparen! Jetzt läuft die 20G-Option mit nur 16G.

Link: GitHub Änderung

Lösung:

  • Hol dir die neueste Version von GitHub.
  • Benutze die Funktion torch.cuda.empty_cache(), um den Cache manuell zu leeren, wo es nötig ist.

Problem 2: Trainingskonfigurationen

Einige Nutzer wissen nicht genau, wie sie die Trainingsparameter anpassen müssen, um bessere Ergebnisse zu erzielen. Beispiel:

ist diese Basis-Konfiguration optimal für eine 4090? oder kann man mit einer anderen Konfiguration noch mehr Geschwindigkeit rausholen?

Vergleich:

  • A4500: 58 Minuten (1300 Schritte)
  • 4090: 20 Minuten (1200 Schritte)

Lösung:

  • Nutze den erweiterten Tab, um Einstellungen wie Epochs, Lernraten und Auflösungen anzupassen.
  • Beispiel für Einstellungen:
    https://x.com/cocktailpeanut/status/1832113636367876446
    

Problem 3: Probleme mit der Umgebung

Fehler kommen oft von Umgebungs- und Abhängigkeitsfragen. Beispiel:

return Variable._execution_engine.run_backward( # Ruft die C++ Engine auf, um den rückwärts Durchlauf zu machen" für über eineinhalb Stunden.

Lösung:

  • Prüfe die Kompatibilität von Python und stelle sicher, dass alle Abhängigkeiten korrekt installiert sind.
  • Schau dir diese Diskussion für Hilfe an:
    https://github.com/pinokiofactory/factory/discussions/6
    

Problem 4: Unterschiede in den Trainingsergebnissen

Nutzer berichten von inkonsistenten Ergebnissen beim Training. Beispiel:

weiß irgendjemand, wie man die Einstellungen anpasst, um bessere Ergebnisse zu erzielen, wenn das ursprüngliche Training nicht den Erwartungen entspricht?

Lösung:

  • Überprüfe und passe Parameter wie Schritte und Epochs basierend auf der Qualität und Größe des Datensatzes an.
  • Verwende höhere Auflösungen für detaillierte Arbeiten:
    https://x.com/cocktailpeanut/status/1832098084794356081
    

Zusätzliche Tipps

Tipp 1: Bleib auf dem neuesten Stand

Schau regelmäßig nach Updates, um von neuen Optimierungen zu profitieren.

Tipp 2: Verwende die richtigen Datensätze

Hochwertige und gut getaggte Datensätze führen zu besseren Trainingsergebnissen.

Tipp 3: Engagiere dich in der Community

Nimm an relevanten Foren und Diskussionen teil, um Unterstützung und Tipps zu bekommen.

Wenn du diese Strategien und Tipps befolgst, kannst du das Beste aus FluxGym herausholen, um Flux LoRAs mit wenig VRAM zu trainieren. Viel Spaß beim Trainieren!