logo
pub

Optimierte OneTrainer Einstellungen und Tipps für Flux.1 LoRA und DoRA Training (20% schneller)

Vorbereitung fürs Training

Modell Auswahl

Zuerst, schau, dass du das richtige Modell Flux AI ausgewählt hast. OneTrainer unterstützt verschiedene Modelle, einschließlich Flux.1 dev, pro und schnell. Stell sicher, dass du ein Modell benutzt, das zu deinem Projekt passt.

  1. Modell besorgen: Lade das gewünschte Modell von offiziellen Seiten wie Hugging Face runter.
  2. Modell laden: In OneTrainer gehst du zu den Modelleinstellungen und lädst die Modell-Dateien.

Umgebung einrichten

  1. Hardware-Anforderungen:

    • GPU: Mindestens eine 3060 wird empfohlen. Mit einer 4090 läuft's besser.
    • VRAM: Mindestens 12 GB, um höhere Auflösungen zu schaffen.
    • RAM: Mindestens 10 GB RAM sind ratsam, mehr ist besser.
  2. Software-Anforderungen:

    • Betriebssystem: Wurde sowohl auf Windows als auch auf Linux getestet.
    • Abhängigkeiten: Alle nötigen Abhängigkeiten sollten installiert sein. Schau in die Dokumentation von OneTrainer für eine Liste von erforderlichen Bibliotheken und Tools.

Detaillierte Einstellungen und Konfigurationen

Konzept-Tab/Allgemeine Einstellungen

  1. Wiederholungen: Setze Wiederholungen auf 1. Die Anzahl der Wiederholungen kannst du über Anzahl der Epochen im Trainings-Tab steuern.
  2. Prompt-Quelle: Benutz "aus einer einzelnen Textdatei", wenn du ein „Auslöserwort“ statt individueller Beschreibungen pro Bild haben möchtest. Zeig auf eine Textdatei mit deinem Auslöserwort/Phrase.

Trainings-Tab

Auflösungseinstellungen

  1. Für bessere Qualität:
    • Setze Auflösung auf 768 oder 1024 für hochwertigere Outputs.
  2. EMA-Einstellungen:
    • EMA: Nutze es während der SDXL-Trainings.
    • EMA GPU: Um VRAM zu sparen, setze EMA von "GPU" auf "AUS."
  3. Lernrate:
    • Ein Startpunkt könnte 0.0003 oder 0.0004 sein. Anpassungen je nach deinem Bedarf vornehmen.
  4. Anzahl der Epochen:
    • Typischerweise zeigen 40 Epochen gute Ergebnisse. Je nach Komplexität deines Datensatzes anpassen.

LoRA-Tab

  1. Rank und Alpha:
    • Halte diese Werte gleich (z.B. 64/64, 32/32) oder passe deine Lernrate an.
  2. Ergebnis-Modelle von LoRA:
    • Achte darauf, dass Updates übernommen werden, wenn du neuere ComfyUI-Versionen verwendest.

Performance-Optimierung

  1. Gradient-Checkpointing:
    • Versuch das abzuschalten, wenn du langsame Geschwindigkeiten erlebst, besonders wenn deine Hardware mehr VRAM hat.
  2. bf16 vs nfloat4:
    • Im "Modell"-Tab, schalte Übersteuern der vorherigen Datentypen auf bf16, um eventuell die Qualität zu steigern. Diese Einstellung beeinflusst VRAM und Geschwindigkeit.

Umgang mit Sampling-Problemen

  • Einige Nutzer hatten Out Of Memory (OOM)-Fehler beim Sampling. Achte darauf, dass deine GPU genug VRAM hat.
  • Halte OneTrainer regelmäßig auf dem neuesten Stand, um Fehlerbehebungen und Patches einzuarbeiten.

Tipps für Multi-Konzept-Training

Aktuelle Einschränkungen

  • Mehrere Personen mit verschiedenen Auslösern in derselben Sitzung zu trainieren, funktioniert oft nicht.
  • Verschiedene Objekte oder Situationen (z.B. Trainingsschuhe und spezielle Autos) funktionieren besser.

Beste Praktiken

  1. Kurze Beschreibungen:
    • Verwende kurze, natürliche Beschreibungen. Die funktionieren in nur ein paar Hundert Schritten meist gut.
  2. LoRAs stapeln:
    • Das Stapeln eines Konzept- und Charakter-LoRA bringt bessere Ergebnisse als kombiniertes Training.

Beschreibungen und Datenmanagement

  • Organisiere deine Trainingsdaten sorgfältig. Die Anzahl der Epochen hängt von der Komplexität deiner Daten ab.
  • Kurze, präzise Beschreibungen können das Training deutlich effizienter machen.

FAQs

Q1: Kann ich OneTrainer für Modelle außer Flux.1 verwenden?

Ja, OneTrainer unterstützt SD 1.5, SDXL und mehr. Die Einstellungen können je nach Modell variieren.

Q2: Verwendet OneTrainer automatisch den Konzeptnamen als Auslöserwort?

Ja, der Konzeptname kann als Auslöserwort fungieren. Achte darauf, dass es für dein Projekt sinnvoll ist.

Q3: Wie kann ich VRAM während des Trainings effektiv managen?

Setze Gradient-Checkpointing auf CPU_OFFLOAD. Diese Einstellung hilft, den VRAM-Verbrauch zu reduzieren, ohne die Geschwindigkeit stark zu beeinflussen.

Q4: Was bewirkt die Verwendung von NF4 im Vergleich zu Full Precision Layers?

NF4 reduziert den VRAM-Verbrauch, könnte aber die Qualität leicht vermindern. Full Precision Layers halten die Qualität, benötigen aber mehr VRAM.

Q5: Wie kann ich die Größe meines LoRA-Modells verringern?

Du kannst die Werte für Rank und Alpha reduzieren oder den LoRA-Gewichtsdaten-Typ auf bfloat16 setzen. Das reduziert die Größe, kann aber die Qualität beeinträchtigen.

Q6: Kann OneTrainer Multi-Resolution-Training behandeln?

Ja, OneTrainer unterstützt Multi-Resolution-Training. Folge den Richtlinien im OneTrainer-Wiki für die Einrichtung.

Q7: Meine Bilder erscheinen pink und statisch, wenn ich DoRA benutze. Was soll ich tun?

Überprüfe deine Einstellungen für die Attention-Schicht. Vermeide die Verwendung von "voll" für die Attention-Schichten, da das das Problem verursachen könnte.

Q8: Wie gehe ich mit mehreren Subjekten in OneTrainer um?

Nutze ausgewogenes Training, indem du unterschiedliche Wiederholungswerte für verschiedene Subjekte festlegst. Organisiere die Daten sorgfältig, damit beide Subjekte gleich viel Training bekommen.

Q9: Gibt es einen „Split Mode“-Äquivalent in OneTrainer?

OneTrainer hat keinen „Split Mode“. Stattdessen kannst du Einstellungen wie CPU_OFFLOAD für Gradient-Checkpointing verwenden, um den VRAM effektiver zu managen.

Q10: Können die OneTrainer-Einstellungen für bessere Qualität bei höherem VRAM-Verbrauch angepasst werden?

Ja, erhöhe die Auflösung und passe die Datentypen und Einstellungen für das Gradient-Checkpointing an, um die Qualität zu verbessern.


Diese Anleitung gibt dir alle nötigen Schritte, Einstellungen und Tipps zur Fehlersuche, um OneTrainer mit Flux AI-Modellen effektiv zu nutzen. Viel Spaß beim Training!