logo
pub

Оптимизированные настройки OneTrainer и советы для обучения Flux.1 LoRA и DoRA (на 20% быстрее)

Подготовка к обучению

Выбор модели

Сначала проверь, что ты выбрал правильную модель Flux AI. OneTrainer поддерживает разные модели, такие как Flux.1 dev, pro и schnell. Убедись, что модель подходит для твоего проекта.

  1. Получение модели: Скачай нужную модель с официальных источников, таких как Hugging Face.
  2. Загрузка модели: В OneTrainer перейди в настройки модели и загрузите файлы модели.

Настройка окружения

  1. Требования к железу:

    • GPU: Лучше минимум 3060. Если повезёт с 4090, будет еще лучше.
    • VRAM: Как минимум 12 ГБ, чтобы работать с более высокими разрешениями.
    • RAM: Рекомендуется не меньше 10 ГБ, чем больше, тем лучше.
  2. Требования к софту:

    • ОС: Проверено на Windows и Linux.
    • Зависимости: Убедись, что все зависимости установлены. Загляни в документацию OneTrainer для списка необходимых библиотек и инструментов.

Подробные настройки и конфигурации

Вкладка Концепт/Общие настройки

  1. Повторы: Установи Повторы на 1. Управляй количеством повторов через Количество эпох на вкладке обучения.
  2. Источник подсказок: Используй "из одного текстового файла", если хочешь "триггерное слово", а не отдельные подписи для каждого изображения. Укажи путь к текстовому файлу с триггерным словом/фразой.

Вкладка Обучение

Настройки разрешения

  1. Для лучшего качества:
    • Установи Разрешение на 768 или 1024 для более качественных выходов.
  2. Настройки EMA:
    • EMA: Используй во время тренировок SDXL.
    • EMA GPU: Чтобы сэкономить VRAM, переключи EMA с "GPU" на "OFF".
  3. Скорость обучения:
    • Начни с 0.0003 или 0.0004. Подкорректируй по своим нуждам.
  4. Количество эпох:
    • Обычно 40 эпох дают хорошие результаты. Подстраивай в зависимости от сложности твоего датасета.

Вкладка LoRA

  1. Ранг и Альфа:
    • Держи эти значения одинаковыми (например, 64/64, 32/32) или настрой скорость обучения соответственно.
  2. Результирующие LoRA модели:
    • Убедись, что обновления применяются, если используешь последние версии ComfyUI.

Оптимизация производительности

  1. Контроль градиентов:
    • Попробуй отключить это, если скорость не устраивает, особенно если железо поддерживает больше VRAM.
  2. bf16 против nfloat4:
    • В вкладке "модель" поменяй Переопределить предыдущее значение типа данных на bf16, чтобы, возможно, повысить качество. Эта настройка влияет на VRAM и скорость.

Обработка проблем с выборкой

  • Некоторые пользователи сталкивались с ошибкой Out Of Memory (OOM) во время выборки. Убедись, что у твоего GPU достаточно VRAM.
  • Регулярно обновляй OneTrainer, чтобы получать исправления ошибок и патчи.

Советы по многоконцептному обучению

Текущие ограничения

  • Обучение нескольких людей с разными триггерными словами за одну сессию часто не срабатывает.
  • Разные объекты или ситуации (например, тренировочные кроссовки и конкретные машины) работают лучше.

Лучшие практики

  1. Короткие подписи:
    • Используй короткие, естественные подписи. Они работают хорошо всего за несколько сотен шагов.
  2. Накопление LoRA:
    • Накопление концепции и персонажа LoRA дает лучшие результаты, чем совместное обучение.

Подписи и управление данными

  • Упорядочь свои данные для обучения аккуратно. Количество эпох зависит от сложности данных.
  • Короткие, точные подписи могут значительно поднять эффективность обучения.

Часто задаваемые вопросы

В1: Могу ли я использовать OneTrainer для моделей, отличных от Flux.1?

Да, OneTrainer поддерживает SD 1.5, SDXL и другие. Настройки будут различаться в зависимости от модели.

В2: OneTrainer автоматически использует название концепции как триггерное слово?

Да, название концепции может выступать в роли триггерного слова. Главное, чтобы оно имело смысл для твоего проекта.

В3: Как управлять VRAM эффективно во время обучения?

Установи Контроль градиентов на CPU_OFFLOAD. Эта настройка помогает снизить использование VRAM без значительного влияния на скорость.

В4: Какое влияние оказывает использование NF4 против полных точечных слоев?

NF4 уменьшает использование VRAM, но может немного снизить качество. Полные точечные слои сохраняют качество, но требуют больше VRAM.

В5: Как уменьшить размер своей модели LoRA?

Ты можешь уменьшить значения Ранга и Альфа или установить Тип данных веса LoRA на bfloat16. Это уменьшит размер, но может повлиять на качество.

В6: Может ли OneTrainer поддерживать многорезолюционное обучение?

Да, OneTrainer поддерживает многорезолюционное обучение. Следуй инструкциям в вики OneTrainer для настройки.

В7: Мои изображения выглядят как розовая статика при использовании DoRA. Что делать?

Проверь настройки слоя внимания. Избегай использования "full" для слоев внимания, так как это может вызывать проблемы.

В8: Как работать с несколькими объектами в OneTrainer?

Используй сбалансированное обучение, устанавливая разные значения повторов для разных объектов. Аккуратно организуй данные, чтобы оба объекта получили равное обучение.

В9: Есть ли эквивалент 'режима разделения' в OneTrainer?

В OneTrainer нет 'режима разделения'. Вместо этого используй такие настройки, как CPU_OFFLOAD для Контроля градиентов, чтобы эффективнее управлять VRAM.

В10: Можно ли настраивать параметры OneTrainer для лучшего качества с большим использованием VRAM?

Да, увеличь разрешение и подстрои типы данных и настройки контроля градиентов для повышения качества.


Этот гайд должен покрыть все необходимые шаги, настройки и советы по устранению проблем для эффективного использования OneTrainer с моделями Flux AI. Удачи в обучении!