logo
pub

Usando o FluxGym para Treinamento de Flux LoRA com Baixo VRAM

Introdução

FluxGym é uma interface web pra treinar Flux LoRAs com VRAM baixa (12G, 16G, etc). Foi desenvolvida pela Black Forest Labs usando o Kohya-ss/sd-scripts, e a ideia é simplificar o processo de treinamento pra quem tem placas de vídeo menos potentes. Aqui, vou resumir os problemas comuns que o pessoal enfrenta e dar algumas soluções.

Descrição do Problema

Os usuários encontram várias dificuldades ao tentar usar o FluxGym, tipo alto uso de VRAM, problemas de implementação e diferenças nos resultados do treinamento.

Os problemas mais comuns incluem:

  • Requisitos de VRAM muito altos mesmo depois de otimizações
  • Discrepâncias nos treinos
  • Erros causados pelas configurações do ambiente
  • Treinamentos lentos em setups com VRAM baixa

Problema 1: Alto Uso de VRAM

Mesmo com as otimizações, alguns usuários acham que o uso de VRAM ainda tá alto. Por exemplo:

ATUALIZAÇÃO: Acabei de descobrir que o Florence-2 Auto-caption não estava limpando o cache... só isso parece reduzir 4GB de VRAM! Agora, a opção de 20G roda com apenas 16G.

Link: Mudança no GitHub

Solução:

  • Sempre puxe a versão mais recente do GitHub.
  • Use a função torch.cuda.empty_cache() pra limpar o cache manualmente onde der.

Problema 2: Configurações de Treinamento

Alguns usuários não tão muito certos de como ajustar os parâmetros de treinamento pra ter resultados melhores. Exemplo:

então essa configuração base é ideal pra uma 4090? ou tem como tirar mais velocidade com uma configuração diferente?

Comparação:

  • A4500: 58 minutos (1300 passos)
  • 4090: 20 minutos (1200 passos)

Solução:

  • Vá na aba avançada pra personalizar as configurações, como épocas, taxas de aprendizado e resoluções.
  • Exemplo de ajuste de configurações:
    https://x.com/cocktailpeanut/status/1832113636367876446
    

Problema 3: Problemas de Configuração do Ambiente

Erros frequentemente surgem de problemas no ambiente e nas dependências. Exemplo:

return Variable._execution_engine.run_backward( # Chamando o motor C++ pra rodar a passada pra trás" por mais de uma hora e meia.

Solução:

  • Verifique a compatibilidade do Python e confirme que todas as dependências estão instaladas corretamente.
  • Dê uma olhada nessa discussão pra ajudar:
    https://github.com/pinokiofactory/factory/discussions/6
    

Problema 4: Discrepâncias nos Resultados do Treinamento

Os usuários reportam resultados inconsistentes durante os treinos. Exemplo:

alguém sabe como ajustar as configurações pra ter resultados melhores quando o treinamento original não bate com as expectativas?

Solução:

  • Revise e ajuste parâmetros como passos e épocas, dependendo da qualidade e tamanho do conjunto de dados.
  • Use resoluções mais altas pra trabalhos detalhados:
    https://x.com/cocktailpeanut/status/1832098084794356081
    

Dicas Adicionais

Dica 1: Fique de Olho nas Atualizações

Cheque atualizações regularmente pra aproveitar novas otimizações.

Dica 2: Use Conjuntos de Dados Adequados

Conjuntos de dados de alta qualidade e bem etiquetados resultam em melhores resultados de treinamento.

Dica 3: Interaja com a Comunidade

Participe de fóruns e discussões relevantes pra pegar suporte e dicas.

Seguindo essas estratégias e dicas, você pode aproveitar ao máximo o FluxGym pra treinar Flux LoRAs com VRAM baixa. Boa sorte nos treinos!