logo
pub

Usando FluxGym para Entrenamiento de Flux LoRA con Bajo VRAM

Introducción

FluxGym es una interfaz web para entrenar Flux LoRAs con una VRAM baja (12G, 16G, etc.). La han desarrollado en Black Forest Labs usando Kohya-ss/sd-scripts, y la idea es hacer que el proceso de entrenamiento sea más fácil para los que tienen GPUs menos potentes. Aquí te resumimos algunos problemas comunes que enfrentan los usuarios y te damos soluciones.

Descripción del Problema

Los usuarios enfrentan varios problemas al usar FluxGym, como el uso alto de VRAM, problemas de implementación y discrepancias en los resultados de entrenamiento.

Los problemas comunes incluyen:

  • Requerimientos altos de VRAM incluso después de optimizaciones
  • Discrepancias en el entrenamiento
  • Errores por configuraciones del entorno
  • Tiempos de entrenamiento lentos en configuraciones de baja VRAM

Problema 1: Alto Uso de VRAM

Incluso con las optimizaciones, algunos usuarios encuentran que el uso de VRAM sigue siendo demasiado alto. Por ejemplo:

ACTUALIZACIÓN: Acabo de enterarme de que el Auto-caption de Florence-2 no estaba limpiando la caché... ¡esto solo parece reducir 4GB de VRAM! Ahora, la opción de 20G corre con solo 16G.

Link: GitHub Cambio

Solución:

  • Asegúrate de descargar la última versión desde GitHub.
  • Usa la función torch.cuda.empty_cache() para limpiar la caché manualmente donde sea necesario.

Problema 2: Configuraciones de Entrenamiento

Algunos usuarios no tienen claro cómo ajustar los parámetros de entrenamiento para obtener mejores resultados. Ejemplo:

¿este config base es óptimo para un 4090? o se puede sacar más velocidad con otro config?

Comparación:

  • A4500: 58 minutos (1300 pasos)
  • 4090: 20 minutos (1200 pasos)

Solución:

  • Usa la pestaña avanzada para personalizar ajustes como epochs, tasas de aprendizaje y resoluciones.
  • Ejemplo de ajuste de configuraciones:
    https://x.com/cocktailpeanut/status/1832113636367876446
    

Problema 3: Problemas de Configuración del Entorno

Los errores suelen provenir de problemas con el entorno y las dependencias. Ejemplo:

return Variable._execution_engine.run_backward( # Llama al motor C++ para ejecutar la pasada hacia atrás" por más de una hora y media.

Solución:

  • Asegúrate de que Python sea compatible y verifica que todas las dependencias estén instaladas correctamente.
  • Revisa esta discusión para ayuda:
    https://github.com/pinokiofactory/factory/discussions/6
    

Problema 4: Discrepancias en Resultados de Entrenamiento

Los usuarios reportan resultados inconsistentes al entrenar. Ejemplo:

¿alguien sabe cómo ajustar los settings para obtener mejores resultados cuando el entrenamiento original no cumple las expectativas?

Solución:

  • Revisa y ajusta parámetros como pasos y epochs en función de la calidad y el tamaño del conjunto de datos.
  • Usa resoluciones más altas para trabajos detallados:
    https://x.com/cocktailpeanut/status/1832098084794356081
    

Consejos Adicionales

Consejo 1: Mantente al Tanto de las Actualizaciones

Revisa actualizaciones regularmente para beneficiarte de nuevas optimizaciones.

Consejo 2: Usa Conjuntos de Datos Apropiados

Conjuntos de datos de alta calidad y bien etiquetados resultan en mejores resultados de entrenamiento.

Consejo 3: Involúcrate con la Comunidad

Participa en foros y discusiones relevantes para obtener apoyo y consejos.

Siguiendo estas estrategias y consejos, podrás aprovechar al máximo FluxGym para entrenar Flux LoRAs con baja VRAM. ¡Feliz entrenamiento!