logo
pub

FluxGym으로 저 VRAM Flux LoRA 훈련하기

소개

FluxGym은 낮은 VRAM(12G, 16G 등)으로 Flux LoRAs를 훈련할 때 사용할 수 있는 웹 UI야. Black Forest Labs가 Kohya-ss/sd-scripts를 사용해서 개발했어. 이건 성능이 떨어지는 GPU를 가진 사용자들이 훈련 과정을 더 쉽게 할 수 있도록 도와주려고 만든 거야. 여기서는 사용자들이 자주 겪는 문제와 그 해결책을 정리해볼게.

문제 설명

FluxGym을 사용할 때 사용자들이 여러 가지 문제를 겪고 있어. VRAM 사용량이 높거나, 구현 문제, 훈련 결과 차이 등 여러 가지가 있지.

주요 문제로는:

  • 최적화 후에도 여전히 높은 VRAM 요구량
  • 훈련 결과의 차이
  • 환경 설정에서 발생하는 오류
  • 낮은 VRAM 설정에서 느린 훈련 시간

문제 1: 높은 VRAM 사용량

최적화를 해도 VRAM 사용량이 너무 높다고 느끼는 사용자들도 있어. 예를 들어:

UPDATE: Florence-2 자동 캡션이 캐시를 삭제하지 않는 걸 방금 알게 됐거든... 이거 하나만으로도 4GB VRAM을 줄일 수 있나 봐! 이제 20G 옵션이 16G로도 돌아가.

링크: GitHub 변경 사항

해결책:

  • GitHub에서 최신 버전을 꼭 받아와야 해.
  • 가능한 경우 torch.cuda.empty_cache() 함수를 사용해서 수동으로 캐시를 비워줘.

문제 2: 훈련 설정

어떤 사용자들은 훈련 매개변수를 어떻게 조절해야 더 좋은 결과를 얻을 수 있는지 잘 모르고 있어. 예시:

이 기본 설정이 4090에 최적이야? 아니면 다른 설정으로 더 빠르게 할 수 있어?

비교:

  • A4500: 58분 (1300 스텝)
  • 4090: 20분 (1200 스텝)

해결책:

  • 고급 탭을 활용해서 에포크, 학습률, 해상도 같은 설정을 customized해봐.
  • 설정 조정 예시:
    https://x.com/cocktailpeanut/status/1832113636367876446
    

문제 3: 환경 설정 문제

오류는 종종 환경과 의존성 문제에서 발생해. 예시:

return Variable._execution_engine.run_backward( # C++ 엔진을 호출해서 백워드 패스를 1시간 반 넘게 실행함.

해결책:

  • Python 호환성을 체크하고, 모든 의존성이 제대로 설치되었는지 확인해봐.
  • 도움이 필요하면 여기 참고해:
    https://github.com/pinokiofactory/factory/discussions/6
    

문제 4: 훈련 결과 차이

사용자들이 훈련할 때 일관되지 않은 결과를 보고하고 있어. 예시:

원래 훈련이 예상과 다를 때, 더 좋은 결과를 얻으려면 설정을 어떻게 조정해야 해?

해결책:

  • 데이터셋 품질과 크기에 따라 스텝, 에포크 같은 매개변수를 조정해봐.
  • 좀 더 디테일하게 작업하려면 해상도를 높여줘:
    https://x.com/cocktailpeanut/status/1832098084794356081
    

추가 팁

팁 1: 업데이트 확인

정기적으로 업데이트를 체크해서 새로운 최적화를 받아보는 게 좋아.

팁 2: 적절한 데이터셋 사용

고품질의 잘 태깅된 데이터셋을 사용하면 더 좋은 훈련 결과를 낼 수 있어.

팁 3: 커뮤니티와 소통

관련 포럼이나 토론에 참여해서 도움과 조언을 얻는 게 도움이 돼.

이런 전략과 팁을 따르면, 낮은 VRAM으로 Flux LoRAs를 훈련하는 데 FluxGym을 최대한 활용할 수 있을 거야. 훈련 화이팅!