logo
pub

Maîtriser Flux AI avec NF4 : Améliorations de vitesse et de qualité

Aperçu

Salut ! Alors, tu as mis la main sur Flux AI, cet outil génial pour générer des images de Black Forest Labs, c’est ça ? C’est plutôt cool, non ? Mais pour libérer tout son potentiel, surtout avec ces super checkpoints Flux, il faut savoir comment bien l'ajuster. Allez, plongeons dans l'utilisation des différents checkpoints Flux et comment en tirer le meilleur parti !

Checkpoints Flux pris en charge

1. Checkpoints Disponibles

Tu cherches des fichiers bruts Flux ou GGUF ? Jette un œil à ce post.

2. Pourquoi NF4 ?

  • Vitesse : Sur des GPU de 6GB/8GB/12GB, NF4 peut être 1.3x à 4x plus rapide que FP8.
  • Taille : Les poids NF4 sont à peu près la moitié de ceux de FP8.
  • Précision : NF4 surclasse souvent FP8 en termes de précision numérique et de plage dynamique.

Utilisation des Checkpoints Flux

1. Configure ton GPU

  • Support CUDA : Si ton appareil gère les versions CUDA plus récentes que 11.7, choisis NF4. Félicitations, tu n’as besoin que de flux1-dev-bnb-nf4.safetensors.
  • GPU Plus Anciens : Si tu as un GPU plus ancien comme GTX 10XX/20XX, télécharge flux1-dev-fp8.safetensors.

2. Chargement dans l’UI

  • Dans l’UI, Forge te donne une option pour forcer le type de poids à charger.
  • En général, mets sur Auto pour utiliser la précision par défaut de ton checkpoint téléchargé.

Astuce : Ne charge pas un checkpoint FP8 avec l’option NF4 !

Accélérer la Vitesse d'Inférence

1. Paramètres par Défaut

  • Les presets de Forge sont rapides, mais tu peux pousser encore plus loin la vitesse.
  • Exemple de Système : 8GB VRAM, 32GB mémoire CPU, et 16GB mémoire GPU partagée.

2. Déchargement et Échange

  • Si la taille du modèle > mémoire GPU, divise le modèle. Charge une partie sur le GPU et l’autre dans un emplacement "swap", soit CPU, soit mémoire partagée.
  • Mémoire partagée peut être ~15% plus rapide mais pourrait planter sur certains appareils.

3. Réglage des Poids GPU

  • Plus les poids GPU sont grands = plus de vitesse, mais trop gros peut provoquer des plantages.
  • Plus petits les poids GPU = moins de vitesse mais possibles de diffuser des images plus grandes.

Exemples de Configurations

Exemple avec Flux-dev

Utilisation de Flux-dev en diffusion :
- Mémoire GPU : 8GB
- Mémoire CPU : 32GB
- Mémoire GPU partagée : 16GB
- Temps : 1.5 min

Exemples de Prompts

Astronaute dans une jungle, palette de couleurs froides, couleurs atténuées, très détaillé, mise au point nette.
Étapes : 20, Sampler : Euler, Type de programme : Simple, Échelle CFG : 1, Échelle CFG Distillée : 3.5, Semence : 12345, Taille : 896x1152, Modèle : flux1-dev-bnb-nf4-v2

FAQ

Quels checkpoints devrais-je utiliser ?

  • Si ton GPU supporte des versions CUDA plus récentes (>11.7), utilise flux1-dev-bnb-nf4.safetensors pour plus de rapidité et de précision.
  • Pour les vieux GPU, reste sur flux1-dev-fp8.safetensors.

Comment je m’assure que mon GPU utilise l’encodeur de texte T5 ?

  • T5 pourrait par défaut être en FP8, ce qui pourrait causer des incompatibilités. Assure-toi que ta configuration gère le NF4 pour profiter au max de l'encodeur de texte T5.

Comment puis-je échanger des parties entre CPU et GPU ?

  • Vas dans les réglages et sélectionne les emplacements d'échange. La mémoire partagée est souvent plus rapide, mais vérifie la stabilité d'abord.

Est-ce que je peux utiliser des modèles comme SDXL avec NF4 ?

  • Bien sûr ! Utiliser la diffusion NF4 accélère les modèles comme SDXL d’environ 35% en moyenne, même si ça ne réplique pas exactement les graines.

Des soucis avec l'inpainting ou img2img?

  • Assure-toi que tu es sur la dernière version de Forge. Mets à jour si nécessaire pour résoudre les problèmes d’images noires ou de sorties manquantes.

Comment convertir des modèles en NF4 ?

  • Des scripts personnalisés ou des liens partagés par la communauté, comme cette version NF4 de flux1-schnell-bnb, pourraient aider : flux1-schnell-bnb-nf4.safetensors.

Voilà ! Avec tous ces ajustements, tu devrais être prêt à tirer le meilleur parti de tes checkpoints Flux AI. Amuse-toi bien à créer !