ComfyUI + Flux en local sur Mac M3 Max : pourquoi j'ai abandonné
Trois semaines de tests, une machine à 4 500 € qui chauffe, et un verdict net : la génération d'images en local sur Mac, ce n'est pas pour maintenant.
J'ai passé trois semaines à essayer de faire tenir une promesse séduisante : générer mes visuels d'illustration directement sur ma machine, sans dépendre d'une API cloud, sans abonnement, sans envoyer mes prompts chez quelqu'un d'autre. Sur le papier, ComfyUI + Flux sur Mac M3 Max, c'est le rêve. Dans la pratique, j'ai rendu les armes. Voici pourquoi, sans détour.
Le contexte : pourquoi j'ai voulu passer en local
En interne, je produis des dizaines de visuels chaque semaine pour mes articles, mes pages clients, mes vignettes. Aujourd'hui, je tape dans Adobe Firefly et ChatGPT Images. Ça marche très bien, mais à force, deux choses m'agaçaient : la dépendance à des services tiers qui changent leurs CGU tous les six mois, et le sentiment de ne jamais avoir un contrôle fin sur le rendu.
Flux, lui, c'était la promesse de l'open weight de qualité Midjourney, gratuit, paramétrable au pixel près via ComfyUI. Et j'avais sous la main un Mac M3 Max 64 Go acheté il y a un an. Sur le papier, la config tient la route : 16 cœurs CPU, 40 cœurs GPU, mémoire unifiée. Apple martèle depuis deux ans que ses puces sont taillées pour l'IA. J'y croyais.
L'installation : plus simple qu'avant, mais pas anodine
Je passe vite sur l'install — il y a déjà cinquante tutos sur YouTube. ComfyUI tourne via PyTorch avec le backend MPS (Metal Performance Shaders). Il faut télécharger Flux.1 dev (environ 24 Go), les VAE, les encodeurs T5 et CLIP, et brancher tout ça dans un workflow JSON. Au total, j'ai consommé 38 Go de stockage rien que pour les modèles de base, sans compter les LoRA que j'ai testés ensuite.
La première image est sortie au bout de deux heures de bricolage. Et c'est là que les ennuis ont commencé.
Le vrai problème : la lenteur
Sur une RTX 4090 sous Linux, Flux.1 dev génère une image 1024x1024 en 8 à 12 secondes. C'est la référence que tout le monde cite. Sur mon M3 Max 64 Go, j'ai mesuré entre 80 et 110 secondes par image dans les mêmes conditions (20 steps, sampler euler, résolution 1024x1024). Soit environ 10x plus lent.
Pour un test ponctuel, ça passe. Pour une session de travail réelle où je veux itérer sur 15 prompts, ajuster un seed, retoucher un détail, c'est ingérable. J'ai chronométré une session type : 45 minutes pour produire 6 visuels exploitables, contre 4 minutes sur Firefly pour le même volume avec un rendu qui me convient autant.
Le pire, c'est que la lenteur n'est pas constante. Au début, ça tourne à 80 secondes. Puis ça grimpe à 95, 110, 130. Et là, je comprends : la machine throttle.
La surchauffe : le point de rupture
Au bout de 8 minutes de génération continue, la zone au-dessus du clavier devenait brûlante. J'ai sorti une sonde thermique : 102 °C en surface du châssis sous le clavier, ventilateurs à fond, bruit constant. La puce M3 Max thermal-throttle dès qu'elle dépasse les 100 °C en charge soutenue, ce qui explique la dégradation des temps de génération.
Conséquence directe : impossible de faire tourner autre chose en parallèle. Mon IDE rame, Slack lague, les onglets Chrome freezent. Pendant ces 45 minutes de session, ma machine n'est plus utilisable pour autre chose. Et je n'ose même pas imaginer ce que ça donne en été dans mon bureau qui n'est pas climatisé.
J'ai testé en branchant la machine sur un dock avec ventilation active dessous, j'ai testé en limitant la fréquence GPU via des commandes système, j'ai testé en réduisant les steps à 12 — ça génère plus vite mais la qualité chute. Aucune de ces bidouilles ne rend l'expérience viable pour de la production réelle.
Et la mémoire dans tout ça ?
64 Go de RAM unifiée, c'est large pour Flux.1 dev en mode FP8. Je n'ai jamais saturé. ComfyUI consommait autour de 28 Go pendant les générations, et je gardais une marge confortable. Ce n'est donc pas un problème de RAM. C'est un problème de puissance de calcul brut et de dissipation thermique. Apple a optimisé ses puces pour des charges courtes et explosives, pas pour faire tourner du diffusion model pendant 45 minutes d'affilée.
L'échec qui m'a fait basculer
Le moment où j'ai vraiment abandonné, c'est un jeudi après-midi. Un client me demande 12 visuels pour le lendemain matin. Je me dis : parfait, je teste mon nouveau workflow Flux en conditions réelles. Au bout de 25 minutes, le Mac affiche un avertissement de température critique, ComfyUI plante, je perds les 4 dernières images en cours, et je dois redémarrer la machine. J'ai terminé la commande sur Firefly en 18 minutes.
C'est là que j'ai compris : un outil qui te lâche quand tu as une deadline, ce n'est pas un outil. C'est un projet personnel.
Le calcul économique : le cloud écrase le local
J'ai fait les comptes froidement. Sur un mois normal, je produis environ 200 images pour mon agence et mes projets persos. Avec ChatGPT Images via l'abonnement Plus à 22 € HT par mois et Firefly inclus dans Creative Cloud que je paie déjà pour Photoshop, mon coût marginal pour ces 200 images est proche de zéro.
Pour faire la même chose en local sur le Mac, je consomme :
- Du temps : environ 5 heures de plus par mois à attendre les générations
- De la disponibilité machine : ces 5 heures, je ne peux pas faire autre chose dessus
- De l'usure : faire chauffer une puce à 100 °C plusieurs heures par semaine sur deux ans, ça abîme
- De l'électricité : marginal, mais pas nul (la machine tire 90-110W en pointe contre 15W au repos)
Pour un gain quoi ? La maîtrise du modèle, l'accès aux LoRA custom, et la confidentialité des prompts. Trois avantages réels mais qui ne pèsent pas lourd face au coût opérationnel.
Verdict tranché
ComfyUI + Flux sur Mac M3 Max, en 2026, ce n'est pas une solution de production. C'est un terrain de jeu pour bidouilleurs, un labo d'expérimentation pour ceux qui ont du temps à perdre. Si vous avez une RTX 4090 ou mieux sur une tour Linux, l'équation change complètement. Sur Mac, non.
Je suis revenu à Firefly pour les visuels où j'ai besoin d'un rendu propre rapidement, et à ChatGPT Images quand je veux un style plus illustratif ou éditorial. Les deux services ont fait des progrès énormes ces six derniers mois sur la fidélité aux prompts complexes et sur la cohérence des personnages d'une image à l'autre — ce qui était justement l'argument principal pour passer sur Flux il y a encore un an.
Je rouvrirai peut-être le dossier le jour où Apple sortira un M5 Max ou Ultra avec un vrai NPU dédié à l'inférence longue, ou le jour où des modèles comme Flux seront distillés en versions optimisées MPS. En attendant, le cloud reste imbattable.
Ce que je retiens
Premier enseignement : ne pas confondre capacité technique et viabilité opérationnelle. Oui, mon Mac peut faire tourner Flux. Non, il ne peut pas le faire dans des conditions compatibles avec mon métier.
Deuxième enseignement : se méfier des benchmarks YouTube. Les vidéos qui montrent Flux sur Mac à 60 secondes par image montrent toujours une seule génération sur une machine froide. Personne ne montre la 10ème image de la session avec les ventilateurs hurlants.
Troisième enseignement, plus large : en 2026, l'IA générative locale sur poste de travail standard, ce n'est toujours pas mature pour les workflows professionnels intensifs. Le cloud a encore deux à trois ans d'avance, et les fournisseurs n'ont aucun intérêt à laisser cet écart se réduire.
Si vous hésitez à vous lancer, mon conseil : testez une semaine, mesurez vos temps réels, et comparez honnêtement avec ce que vous faites déjà. Pour la majorité des cas que je vois passer, le verdict tombera comme chez moi.