GPT-5.5 : le prix par token double, faut-il passer à la caisse ?
OpenAI lance son modèle le plus puissant à ce jour — mais la facture API grimpe de 20 %.
Mercredi 23 avril, OpenAI a mis en ligne GPT-5.5. Six semaines seulement après GPT-5.4. Le rythme est brutal. Le modèle est disponible immédiatement dans ChatGPT pour les abonnés Plus, Pro, Business et Enterprise, et dans l'API pour les développeurs. Mais la vraie question, celle que tout dirigeant de PME ou freelance devrait se poser : est-ce que ça vaut le surcoût ?
Ce que GPT-5.5 fait mieux que GPT-5.4
Les benchmarks sont là, et ils parlent. Sur la page d'annonce officielle d'OpenAI, GPT-5.5 progresse sur 9 des 10 benchmarks partagés avec GPT-5.4. Les gains les plus marquants : +11,7 points sur ARC-AGI-2 (raisonnement général), +8,1 points sur MCP Atlas, +7,6 points sur Terminal-Bench 2.0.
En clair, le modèle raisonne mieux, code mieux, et surtout — c'est la stat qui compte — hallucine 60 % moins souvent que son prédécesseur. Pour quiconque utilise ChatGPT dans un contexte professionnel, c'est le chiffre à retenir. Moins de vérification manuelle, moins de sorties fantaisistes quand on lui demande d'analyser un contrat ou de synthétiser un rapport financier.
Côté codage, GPT-5.5 atteint 88,7 % sur SWE-bench (résolution de vrais bugs GitHub) et 82,7 % sur Terminal-Bench 2.0, un test de workflows complexes en ligne de commande. Selon VentureBeat, il devance de justesse le Claude Mythos Preview d'Anthropic sur ce dernier test.
Le prix double — mais la facture, pas tant que ça
Voilà le point qui fâche à première lecture. Le tarif API passe de 2,50 $ à 5 $ par million de tokens en entrée, et de 15 $ à 30 $ en sortie. Un doublement net. OpenAI ne s'en cache pas.
Mais il y a un contrepoint que The Decoder a bien documenté : GPT-5.5 consomme environ 40 % de tokens en moins pour accomplir la même tâche. Il est plus concis, plus direct. Résultat : la hausse réelle de la facture se situe autour de 20 %, pas 100 %.
Pour les développeurs qui passent par l'API en batch ou en mode Flex, les tarifs sont divisés par deux. Et la variante Pro (pour les tâches exigeant la plus haute précision) grimpe à 30 $/M en entrée et 180 $/M en sortie — un tarif réservé aux cas d'usage très spécifiques : juridique, finance, recherche scientifique.
Ce que ça représente concrètement
Un freelance qui utilise ChatGPT Plus à 20 $/mois ne verra aucun changement de prix sur son abonnement. GPT-5.5 est inclus. La hausse concerne uniquement l'API, donc les équipes tech qui intègrent le modèle dans leurs outils internes ou leurs produits. Pour une PME qui traite 10 millions de tokens par mois via l'API, la facture passe d'environ 175 $ à 210 $. Pas de quoi remettre en cause un budget, mais assez pour y regarder à deux fois si on multiplie les appels.
Codex et les agents : le vrai changement de paradigme
Derrière le modèle, c'est l'intégration dans Codex qui mérite l'attention. GPT-5.5 est décrit par OpenAI comme son « modèle agentique le plus puissant à ce jour ». Concrètement, ça veut dire qu'on peut lui confier une tâche complexe, multi-étapes, et le laisser planifier, exécuter, vérifier, corriger — sans micro-management.
OpenAI donne des exemples internes documentés. Leur équipe Finance a utilisé Codex pour passer en revue 24 771 formulaires fiscaux K-1, soit 71 637 pages, en excluant les données personnelles. Gain : deux semaines d'avance sur le planning habituel. Leur équipe Go-to-Market a automatisé la génération de rapports business hebdomadaires. Économie : 5 à 10 heures par semaine.
Ces cas d'usage ne sont pas de la science-fiction. Un cabinet comptable de 15 personnes, un service marketing qui produit des reportings pour 8 clients — c'est exactement le profil d'entreprise qui peut gagner une demi-journée par semaine avec ce type d'agent.
DeepSeek V4 débarque le même jour : la concurrence se durcit
Le hasard du calendrier — ou pas — veut que DeepSeek ait lancé son V4 le lendemain, le 24 avril. Deux variantes : V4-Pro (1 600 milliards de paramètres, contexte d'un million de tokens) et V4-Flash (284 milliards de paramètres, plus léger).
Les benchmarks sont parlants. Sur SWE-bench Verified, DeepSeek V4-Pro atteint 80,6 % — à 0,2 point de Claude Opus 4.6 d'Anthropic. Sur les maths (IMOAnswerBench), il score 89,8 %, devant Claude (75,3 %) et Gemini (81 %). Et tout ça en open source, avec une efficacité d'inférence spectaculaire : 27 % des FLOPs et 10 % du cache KV par rapport à DeepSeek V3.2.
Le message pour les PME françaises est limpide : la pression sur les prix ne fait que s'intensifier. OfficeChai rapporte que DeepSeek V4 délivre des performances comparables à GPT-5.4 et Claude Opus 4.6 pour une fraction du coût. Si vous utilisez l'API pour des cas d'usage en codage ou en analyse de données, tester DeepSeek V4-Flash devient difficile à ignorer.
Trois variantes, trois usages : comment choisir
GPT-5.5 se décline en trois versions :
- GPT-5.5 standard — Le modèle de base. Rapide, polyvalent. Idéal pour la rédaction, la synthèse, les conversations courantes. C'est celui que vous obtenez par défaut dans ChatGPT.
- GPT-5.5 Thinking — Active un raisonnement étendu. Prend plus de temps, consomme plus de tokens, mais produit des réponses plus rigoureuses sur des problèmes complexes. À privilégier pour l'analyse juridique, la planification stratégique, le debugging de code critique.
- GPT-5.5 Pro — Le haut de gamme. Précision maximale, prix élevé (30 $/M input). Réservé aux workflows où l'erreur coûte cher : conformité réglementaire, diagnostic médical assisté, audit financier.
Pour 90 % des usages d'une PME — rédaction de mails, résumés de réunions, aide à la prospection, génération de contenu marketing — le modèle standard suffit largement. Ne payez pas pour Pro si vous n'avez pas un cas d'usage qui l'exige.
Faut-il migrer maintenant ?
Si vous êtes abonné ChatGPT Plus ou Business, vous n'avez rien à faire. GPT-5.5 est déjà sélectionnable dans l'interface. Testez-le sur vos tâches habituelles pendant une semaine, comparez avec GPT-5.4 sur les mêmes prompts. La réduction des hallucinations devrait être perceptible assez vite, surtout sur les tâches de synthèse de documents longs.
Si vous êtes développeur et que vous utilisez l'API, la migration est transparente — le endpoint est disponible — mais surveillez votre consommation. La hausse de 20 % en net est réelle, et elle s'accumule. Pensez à activer le mode Batch (demi-tarif) pour tout ce qui n'a pas besoin de réponse instantanée.
Et si vous n'utilisez encore aucun outil d'IA au quotidien, GPT-5.5 ne change pas l'équation fondamentale. Le bon moment pour commencer, c'était il y a un an. Le deuxième meilleur moment, c'est maintenant — mais commencez par [[link:chatgpt|ChatGPT]] gratuit, pas par l'API à 5 $ le million de tokens.
Ce qu'on en pense
GPT-5.5 est un bon modèle. Meilleur que GPT-5.4, clairement. La baisse des hallucinations de 60 % est le progrès le plus tangible pour un usage professionnel. Les capacités agentiques dans Codex ouvrent des gains de productivité réels, mesurables, pour des équipes de 5 à 50 personnes.
Mais le rythme de publication d'OpenAI — un nouveau modèle toutes les six semaines — pose question. Qui a le temps de maîtriser un outil qui change tous les mois et demi ? Et le doublement du prix par token, même amorti par une meilleure efficacité, envoie un signal : la course à la performance se paie, et ce sont les utilisateurs API qui règlent l'addition.
La vraie menace pour OpenAI ne vient pas du prix. Elle vient de DeepSeek, qui propose des performances quasi-équivalentes en open source. Pour l'instant, l'écosystème OpenAI (ChatGPT, Codex, plugins, intégrations Microsoft) reste un avantage compétitif massif. Mais si votre usage est purement API, comparer les coûts avec DeepSeek V4 ou [[link:claude-ai|Claude]] d'Anthropic n'est plus optionnel — c'est de la gestion financière de base.