OpenAI vient de lâcher son énième 'nouveau modèle par défaut' pour ChatGPT, le GPT-5.5 Instant. Selon le communiqué — écrit par un stagiaire ou un chatbot ? — il 'réduit les hallucinations dans les domaines sensibles comme le droit, la médecine et la finance', tout en conservant la latence ridiculement basse de son prédécesseur. Traduction : ça invente un peu moins de conneries quand vous lui confiez votre dossier fiscal ou vos symptômes cardiaques. Mais 'un peu moins' dans la bouche d'OpenAI, c'est comme 'presque zéro émission' dans la pub d'un SUV : techniquement vrai, mais moralement dégueulasse.
Réduire les hallucinations ? Comme réduire les fuites d'une barque percée
Attention, bande de naïfs : 'réduire' ne veut pas dire 'éliminer'. Le modèle hallucine toujours, mais peut-être seulement 12 % du temps au lieu de 15 %. C'est génial si vous aimez jouer à la roulette russe avec des conseils juridiques ou des diagnostics. Pendant ce temps, OpenAI empoche vos 20 dollars par mois et vous offre la promesse que l'IA 'fera moins d'erreurs' — comme si c'était une feature et non un bug fondamental de l'architecture transformer. On attend toujours les benchmarks publics, les datasets de test reproductibles, et un vrai audit indépendant. Mais bien sûr, c'est 'propriétaire' et 'compétitif'. Alors on vous vend ça comme une révolution, alors que c'est un patch sur un système qui continue de confondre la date de naissance de Napoléon avec une recette de crumble aux pommes.
Droit, médecine, finance : les trois domaines où l'IA n'a rien à foutre sans garde-fous
OpenAI insiste sur la 'sensibilité' de ces secteurs. Mais pourquoi diable voudriez-vous confier votre divorce, votre thyroïde ou votre portefeuille à un générateur de probabilités next-token ? Parce que c'est rapide, comme une chaise électrique. GPT-5.5 Instant répond en 0,3 seconde au lieu de 0,5. Gagné du temps pour faire des erreurs plus vite. Et pendant que vous lisez ça, des avocats branchés utilisent déjà l'outil pour générer des clauses hypocrites, des médecins pour pondre des ordonnances approximatives, et des traders pour acheter des cryptos au mauvais moment. Vous voulez votre argent ? Donnez-le à Sam Altman, il vous rendra des tokens.
La 'faible latence' : l'excuse ultime pour ne pas réfléchir
Le communiqué vante le maintien de la latence de son prédécesseur. Ah, le progrès ! Les modèles précédents hallucinaient vite, celui-ci hallucine vite mais un peu mieux. C'est comme si on remplaçait le vodka frelatée par du gin de contrebande : l'ivresse est toujours là, mais avec moins de traces de métaux lourds. Personne ne demande à OpenAI de ralentir pour être plus fiable. Non, on exige de la vitesse, du 'instantané', du contenu jetable. Résultat : des avocats qui plaident avec des fake precedents (c'est déjà arrivé), des médecins qui prescrivent des traitements inventés (rapportez-vous à l'affaire 'ChatGPT recommande de la colle sur une pizza'), et des traders qui cramment leur bonus sur des signaux aberrants. Mais hé, c'est rapide !
Qui se goinfre ? OpenAI, toujours. Qui se fait rouler ? Vous.
Chaque mise à jour est une occasion de pomper l'abonnement. GPT-5.5 Instant arrive six mois après le 5.5 tout court, et on parie que le 6.0 arrivera juste avant Noël pour gonfler le chiffre d'affaires 2025. Les vrais problèmes — l'opacité des données d'entraînement, le biais racial dans les réponses, la dépendance énergétique, le copyright des sorties — restent enfouis dans des silos juridiques. Mais OpenAI vous vend du 'réduction d'hallucinations' comme un vendeur de voitures d'occasion vous vend 'un moteur qui tousse moins'. Arrêtez de vous émerveiller devant des rustines. Exigez des preuves, des audits, des recours. Ou alors continuez à parler à un perroquet statistique habillé en costume trois-pièces.
Susanoo News — parce que la vérité, c'est comme l'hallucination : elle peut être réduite, mais jamais éliminée.