Ah, les 'world models'. Cette nouvelle coqueluche des labos d'IA qui promet de comprendre le monde mieux que votre concierge. Le MIT Technology Review vient de les caser dans son top 10 des 'choses qui comptent en IA en ce moment' — comme si le monde avait besoin d'un énième palmarès auto-proclamé par des journalistes qui n'ont jamais codé une ligne de leur vie.
Le grand numéro de la prédiction
Le concept est simple : un modèle qui simule l'environnement pour anticiper les conséquences des actions. En pratique, ça ressemble à un jeu de pétanque statistique sauce deep learning. Les chercheurs de DeepMind, Meta, et Google y vont de leur 'breakthrough' toutes les six semaines. Sauf qu'à ce rythme-là, on aurait déjà dû avoir un assistant qui comprend pourquoi on pleure devant une vidéo de chat — pas juste un algorithme qui hallucine des pixels.
Le piège du 'comprendre le monde'
Regardez ce que fait MIT : ils organisent une table ronde réservée aux abonnés intitulée 'Can AI Learn to Understand the World?' — traduction : 'Venez payer pour écouter des experts se demander si leur propre discipline a le moindre sens.' La réponse est, spoiler, non. Un modèle ne comprend rien. Il calcule des probabilités conditionnelles sur des entrées sensorielles. C'est aussi intelligent qu'un thermostat avec un doctorat en philosophie. Mais personne ne vend des abonnements en disant 'Notre IA est un thermomètre géant'.
Les vrais enjeux qu'on enterre
Pendant que ces 'world models' pompent des millions de dollars en calcul GPU, qui se goinfre ? Les fournisseurs de cloud (AWS, Azure, GCP) qui revendent des cycles machine à prix d'or. Les start-ups qui lèvent des fonds sur du vent. Les conférenciers qui recyclent les mêmes slides depuis 2018. Et pendant ce temps, les vrais problèmes de l'IA — biais, coût environnemental, concentration du pouvoir — sont relégués en note de bas de page.
Le piège à abonnés
MIT Technology Review vous vend du rêve : 'subscribe-only Roundtables discussion'. Mais qu'apprendrez-vous de neuf ? Que les modèles du monde sont 'émergents' (mot magique pour dire 'on ne comprend pas pourquoi ça marche'). Que les spécialistes parlent de 'reasoning', 'planning', 'causality' — des termes pompeux pour masquer l'absence de progrès réel depuis les transformers de 2017. N'achetez pas le ticket pour ce cirque. Si vous voulez comprendre le monde, lisez un bouquin d'histoire. Ou mieux : promenez-vous dehors sans écran. La vraie intelligence n'a pas besoin de world model, elle a besoin de jambes.