La semaine dernière, cinq sommités qui se croient à la manette de l’économie de l’IA se sont réunies à Beverly Hills sous l’égide du Milken Institute – temple du networking où l’on cause philanthropie en grignotant des amuse-gueule à 200 dollars. Ils ont causé pénurie de puces, centres de données en orbite, et – tenez-vous bien – la possibilité que l’architecture entière de la tech soit foireuse. Nous étions là. On a pris des notes. Et on a eu envie de vomir leur langue de bois.
Les faiseurs de rêve (et d’argent) face au mur des réalités
Le panel réunissait un fondeur, un loueur de clouds, un financier, un constructeur de datacenters et un gourou du logiciel. Soit toute la chaîne de 135 milliards de dollars engloutis cette année dans l’IA générative – et encore, ce chiffre est un plancher, car les cabinets de conseil ont tendance à arrondir par le haut pour flatter les ego des DG. Le sujet officiel : « Où les roues se détachent-elles ? » Traduction libre : « On a promis la lune à nos investisseurs, mais on réalise que la fusée est construite avec des bouts de ficelle. »
Pénurie de puces : la faute à qui ? À tout le monde sauf nous
Le représentant de TSMC (car oui, ils étaient là, le visage lisse et le costume bleu marine) a expliqué que la demande en GPU dépasse l’offre de 40 %. Logique : Nvidia vend des H100 à 30 000 dollars pièce comme des petits pains, et chaque startup du secteur se précipite pour en acheter – quitte à les laisser moisir dans un entrepôt en attendant la prochaine levée. Ah, et les datacenters orbitaux évoqués avec sérieux ? Un vendeur de rêve a lancé l’idée de lancer des fermes de serveurs dans l’espace pour contourner les limites terrestres. Une connerie tellement grosse qu’elle ferait rougir Elon Musk. Coût estimé : 50 milliards par station. Mais l’argent, on le fait payer au contribuable via des subventions « innovation ». Classe.
L’architecture est fausse – et ça, on le savait depuis le début
Le point le plus croustillant – et le plus révélateur – est venu du chercheur en chef de la boîte qui a inventé le transformer. Il a lâché, presque en bafouillant : « Peut-être que toute l’architecture sous-jacente est erronée. » Traduit du corporate : « On a construit un château de cartes sur un modèle qui consomme autant d’énergie qu’un pays et qui hallucine dès qu’on lui pose une question hors de son manuel. » Les autres participants ont poliment hoché la tête, puis se sont empressés de changer de sujet pour parler de « synergies réglementaires ». Personne n’a mentionné les 75 % de modèles open source qui ne seront jamais rentables. Personne n’a cité les 12 gigawattheures qu’un simple entraînement de GPT-4 a bouffés. Silence radio sur les délocalisations de centres de données au Qatar pour profiter du gaz pas cher. Mais on vous a promis une révolution, alors continuez d’acheter des abonnements ChatGPT à 20 dollars par mois, merci.
Qui se goinfre, qui se fait rouler ?
Suivez l’argent : Nvidia et TSMC engrangent des marges de 60 % sur leurs puces. Les clouds (AWS, Azure, GCP) facturent les accès GPU 3 fois le prix de revient. Les startups, elles, brûlent du cash pour entraîner des modèles qui imitent des poèmes, pendant que les VCs les poussent à lever toujours plus – pour gonfler la valorisation de leur portefeuille. Pendant ce temps, le contribuable finance des centres de recherche publics qui pondent des algos repris sans vergogne par les GAFAM. Mais rassurez-vous : les cinq gourous du Milken sont « préoccupés ». Ils vont former un groupe de travail. On se sent déjà mieux, non ?
La seule leçon à retenir
L’IA n’est pas en train de dérailler ; elle n’a jamais été sur des rails. Tout ce cirque – les brevets, les levées de fonds, les conférences à 5 000 dollars le badge – ne sert qu’à maintenir l’illusion que quelqu’un, quelque part, tient le volant. En réalité, on fonce droit dans le mur, et les conducteurs sont trop occupés à se prendre en selfie pour freiner. Susanoo News vous le dit : ne gobez pas leur baratin. Le train de l’IA est un train fantôme. Et le seul à s’enrichir, c’est le type qui vend les tickets.