Quand la culpabilité s'achète à prix d'ami
OpenAI, l'organisation qui a passé l'essentiel de la dernière décennie à démonter les garde-fous éthiques un par un, vient d'annoncer un programme pilote de bourses pour la 'sécurité et l'alignement'. Traduction : après avoir inondé le monde de modèles aux capacités mal comprises, ils sortent enfin le porte-monnaie pour financer ceux qui tentent de colmater les brèches. On appelle ça faire payer les pompiers après avoir soi-même allumé l'incendie.
L'indépendance, conditionnée au bon vouloir de Sam Altman
Le terme 'indépendant' dans leur communiqué est un chef-d'œuvre d'oxymore. Les boursiers seront-ils vraiment libres de publier des conclusions gênantes sur la course aux AGI menée par leur bienfaiteur ? L'histoire récente d'OpenAI – avec ses départs fracassants de chercheurs en sécurité et sa gouvernance opaque – suggère que l'indépendance a des limites, surtout quand elle est financée par ceux qu'elle est censée critiquer. C'est le principe du restaurant où le critique gastronomique est payé par le chef.
Fabriquer la prochaine génération de talents... dociles
Le volet 'développement des talents' est peut-être le plus cynique. Il s'agit ni plus ni moins de formater la future garde des chercheurs en IA aux méthodes et à la culture d'OpenAI. Un programme d'embrigadement intellectuel déguisé en philanthropie. Former la relève pour qu'elle pose les bonnes questions... mais surtout pas les mauvaises réponses.
Une diversion bienvenue pour les régulateurs
Ce timing n'est pas un hasard. Alors que l'UE finalise son AI Act et que Washington commence à ouvrir les dossiers, une announce de 'sécurité' fait toujours bonne presse. C'est une opération de relations publiques à bas coût comparée aux amendes potentielles ou aux restrictions réglementaires. Pour quelques millions de dollars en bourses, ils espèrent acheter du crédit politique et détourner l'attention de leurs pratiques commerciales agressives.
La vraie sécurité ne s'achète pas avec des bourses. Elle se construit avec de la transparence, une gouvernance solide et la priorité donnée aux impacts sociétaux sur les profits. Des concepts qui, visiblement, nécessitent encore un peu de 'recherche' à OpenAI.