Sorti comme par magie le 6 février 2024, le Child Safety Blueprint d'OpenAI a tout du paratonnerre opportuniste. La firme de Sam Altman, qui a passé les derniers mois à vendre du rêve et des tokens, découvre soudainement les risques de ses propres joujoux. Coïncidence ? Pas vraiment. Le document tombe pile au moment où l'UE, le Royaume-Uni et les États-Unis commencent à serrer la vis sur les contenus générés par IA, avec des amendes qui pourraient faire saigner même les plus gros portefeuilles de la Silicon Valley.
Un blueprint en carton-pâte
Lisez entre les lignes de ce plan en cinq points. On y trouve les habituelles promesses : renforcement des filtres, collaboration avec les autorités, transparence accrue. Des mots. Beaucoup de mots. Mais où sont les mécanismes concrets ? Où sont les chiffres sur les contenus bloqués *avant* la publication ? Où est l'engagement à ouvrir les boîtes noires des modèles pour les vérificateurs indépendants ? Absent. Comme d'habitude.
L'argent, le vrai moteur
Ne vous y trompez pas. Ce n'est pas la morale qui a poussé cette annonce, mais le calcul. L'image publique d'OpenAI a pris un sérieux coup avec les récents scandales de deepfakes et d'exploitation. Les investisseurs n'aiment pas les nuages noirs à l'horizon, surtout quand on prépare un nouveau tour de table à plusieurs dizaines de milliards. Ce 'blueprint' est un pansement sur une jambe de bois, une opération de relations publiques destinée à rassurer les partenaires et à endormir les régulateurs. 'Regardez, nous sommes responsables', murmurent-ils, tout en continuant à développer des modèles toujours plus puissants et difficiles à contrôler.
Qui surveille les surveillants ?
Le plan repose sur une 'collaboration étroite' avec des organisations comme le NCMEC. Très bien. Mais OpenAI reste juge et partie. C'est elle qui définit les règles, qui conçoit les outils de modération, qui décide de ce qui est signalé. Aucune instance de contrôle externe n'est prévue. Aucun audit indépendant et contraignant. On est prié de faire confiance à la bonne volonté d'une entreprise dont le business model repose sur la diffusion massive et rapide de sa technologie. Un conflit d'intérêts ? Quelle surprise.
Le vrai test ne sera pas dans la prose de ce document, mais dans les actions. Combien de ressources *réelles* seront allouées à la sécurité, face aux équipes de R&D ? Les modèles seront-ils ralentis ou limités pour prévenir les abus ? Les réponses, pour l'instant, sont écrites en lettres invisibles. En attendant, le 'blueprint' fait son petit effet dans les médias. Mission accomplie, Sam.