Leur produit peut tuer, mais leur responsabilité doit être limitée
Dans un mouvement d'une hypocrisie sidérante, OpenAI, la société qui vous vend du 'raisonnement' à 20$ par mois, a officiellement témoigné en faveur d'un projet de loi en Illinois. Le texte, SB 2947, vise à construire un rempart juridique en acier trempé autour des développeurs d'IA, les protégeant de poursuites même si leurs créations causent des 'préjudices critiques' – une formule pudique qui englobe les morts en masse, les catastrophes financières ou l'effondrement d'infrastructures essentielles.
La clause du 'sciemment' : l'échappatoire en or
Le cœur du dispositif est un chef-d'œuvre de cynisme juridique. Le projet de loi stipule qu'un développeur ne peut être tenu responsable que s'il a sciemment créé ou modifié un système d'IA avec l'intention substantielle qu'il cause un préjudice critique. Traduction : tant que vous prétendez que la catastrophe était un 'bug imprévu' et non une 'fonctionnalité', vous êtes couvert. L'argumentaire d'OpenAI, délivré par son lobbyiste, est on ne peut plus clair : il faut 'équilibrer' l'innovation avec la responsabilité. On connaît la musique – c'est toujours l'innovation qui pèse plus lourd dans la balance.
Un contexte qui sent le roussi
Cette offensive législative ne tombe pas du ciel. Elle survient alors qu'OpenAI et ses pairs sont sous le feu de dozens de poursuites pour violation du droit d'auteur, diffusion de diffamation par hallucination, et conseils dangereux. Leurs modèles, présentés comme 'raisonneurs', sont en réalité des stochastic parrots capables de rédiger un plan détaillé pour construire une arme biologique aussi facilement qu'une recette de cookies. Pendant ce temps, leur course au scale (plus de données, plus de puissance) se fait sans aucune transparence réelle sur les données d'entraînement ou les mécanismes de décision.
Qui gagne ? Les labos. Qui perd ? Tout le monde.
Le jeu est transparent. Il s'agit d'établir un précédent dans un État clé avant une éventuelle loi fédérale. Le modèle est calqué sur la Section 230 qui a immunisé les plateformes internet, mais en bien plus extrême. Ici, on ne parle pas de modération de contenu, mais de systèmes autonomes prenant des décisions aux conséquences physiques et économiques réelles. Si ce texte passe, il créera une zone de non-droit où les géants de l'IA pourront déployer des technologies insuffisamment testées, tout en reportant les risques et les coûts des désastres sur la société et les individus. L'argent des VC sera protégé, les bonus des CEOs garantis, et les victimes devront prouver l'intention malveillante – une tâche quasi impossible.
Conclusion : L'innovation sans responsabilité, c'est du vandalisme à échelle industrielle
OpenAI, avec son statut d'entreprise à but lucratif caché derrière une structure à but non lucratif capricieuse, montre ici son vrai visage. Ce n'est pas une organisation dédiée à un 'AI safe and beneficial'. C'est une machine à croissance qui travaille activement à externaliser les risques de ses propres produits. Ils veulent le droit de changer le monde, mais aucune obligation envers les mondes qu'ils briseraient. L'Illinois ne devrait pas leur offrir ce bouclier. Elle devrait, au contraire, exiger plus de transparence, plus de tests indépendants, et une responsabilité proportionnelle au pouvoir démesuré qu'ils revendiquent. La suite ? Surveillez cet État. C'est là que se joue la première bataille pour savoir si l'âge de l'IA sera régi par l'éthique ou par l'impunité.