Le grand cirque de la responsabilité limitée
La scène se passe dans l'Illinois, mais le spectacle est universel. D'un côté, OpenAI, qui soutient un projet de loi permettant aux labos d'IA d'être largement exonérés en cas de « catastrophes financières ou de pertes massives de vies ». De l'autre, Anthropic, qui s'y oppose publiquement, brandissant l'étendard de la responsabilité éthique. Ne vous y trompez pas : il ne s'agit pas d'un débat philosophique, mais d'une négociation commerciale sur le prix du sang.
OpenAI : l'immunité diplomatique, version algorithmique
Le texte, SB 2947, est un chef-d'œuvre de cynisme juridique. Il propose de limiter la responsabilité des développeurs d'IA aux seuls cas où ils auraient « intentionnellement » causé un préjudice. Autant dire qu'un modèle qui hallucinerait une procédure médicale mortelle, ou déclencherait un krach boursier par une boucle de trading autonome, pourrait ne coûter qu'une tape sur la main à ses créateurs. OpenAI, qui a pourtant signé des engagements en faveur d'une IA « sûre et bénéfique », soutient cette porte de sortie légale. Coïncidence ? Leurs modèles les plus puissants sont déjà déployés à grande échelle. Les risques systémiques, ils les connaissent. Ils veulent juste ne pas en payer la facture.
Anthropic : le chevalier blanc à géométrie variable
Anthropic, de son côté, joue les vierges effarouchées. Leur porte-parole déclare que la loi « va trop loin dans l'immunisation des entreprises ». Noble posture. Sauf que l'entreprise, fondée par d'anciens d'OpenAI justement préoccupés par la sécurité, ne propose pas de cadre alternatif concret. Elle s'oppose à l'extrémisme de la loi… tout en profitant du flou juridique actuel qui, de fait, protège déjà largement l'industrie. Leur vrai calcul ? Éviter qu'une législation trop laxiste ne déclenche une réaction brutale du public et des régulateurs, qui imposerait alors des règles bien plus contraignantes. Il s'agit de gérer la perception du risque, pas le risque lui-même.
Suivez l'argent, pas les principes
Derrière le clash médiatique, l'enjeu est simple : qui assumera le coût des échecs de l'IA générative ? Les entreprises, leurs assureurs, ou la société ? En plaidant pour une immunité quasi-totale, OpenAI défend un modèle économique où les profits sont privatisés et les catastrophes, socialisées. Anthropic, plus fine, comprend qu'une telle arrogance pourrait tuer la poule aux œufs d'or en provoquant une défiance irrémédiable. Leur opposition n'est pas morale, elle est stratégique : il faut juste assez de responsabilité pour calmer l'opinion, mais pas assez pour entamer les marges.
Le futur se négocie dans l'opacité
Le plus révélateur dans cette affaire n'est pas leur désaccord, mais leur accord tacite sur un point : ce débat doit avoir lieu loin des projecteurs, dans les couloirs feutrés des parlements d'État, et non au niveau fédéral. L'Illinois n'est qu'un champ de bataille test. Le but est de créer un précédent juridique favorable, État par État, avant que le Congrès ne se réveille. Ils ne se battent pas sur le principe de leur responsabilité, mais sur son étendue. Et dans cette guerre-là, le premier principe est que ce sont toujours les autres qui paient.