Introduction : Le théâtre de la sécurité
Lisez n'importe quel blog corporate d'un éditeur de sécurité. Vous y trouverez immanquablement la même litanie : « Il faut une stratégie de défense multicouche », « Les frameworks traditionnels ne suffisent plus ». C'est beau. C'est rassurant. C'est surtout du vent parfumé au marketing. La vérité, c'est que l'écosystème IA actuel ressemble à un château de cartes construit sur une faille sismique, et qu'on vous vend des extincteurs à eau pour un incendie de magnésium.
1. « Protégez vos modèles » : La blague du siècle
Première « bonne pratique » : sécuriser le modèle. Admirable. Sauf que les modèles foundation, ces monstres de plusieurs centaines de milliards de paramètres, sont des boîtes noires dont même leurs créateurs ne comprennent pas tous les rouages. Comment sécuriser ce qu'on ne comprend pas ? Réponse de l'industrie : ajoutez une couche de monitoring. Traduction : regardez le crash en temps réel avec de jolis graphiques.
2. « Contrôlez l'accès aux données » : Après la fuite, bien sûr
On vous serine de verrouiller l'accès aux données d'entraînement, sensibles par nature. Très bien. Sauf que l'histoire récente est un catalogue de fuites monumentales. Les données partent par les backdoors des APIs, les buckets cloud mal configurés, ou tout simplement parce qu'elles sont ingérées sans consentement dès le départ. Le contrôle d'accès, c'est la serrure qu'on installe après que le voleur a vidé la maison.
3. « Auditez les supply chains » : Cherchez l'intrus invisible
Troisième mantra : connaissez votre chaîne d'approvisionnement en modèles et librairies. Excellente idée. Maintenant, faites l'audit d'un modèle qui repose sur 1 548 dépendances open source, elles-mêmes dépendantes de milliers d'autres. Trouvez la backdoor, la vulnérabilité zero-day, ou le code malveillant dedans. Bon courage. L'audit est un fantasme d'ingénieur dans un monde de dépendances exponentielles.
4. « Préparez-vous aux attaques par prompt » : Le jeu du whac-a-mole perdu d'avance
Ah, le joyau de la couronne : les prompt injections, jailbreaks, et autres délires où l'utilisateur fait dire à l'IA exactement ce qu'elle ne devrait pas. La « bonne pratique » ? Mettre en place des systèmes de détection et de filtrage. Sauf que c'est une course à l'armement perdue d'avance. Pour chaque filtre, un adolescent dans son garage trouvera une formulation contournant toutes les défenses. Vous ne sécurisez pas, vous jouez à cache-cache.
5. « Adoptez une gouvernance éthique » : Le cache-misère des comités
Dernier point, le plus hypocrite : établissez une gouvernance robuste. Traduction : formez un comité d'éthique, rédigez une charte pleine de bons sentiments, et continuez à déployer des systèmes biaisés, énergivores et opaques à tour de bras. La gouvernance, dans 90% des cas, sert à gérer la réputation, pas les risques réels. C'est le pare-feu médiatique.
Conclusion : La sécurité IA n'existe pas (encore)
Ne vous méprenez pas. Ces pratiques sont techniquement justes. Mais elles sont présentées comme une solution, alors qu'elles ne sont que le constat désespéré d'un problème fondamental : on a construit une technologie critique à une vitesse folle, sur des bases non sécurisées, pour répondre à une hype financière. Suivre ces « bonnes pratiques », c'est comme mettre sa ceinture dans une voiture dont les freins ont été volontairement sabotés pour gagner 0,5% de vitesse. Vous serez mieux attaché pour le crash. C'est tout.