La surveillance, ce marché où l'IA sert surtout à vendre du rêve
Conntour, une startup fraîchement sortie de Y Combinator, vient de lever 7 millions de dollars auprès de General Catalyst et consorts. Leur promesse ? Une IA qui permet d'interroger vos flux vidéo de sécurité en langage naturel pour « trouver n'importe quel objet, personne ou situation ». Autrement dit, ils ont réinventé la recherche Ctrl+F, mais pour des images floues de parkings à 3h du matin. Génial.
Le pitch : remplacer un humain par une hallucination algorithmique
Le communiqué de presse, un chef-d'œuvre de langue de bois technophile, vante une « révolution » pour les équipes de sécurité. Finies les interminables heures passées à scruter des écrans. Dites simplement : « Montre-moi l'homme au chapeau rouge qui est passé devant l'entrée nord entre 14h et 14h30. » L'IA, bienveillante et omnisciente, s'exécute. La réalité ? Demandez-lui de trouver « une personne qui a l'air suspecte » et préparez-vous à un feu d'artifice de faux positifs sur le stagiaire qui ramène des donuts.
Suivez l'argent : la peur, meilleure amie du VC
General Catalyst et YC ne jettent pas 7 millions par altruisme. Ils investissent dans un marché de la sécurité vidéo estimé à plusieurs dizaines de milliards, où la peur est la monnaie d'échange la plus stable. Le vrai produit ici n'est pas l'algorithme, c'est l'illusion du contrôle. Pendant que les dirigeants de Conntour encaissent le chèque, les clients découvriront les limites joyeuses de la vision par ordinateur : mauvaise luminosité, angles morts, et cette tendance agaçante des modèles à confondre un chien avec un sac poubelle en mouvement.
La vie privée ? Un détail technique pour la roadmap 2.0
Bien sûr, l'article original n'évoque pas les implications en matière de vie privée. Des caméras partout, analysées en permanence par une boîte noire qui décide de ce qui est « normal » ou non. Où vont ces données ? Qui les vérifie ? Quelle est la marge d'erreur qui va envoyer un vigile sur une fausse alerte ? Silence radio. Ces questions sont reléguées au rang de « défis techniques », pas de problèmes éthiques fondamentaux. Pratique.
Notre verdict : un band-aid en or pour un système boiteux
Conntour ne résout pas le problème de la surveillance de masse inefficace et intrusive ; elle l'automatise et le badigeonne d'un vernis « IA ». C'est un cache-misère high-tech. Au lieu de se demander si nous avons vraiment besoin de plus de caméras et d'algorithmes pour nous sentir en sécurité, la Silicon Valley préfère financier une solution qui créera plus de problèmes qu'elle n'en résoudra. Mais bon, qui a besoin de réflexion philosophique quand on peut avoir un tour de table à 7 millions ?