Le fragile consensus forgé à Genève ressemble moins à un pas de géant qu'à une trêve temporaire. Après une semaine de négociations intenses et secrètes lors du Sommet sur l'Impact de l'IA de 2026, les leaders mondiaux ont émergé, clignant des yeux sous le soleil du lac, pour dévoiler l'« Accord de Genève sur la Surveillance Algorithmique ». Il est présenté comme une alliance révolutionnaire visant à contrôler les formes les plus insidieuses de surveillance alimentée par l'IA. Pourtant, pour quiconque a suivi de près l'ascension rapide et souvent alarmante de cette technologie, le document est malheureusement rempli de concessions qui risquent de neutraliser son impact bien avant qu'il ne puisse entrer en vigueur.
Le monde dispose désormais d'une stratégie. La question cruciale est de savoir si elle n'est pas la mauvaise.
À la base, l'Accord de Genève représente un effort ambitieux pour établir des limites claires autour de technologies qui, il y a seulement une décennie, appartenaient au domaine de la science-fiction mais sont maintenant intégrées de manière transparente dans nos villes, nos lieux de travail et nos vies numériques. Il introduit un cadre de risque à plusieurs niveaux, interdisant explicitement quelques applications considérées comme "inacceptables pour la dignité humaine", telles que les systèmes d'évaluation sociale gérés par l'État qui dictent l'accès aux services essentiels, et l'identification biométrique à distance en temps réel dans les espaces publics pour les menaces non critiques. Sur le papier, cela marque une victoire pour les défenseurs des droits humains qui ont constamment mis en garde contre une dérive vers l'autoritarisme numérique, même au sein des nations démocratiques.
Cependant, un examen plus approfondi révèle une autre histoire. Le véritable récit du sommet n'est peut-être pas ce qui a été interdit, mais plutôt ce qui a finalement été autorisé.
Un bouclier criblé de trous
La disposition la plus saluée de l'Accord est l'établissement d'un Registre mondial de l'IA et d'un organisme de surveillance indépendant, judicieusement nommé le « Conseil d'Examen Algorithmique » (ARC). Ce conseil est chargé d'auditer les systèmes d'IA à haut risque employés par les nations signataires. Les gouvernements et les entreprises utilisant l'IA pour des applications telles que l'application de la loi, la gestion des infrastructures critiques ou le contrôle judiciaire seront obligés de soumettre des rapports de transparence détaillant les données d'entraînement de leurs systèmes, leur objectif prévu et les taux d'erreur documentés.
« Cela marque la première fois que nous passons de principes abstraits à des mécanismes concrets de responsabilisation », a déclaré la commissaire européenne à la technologie, Lena Adler, lors d'une conférence de presse. « Nous mettons enfin une laisse tangible à la boîte noire. »
Néanmoins, des initiés qui ont été témoins des intenses négociations offrent une perspective contrastée. Le texte final, révèlent-ils, n'est qu'une pâle ombre de la proposition initiale de l'UE, bien plus stricte. La concession la plus importante, et sans doute le talon d'Achille de l'Accord, réside dans l'Article 22 : l'exemption de « Sécurité Nationale et Intérêt Souverain ». Cette clause accorde aux nations la capacité de contourner les exigences de transparence et d'audit pour tout système d'IA qu'elles jugent « vital pour la protection de l'État ».
« Ce n'est pas une faille ; c'est un canyon », a fait remarquer le Dr Aris Thorne, chercheur principal à l'Institut Brookings pour la Gouvernance de l'IA, qui a assisté au sommet en tant qu'observateur. « Cela permet à toute nation de catégoriser ses outils de surveillance les plus intrusifs comme des questions de sécurité nationale, les plaçant ainsi de fait au-delà de l'examen de l'organisme même créé pour les examiner. En substance, nous avons accepté de réglementer les applications d'IA les moins dangereuses tout en permettant aux systèmes les plus puissants d'opérer dans l'obscurité la plus totale. »
Le long chemin depuis Bletchley Park
Pour saisir pleinement la fragilité inhérente de l'Accord de Genève, il est essentiel de retracer l'évolution de la discussion mondiale sur la gouvernance de l'IA. Ce parcours a véritablement commencé en 2023 à Bletchley Park, où l'accent était presque entièrement mis sur la menace spéculative et existentielle posée par une superintelligence incontrôlable. Les sommets ultérieurs à Séoul (2024) et Paris (2025) ont poursuivi cette tendance, se fixant principalement sur l'« IA de pointe » et les préoccupations de sécurité à long terme.
Le changement en 2026 fut soudain et largement propulsé par une indignation publique généralisée. Le scandale du « Caméléon » de fin 2025 a servi de moment charnière. Dans cet incident, il a été découvert qu'une application de bien-être populaire utilisait son IA pour générer et vendre des profils psychographiques très détaillés – basés sur les inflexions vocales et les micro-expressions faciales des utilisateurs – à des campagnes politiques et des compagnies d'assurance. Cet événement a rendu la menace de l'IA indéniablement tangible. Soudain, le public ne s'inquiétait plus d'un scénario hypothétique à la Skynet ; il s'inquiétait d'un algorithme lui refusant un prêt parce qu'il détectait des « schémas de stress » dans sa voix lors d'un appel de vérification.
Ce sommet particulier était destiné à aborder directement ces préjudices immédiats. Le défi, cependant, est que si le risque existentiel de l'AGI représente une menace pour toute l'humanité, l'IA de surveillance invasive sert d'outil incroyablement puissant pour les États-nations individuels et de produit très lucratif pour les entreprises. Et c'est là que réside le conflit fondamental.

