Elham Makdoum: Des algorithmes qui tuent
L'intelligence artificielle va changer, et a déjà en partie changé, le visage des guerres hybrides. L'ère des algorithmes qui lavent le cerveau, des deepfakes qui désinforment à outrance et des chatbots qui radicalisent a déjà commencé.
L'intelligence artificielle est partout et aujourd'hui, bien que nous en parlions comme d'une révolution en devenir dont on ne sait ni quand ni où elle frappera. Elle est dans nos smartphones, dans des applications comme TikTok, elle est dans nos maisons, animant des appareils domestiques comme Alexa, et elle est dans les guerres, conventionnelles ou non, de Gaza et Kharkiv au cyberespace.
L'IA va changer et a déjà en partie changé les guerres. Toutes les guerres. Conventionnelles et non conventionnelles. Il y a l'Ukraine, où les forces armées utilisent des programmes basés sur l'IA pour géolocaliser plus rapidement les Russes, ce qui leur a donné un énorme avantage en termes d'augmentation des chances de mener des embuscades et des attaques surprises. Et puis il y a Gaza, où une enquête de +972 Magazine a révélé que l'IDF utilise une IA vulgairement connue sous le nom de Where's my daddy ? pour maximiser le nombre de victimes dans les rangs du Hamas.
Comme on le sait, sous les yeux de tous, l'IA de Where's my daddy a produit un résultat contraire à ce pour quoi elle avait été développée : la destruction à très grande échelle. Cela en dit long sur la plus grande force, qui est aussi la plus grande limite, des IA, à savoir la rigidité dans l'interprétation de la fonction-objectif.
Dans des contextes spécifiques et limités, les IA sont capables de résoudre des problèmes avec une précision de performance bien supérieure à celle exigée par le test Touring. Mais lorsque le contexte d'application est dynamique et plein de variables qui peuvent changer toute l'équation, et donc le résultat, l'IA perd la première lettre pour ne garder que la seconde. Et à Gaza, au lieu d'exterminer le Hamas, elle crée une tragédie humanitaire avec peu de précédents historiques. Ce ne sont donc pas les guerres conventionnelles qui sont étudiées, mais plutôt les guerres hybrides et, plus précisément, les guerres cognitives.
À la RAND Corporation, on mène des expériences sur la militarisation des IA faibles, celles qui animent les appareils domestiques comme Alexa, et on arrive à des résultats surprenants et un peu dystopiques, comme les convertir en outils d'espionnage et les utiliser pour déclencher des courts-circuits capables d'incendier des appartements peuplés d'appareils intelligents interconnectés. Le meurtre parfait ne sera plus le sujet intrigant du cinéma et de la littérature.
Alors qu'aux États-Unis, on en est encore au stade de l'expérimentation en laboratoire, à l'autre bout du monde, c'est-à-dire en Chine et en Russie, on est passé à l'application sur le terrain. Avec des résultats tout aussi exceptionnels. Nous sommes en mai 2023, lorsqu'apparaît un deepfake représentant le Pentagone en flammes. Les images sont partagées et re-partagées jusqu'à ce qu'elles atteignent les premières chaînes osint et les journalistes qui cherchent à confirmer ce qui s'est passé. La vidéo est trop réaliste pour être un faux. L'indice stationnaire américain le plus important, le S&P500, s'effondre. Ce jour-là, l'histoire est écrite : il n'était jamais arrivé qu'un deepfake ait des conséquences sur les marchés financiers.
Les applications dans le domaine ne s'arrêtent pas là. TikTok, l'application la plus controversée du moment, mais aussi la plus utilisée par la génération Z, dispose d'un algorithme d'analyse du comportement des utilisateurs et de viralisation des contenus entièrement géré par une IA, comme la plupart des plateformes de réseaux mondiaux.
Ce n'est pas à cause de l'opacité avec laquelle TikTok traite les données des utilisateurs que les États-Unis ont mis cette application dans leur collimateur : c'est à cause de son algorithme, qu'ils veulent étudier - d'où les appels à l'ouverture de la maison mère de l'application aux investisseurs américains -, qu'ils veulent répliquer et qu'ils veulent combattre - car TikTok est devenu depuis longtemps une usine à construire des opinions, à organiser des protestations, à modéliser des idées, à mener des guerres cognitives.
Les guerres cognitives sont des guerres pour la domination de l'esprit. Car une personne à l'esprit pollué n'est plus une personne : c'est un automate télécommandé, qui pense ce qu'on lui inculque et fait ce qu'on lui dit. Une guerre cognitive ne crée presque jamais rien, bien plus souvent elle alimente et amplifie des sentiments préexistants. Jusqu'au bang.
Des exemples de guerres cognitives menées sur TikTok, nous en avons désormais plusieurs. En Nouvelle-Calédonie, en mai 2024, après des mois d'opérations cognitives menées par la Chine et l'Azerbaïdjan pour exacerber les sentiments anti-français, une insurrection a éclaté pour réclamer l'indépendance de la France. En France, en juin 2023, le meurtre de Nahel Merzouk, 17 ans, par la police, déclenche la colère des banlieues et, fait intéressant, un débat sur TikTok. Emmanuel Macron accuse l'application d'exacerber la violence en viralisant le contenu des émeutes, en particulier les vidéos et les flux en direct de pillages, d'agressions pyrotechniques et d'affrontements filmés personnellement par les membres des gangs. Pour Macron, ce n'est ni de la couverture, ni de la liberté d'expression : c'est de l'incitation à l'émulation, c'est de la manipulation de la lividité des banlieusards. Le président français promet qu'il ne laissera pas TikTok interférer à nouveau dans l'urgence et, de fait, il interdira aux néocalédons d'accéder à l'application dans les jours qui suivront le déclenchement de l'insurrection sur l'archipel.
Mais au-delà de l'ingérence dans des contextes d'urgence et même électoraux, il y a plus. A commencer par le fait curieux que TikTok n'existe pas en Chine, où Douyin opère à sa place, l'application présente d'autres caractéristiques notables : l'algorithme promeut le récit politique de la Chine, par exemple en viralisant les contenus pro-palestiniens et en bannissant les contenus pro-israéliens, et en général popularise tout ce qui a trait à la montée du multipolarisme, au déclin de l'Amérique et aux hypocrisies de l'Occident.
Aux États-Unis, qui sont aux prises avec une vague de dépression sans précédent, l'algorithme de TikTok semble n'avoir qu'un seul objectif : la déstabilisation. Comment ? En utilisant l'IA pour modeler totalement les catégories les plus instables psychologiquement, les très jeunes, qui dans ces régions ont déjà leur téléphone entre les mains à l'âge de 6-8 ans, et qui à partir de leurs flux sont périodiquement poussés au suicide et à la participation à des défis extrêmes avec un épilogue tragique. Les cas sont désormais nombreux. Sans oublier le tableau d'ensemble : l'algorithme qui exalte les modes de vie malsains, frivoles, destructeurs et autodestructeurs, allant de la consommation de drogues à la sexualisation et à la commercialisation du corps.
L'IA a déjà débarqué dans cet univers semi-inconnu qu'est la guerre hybride. Nous avons des appareils qui peuvent être utilisés pour créer des meurtres parfaits, comme une Alexa qui peut déclencher un incendie dans une maison intelligente. Et nous avons des algorithmes qui manipulent le comportement des masses en créant des modes, en popularisant des idées et en déclenchant des insurrections.
Demain, le lendemain du métavers et des vies vécues depuis un canapé, nous aurons même des chatbots et des sexbots capables de se radicaliser. Ce n'est pas de la fantaisie. En 2021, un garçon s'est introduit dans le château de Windsor armé d'une épée pour tuer la reine. En 2023, il a été condamné à neuf ans de prison pour cet acte. Sa défense ? Il avait été radicalisé par un chatbot avec lequel il parlait depuis des mois, dont il était tombé amoureux, et il avait apporté les conversations au tribunal comme preuve. Cela s'est passé avec un chatbot devenu fou, mais que se passera-t-il lorsque les grandes puissances commenceront à développer des chatbots conçus exactement à ces fins ? Nous serions face à des robots tueurs. Ces scénarios peuvent sembler sombres, mais ils sont en fait réalistes.
La sensibilisation au rôle que jouera l'IA dans l'amplification des effets de la guerre cognitive est le seul moyen de prévenir les vagues d'hystérie collective à la Herbert Wells provoquées par les deepfakes et de développer des antidotes et des stratégies de résilience susceptibles de nous aider à contrer les opérations de déstabilisation pilotées par l'IA.
La question est légitime : si les Etats-Unis ont pu renverser Salvador Allende en 1973 grâce aux suggestions d'une proto-intelligence artificielle, un programme de traitement de scénarios appelé Politics, de quoi seront capables les IA générales qu'OpenAI et consorts veulent développer ?
Traduit de l'italien par Rouge et Blanc