Geoffrey Miller: Comment de fausses images d'IA pourraient attiser les tensions dans l'Indo
MaisonMaison > Nouvelles > Geoffrey Miller: Comment de fausses images d'IA pourraient attiser les tensions dans l'Indo

Geoffrey Miller: Comment de fausses images d'IA pourraient attiser les tensions dans l'Indo

Jul 25, 2023

Regardez : Le Parti national a admis avoir utilisé l'intelligence artificielle (IA) pour créer de fausses photos pour ses publicités d'attaques politiques. Crédits : Vidéo - Newshub ; Image - Getty Images.

Par Geoffrey Miller du Democracy Project

ANALYSE : Voir n'est plus croire.

Des images étonnamment réalistes - mais fausses - créées par l'intelligence artificielle (IA) sont ici.

À ce jour, la plupart ressemblaient plus à des curiosités qu'à de véritables tentatives de tromperie.

Le mois dernier, il a été révélé que le Parti national néo-zélandais avait utilisé l'application de génération d'images AI Midjourney pour produire des images promotionnelles. Les résultats comprenaient des travailleurs de la santé imaginaires et des citoyens à l'air craintif préoccupés par la criminalité.

Dans ce cas, l'utilisation de l'IA était relativement bénigne - les créations de l'IA ont effectivement remplacé les photos d'archives qui auraient été utilisées dans le passé.

Jusqu'à ce qu'un média éveille les soupçons, peu de gens - voire aucun - n'avaient même remarqué que les images réalistes étaient en fait fausses.

Si l'exemple néo-zélandais a montré comment les images de l'IA peuvent être utilisées dans les campagnes électorales, on peut également s'attendre à ce qu'elles aient un impact démesuré sur les relations internationales.

En mars, le fondateur de Bellingcat, Eliot Higgins, a tweeté des images "deepfake" surprenantes de Donald Trump "arrêté" par la police de New York.

Higgins, qui a également utilisé Midjourney, a clairement étiqueté les images comme des créations d'IA.

Mais cela n'a pas empêché les images de devenir virales et de servir de vitrine à la sophistication de la technologie.

Higgins a également tweeté de fausses images générées par l'IA d'un «sommet de la paix» imaginaire entre Vladimir Poutine et Joe Biden – négocié par le français Emmanuel Macron.

Compte tenu de l'état actuel de la guerre en Ukraine, il est peu probable que cela trompe qui que ce soit.

Cependant, les deepfakes réalistes que Higgins a créés à partir d'une explosion nucléaire imaginaire en Ukraine ont montré le potentiel que l'IA pourrait avoir au milieu du brouillard de la guerre.

Juste après l'invasion de l'Ukraine par la Russie l'année dernière, une fausse vidéo de Volodymyr Zelensky appelant les Ukrainiens à déposer les armes a été publiée par des pirates sur le site d'information Ukraine 24.

Dans l'Indo-Pacifique, ce n'est sûrement qu'une question de temps avant que des images crédibles générées par l'IA soient utilisées pour attiser encore plus les tensions géopolitiques dans la région.

Le Premier ministre néo-zélandais Chris Hipkins a fait écho à son prédécesseur Jacinda Ardern en décriant ce qu'il appelle la « militarisation du Pacifique ».

Mais au cours du premier semestre 2023 seulement, les États-Unis ont conclu de nouveaux accords de défense avec les Philippines et la Papouasie-Nouvelle-Guinée – une réponse à la signature par la Chine de son propre pacte de sécurité avec les Îles Salomon l'année dernière.

Les tensions montent – ​​et l'IA pourrait les faire passer au niveau supérieur.

On peut dire que l'immensité du Pacifique crée certains avantages pour les tentatives de désinformation.

De fausses images de, par exemple, des navires militaires près d'un atoll insulaire éloigné pourraient être difficiles à réfuter immédiatement.

Une mauvaise infrastructure de communication dans les coins les plus reculés du Pacifique n'aidera pas non plus.

De plus, l'essor du contenu créé par l'IA peut signifier que le public se demande quoi croire.

Un rapport de la Brookings Institution publié en janvier a identifié « semer la confusion » comme un objectif majeur de ceux qui sont à l'origine des opérations de désinformation.

Le rapport donne un exemple de discours présidentiel robotique du président gabonais : alors que certains pensaient qu'il s'agissait de la preuve d'un deepfake, d'autres pensaient que le président était simplement malade. Indépendamment de la vérité, le chaos et une tentative de coup d'État militaire s'en sont suivis.

L'IA a le pouvoir de créer une salle des glaces, où même le contenu authentique est considéré avec scepticisme et méfiance.

Un exemple concret du potentiel de l'IA à faire des ravages est survenu le mois dernier, lorsqu'une fausse image d'une explosion au Pentagone à Washington a circulé sur Twitter et provoqué une brève chute des marchés financiers.

Il existe de nombreuses réponses potentielles au nouveau défi de l'IA pour les relations internationales.

Une option consiste à réglementer.

La Chine a récemment interdit les images deepfake de personnes réelles à moins que le consentement n'ait été donné – et le régulateur du pays exige désormais que le contenu «synthétique» généré par l'IA soit clairement étiqueté comme tel.

En Nouvelle-Zélande, le ministère des Affaires intérieures a proposé la semaine dernière une nouvelle réglementation stricte des médias qui couvrirait également le contenu des médias sociaux. Les suggestions incluent des «étiquettes d'avertissement et des avis de contenu» – et des amendes en cas de non-conformité.

L'inconvénient de la réglementation est le potentiel de portée excessive.

Les termes « désinformation » et « mésinformation » sont désormais fréquemment utilisés comme armes et utilisés simplement pour dénigrer les arguments des opposants politiques.

Plus optimiste, le public est moins naïf qu'on ne le croit souvent.

Après tout, la plupart des gens sont désormais habitués à l'idée que les photos peuvent être modifiées numériquement. La première version de l'actuel Adobe Photoshop est sortie en 1987.

Pourtant, la nécessité de renforcer l'éducation aux médias s'est imposée comme un thème des discussions sur la lutte contre la désinformation lors du premier Congrès mondial des médias qui s'est tenu à Abou Dhabi l'année dernière - un sujet qui devrait également figurer à l'édition 2023 de l'événement. tenue en novembre.

Un nouveau "livre blanc" du premier Congrès, auquel l'auteur a assisté en tant qu'invité des organisateurs, résumait l'idée qu'il n'y avait pas de solutions rapides et faciles.

Au contraire, tout le monde - des gouvernements aux plateformes de médias sociaux, en passant par les médias, les établissements d'enseignement et les consommateurs eux-mêmes - avait un rôle à jouer.

La sensibilisation au potentiel d'utilisation de l'IA dans la désinformation fait sans aucun doute partie de la solution.

Nous n'aurons pas le choix.

Écrivant dans le livre blanc du Global Media Congress, la futuriste Sofie Hvitved, basée à Copenhague, estime que jusqu'à 99 % du contenu que nous consommons à l'avenir pourrait être créé par l'IA.

Au-delà de cela, nous devons probablement nous attaquer aux causes profondes.

Dans les relations internationales, la désescalade des conflits et des tensions rendrait beaucoup plus difficile l'installation de la désinformation.

Ce n'est pas un hasard si les lignes de front profondes actuelles se trouvent sur les champs de bataille ukrainiens.

En temps de guerre, les règles du temps de paix sont jetées par la fenêtre – rendant presque tout possible, ou du moins potentiellement plausible.

La bombe nucléaire fictive créée par Eliot Higgins de Bellingcat en est un excellent exemple.

Dans l'Indo-Pacifique, la hausse constante des températures géopolitiques constitue le terreau idéal pour les futurs efforts de désinformation et de propagande générés par l'IA.

En fin de compte, la meilleure recette pour atténuer l'impact des contrefaçons de l'IA dans les relations internationales est aussi simple que difficile.

Nous avons besoin de plus de diplomatie, d'engagement et de compromis entre des États qui ne sont pas d'accord.

Ce n'est qu'en réduisant la concurrence et les conflits que les créations terrifiantes de l'IA ressembleront plus à de la fiction qu'à la réalité.

Bien sûr, c'est plus facile à dire qu'à faire.

Il faudra une intervention humaine pour résoudre les problèmes humains.

L'IA ne peut pas le faire pour nous.

Projet Démocratie

Geoffrey Miller est l'analyste géopolitique du Democracy Project et écrit sur la politique étrangère néo-zélandaise actuelle et les questions géopolitiques connexes. Il a vécu en Allemagne et au Moyen-Orient et apprend l'arabe et le russe. Divulgation: Geoffrey a assisté au Global Media Congress en 2022 en tant qu'invité des organisateurs, l'agence de presse Emirates.