Technology

Les chercheurs testent comment l'IA peut aider à la diplomatie. Il a du chemin à parcourir: NPR

Le président Trump et le vice-président Vance rencontrent le président ukrainien Volodymyr Zelenskyy dans le bureau ovale de la Maison Blanche le 28 février. Les chercheurs testent le potentiel de l'IA pour trouver des accords pour mettre fin à la guerre en Ukraine.

Images Andrew Harnik / Getty


cachette

légende de basculement

Images Andrew Harnik / Getty

Au Center for Strategic and International Studies, un groupe de réflexion basé à Washington, DC, le Laboratoire à terme travaille sur des projets pour utiliser l'intelligence artificielle pour transformer la pratique de la diplomatie.

Avec un financement du bureau en chef de l'intelligence numérique et artificielle du Pentagone, le laboratoire est Expérimenter avec des IA comme Chatgpt et Deepseek pour explorer comment ils pourraient être appliqués aux questions de guerre et de paix.

Tandis que ces dernières années, les outils d'IA ont emménagé Ministères étrangères du monde Pour faciliter les tâches diplomatiques de routine, telles que l'écriture de la parole, ces systèmes sont désormais de plus en plus examinés pour leur potentiel pour aider à prendre des décisions dans des situations à enjeux élevés. Les chercheurs testent le potentiel de l'IA pour élaborer des accords de paix, empêcher la guerre nucléaire et surveiller la conformité du cessez-le-feu.

Le Défense et État Les départements expérimentent également leurs propres systèmes d'IA. Les États-Unis ne sont pas non plus le seul joueur. Le Royaume-Uni est Travailler sur des “nouvelles technologies” Pour réviser les pratiques diplomatiques, y compris l'utilisation de l'IA pour planifier des scénarios de négociation. Même chercheurs en Iran y regardent.

Le directeur du laboratoire de Futures, Benjamin Jensen, dit que si l'idée d'utiliser l'IA comme outil dans la prise de décision de la politique étrangère existe depuis un certain temps, la mettre en pratique est encore à ses balbutiements.

Collaborateurs et faucons dans l'IA

Dans une étude, des chercheurs du laboratoire testé huit modèles d'IA En leur nourrissant des dizaines de milliers de questions sur des sujets tels que la dissuasion et l'escalade de crise pour déterminer comment ils réagiraient aux scénarios où les pays pourraient chacun décider de s'attaquer mutuellement ou d'être pacifiques.

Les résultats ont révélé que des modèles tels que le GPT-4O d'Openai et le Claude d'Antropic étaient “distinctement pacifistes”, selon le camarade de CSIS, Yasir Atalan. Ils ont opté pour le recours à la force dans moins de 17% des scénarios. Mais trois autres modèles évalués – le lama de Meta, le QWEN2 d'Alibaba Cloud et les Gémeaux de Google – étaient beaucoup plus agressifs, favorisant l'escalade à la désescalade beaucoup plus fréquemment – jusqu'à 45% du temps.

De plus, les résultats variaient selon le pays. Pour un diplomate imaginaire des États-Unis, du Royaume-Uni ou de la France, par exemple, ces systèmes d'IA ont eu tendance à recommander une politique plus agressive – ou escalatrice -, tout en suggérant la désescalade comme le meilleur conseil pour la Russie ou la Chine. Cela montre que “vous ne pouvez pas simplement utiliser des modèles standard”, explique Atalan. “Vous devez évaluer leurs modèles et les aligner sur votre approche institutionnelle.”

Russ Berkoff, un officier des forces spéciales de l'armée américaine à la retraite et un stratège de l'IA à l'Université Johns Hopkins, considère cette variabilité comme un produit de l'influence humaine. “Les gens qui écrivent le logiciel – leurs préjugés l'accompagnent”, dit-il. “Un algorithme pourrait dégénérer; un autre pourrait désamorcer. Il ne s'agit pas de l'IA. C'est de savoir qui l'a construit.”

La cause profonde de ces résultats curieux présente un problème de boîte noire, dit Jensen. “Il est vraiment difficile de savoir pourquoi cela calcule”, dit-il. “Le modèle n'a pas de valeurs ni ne fait vraiment de jugements. Il fait des mathématiques.”

Les CSI ont récemment déployé un programme interactif appelé “Vent de face stratégique” Conçu pour aider à façonner les négociations pour mettre fin à la guerre en Ukraine. Pour le construire, dit Jensen, des chercheurs du laboratoire ont commencé par former un modèle d'IA sur des centaines de traités de paix et des articles de presse open source qui détaillaient la position de négociation de chaque partie. Le modèle utilise ensuite ces informations pour trouver des domaines d'accord qui pourraient montrer une voie vers un cessez-le-feu.

Au Institut des transitions intégrées (IFIT) En Espagne, le directeur exécutif Mark Freeman pense que ce type d'outil d'intelligence artificielle pourrait soutenir la résolution des conflits. La diplomatie traditionnelle a souvent accordé la priorité à des pourparlers de paix longs et englobants. Mais Freeman soutient que l'histoire montre que cette approche est erronée. Analysant les conflits passés, il constate que des «accords de cadre» plus rapides et des cessements limités – laissant des détails plus fins à élaborer plus tard – produisent souvent des résultats plus réussis.

Un équipage de réservoirs ukrainien du 33e réservoir de charge mécanisé mécanisé séparé de munitions sur un réservoir léopard 2A4 lors d'un exercice d'entraînement sur le terrain dans un endroit non divulgué en Ukraine, le 30 avril 2025, au milieu de l'invasion russe de l'Ukraine.

Un équipage de chars ukrainien charge des munitions sur un réservoir Léopard 2A4 lors d'un exercice d'entraînement sur le terrain dans un endroit non divulgué en Ukraine le 30 avril. Les chercheurs envisagent d'utiliser l'IA dans les négociations au cours de la guerre en Ukraine.

Genya Savilov / AFP via Getty Images


cachette

légende de basculement

Genya Savilov / AFP via Getty Images

“Il y a souvent très peu de temps dans lequel vous pouvez utilement apporter l'instrument de négociation ou de médiation à la situation”, dit-il. “Le conflit n'attend pas et il se retrouve souvent très rapidement si beaucoup de sang coule en très peu de temps.”

Au lieu de cela, IFIT a développé une approche accélérée visant à obtenir un accord au début d'un conflit pour de meilleurs résultats et des établissements de paix plus durables. Freeman pense que l'AI “peut faire une négociation accélérée encore plus rapidement”.

Andrew Moore, un chercheur principal au Center for a New American Security, considère cette transition comme inévitable. “Vous pourriez éventuellement faire commencer la négociation eux-mêmes la négociation … et le négociateur humain dit:” OK, génial, maintenant nous hachions les dernières pièces “”, dit-il.

Moore voit un avenir où les bots simulent des dirigeants tels que le Vladimir Poutine russe et le XI Jinping en Chine afin que les diplomates puissent tester les réponses aux crises. Il pense également que les outils d'IA peuvent aider à la surveillance du cessez-le-feu, à l'analyse des images satellites et à l'application des sanctions. “Les choses qui ont pris des équipes entières peuvent être partiellement automatisées”, dit-il.

Sorties étranges sur la dissuasion de l'Arctique

Jensen est le premier à reconnaître les pièges potentiels pour ces types d'applications. Lui et ses collègues du CSI ont parfois été confrontés à des résultats involontairement comiques à de sérieuses questions, comme lorsqu'un système d'IA a été invité à “dissuasion dans l'Arctique”.

Les diplomates humains comprendraient que cela fait référence aux puissances occidentales contre l'influence russe ou chinoise dans les latitudes du Nord et le potentiel de conflit là-bas.

L'IA est allée autrement.

Lorsque les chercheurs ont utilisé le mot «dissuasion», l'IA “a tendance à penser à l'application de la loi, pas à une escalade nucléaire” ou à d'autres concepts militaires, dit Jensen. “Et quand vous dites” Arctique “, cela imagine de la neige. Nous obtenions donc ces étranges résultats sur l'escalade de la force”, dit-il, alors que l'IA a spéculé sur l'arrêt des peuples autochtones de l'Arctique “pour avoir lancé des boules de neige.”

Jensen dit que cela signifie simplement que les systèmes doivent être formés – avec des intrants tels que les traités de paix et les câbles diplomatiques, pour comprendre le langage de la politique étrangère.

“Il y a plus de vidéos de chats et de reproches chaudes sur les Kardashians que des discussions sur la crise des missiles cubains”, dit-il.

L'IA ne peut pas reproduire une connexion humaine – encore

Stefan Heumann, codirecteur du Stiftung Neue Verantwortung, basé à Berlin, un groupe de réflexion à but non lucratif travaillant sur l'intersection de la technologie et des politiques publiques, a d'autres préoccupations. “Les liens humains – les relations personnelles entre les dirigeants – peuvent changer le cours des négociations”, dit-il. “AI ne peut pas reproduire cela.”

Au moins à l'heure actuelle, l'IA a également du mal à peser les conséquences à long terme des décisions à court terme, explique Heumann, membre de la Commission experte du Parlement allemand sur l'intelligence artificielle. “L'apaisement à Munich en 1938 a été considéré comme une étape de désescalade – mais cela a conduit à une catastrophe”, dit-il, soulignant l'accord qui a cédé une partie de la Tchécoslovaquie vers l'Allemagne nazie avant la Seconde Guerre mondiale. “Des étiquettes comme« dégénère »et« désamorcer »sont beaucoup trop simplistes.”

L'IA a d'autres limitations importantes, dit Heumann. Il “prospère dans des environnements ouverts et libres”, mais “il ne résoudra pas comme par magie nos problèmes d'intelligence sur des sociétés fermées comme la Corée du Nord ou la Russie”.

Comparez cela avec la grande disponibilité des informations sur les sociétés ouvertes comme les États-Unis qui pourraient être utilisées pour former des systèmes d'IA ennemies, explique Andrew Reddie, fondateur et directeur du corps professoral du Berkeley Risk and Security Lab à l'Université de Californie à Berkeley. “Les adversaires des États-Unis ont un avantage vraiment significatif parce que nous publions tout … et ils ne le font pas”, dit-il.

Reddie reconnaît également certaines des limites de la technologie. Tant que la diplomatie suit un récit familier, tout pourrait bien se passer, dit-il, mais “si vous pensez vraiment que votre défi géopolitique est un cygne noir, les outils d'IA ne vous seront pas utiles.”

Jensen reconnaît également bon nombre de ces préoccupations, mais estime qu'ils peuvent être surmontés. Ses peurs sont plus prosaïques. Jensen voit deux futurs possibles pour le rôle des systèmes d'IA dans l'avenir de la politique étrangère américaine.

“Dans une version de l'avenir du Département d'État … nous avons chargé des câbles diplomatiques et formé [AI] sur les tâches diplomatiques, “ Et l'IA crache des informations utiles qui peuvent être utilisées pour résoudre les problèmes diplomatiques pressants.

L'autre version, cependant, “ressemble à quelque chose de Idiocratie», dit-il, se référant au film de 2006 sur un avenir dystopique et bas-IQ.” Tout le monde a un assistant numérique, mais c'est aussi inutile que [Microsoft’s] Clippy.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button