Potsdam, le 4 août 2025
Il y a quatre-vingts ans, le monde a été témoin des conséquences catastrophiques des premières bombes atomiques larguées sur Hiroshima et Nagasaki. Mais il a également assisté à la naissance d’un ordre mondial d’après-guerre fondé sur un engagement en faveur de la paix. En juillet 1945, la Charte des Nations Unies a été adoptée et, le 1er août 1945, les dirigeants des États-Unis, du Royaume-Uni et de l’Union soviétique ont signé l’accord de Potsdam.
Une décennie plus tard, un groupe de scientifiques, mené par Albert Einstein et Bertrand Russell, a publié un manifeste exhortant les dirigeants des puissances mondiales à faire tout ce qui était en leur pouvoir pour empêcher une guerre nucléaire. Ils ont lancé cet avertissement : « Nous devons apprendre à penser différemment… non pas quelles mesures peuvent être prises pour assurer la victoire militaire du groupe de notre choix… mais quelles mesures peuvent être prises pour empêcher un conflit militaire dont l’issue serait désastreuse pour toutes les parties. »
Cet appel a eu un effet durable. Malgré de nombreux conflits au cours des décennies, les armes nucléaires, reconnues comme des armes de destruction massive, n’ont plus jamais été utilisées dans une guerre.
Pourtant, le monde n’est pas devenu pacifique. Nous sommes confrontés à des guerres régionales et locales incessantes, avec des systèmes d’armes toujours plus sophistiqués. Si les gouvernements se sont jusqu’à présent abstenus d’utiliser « l’option nucléaire », une nouvelle menace émerge, qui soulève des risques fondamentalement différents mais potentiellement tout aussi graves : les systèmes d’armes autonomes (AWS).
Il y a 80 ans, la bombe nucléaire était saluée comme une avancée scientifique majeure. Mais elle a également marqué le début d’une course aux armements nucléaires. Aujourd’hui, l’intelligence artificielle, suffisamment puissante pour permettre le déploiement de systèmes d’armes autonomes létales, constitue une autre avancée scientifique transformatrice. Et une fois de plus, nous assistons à l’émergence d’une course aux armements, cette fois dans le domaine de l’IA.
Nous, signataires de l’« Appel de Potsdam sur les systèmes d’armes autonomes », reconnaissons que les armes nucléaires et les AWS ne sont pas identiques. Les armes nucléaires sont conçues pour la destruction massive. Les systèmes d’armes autonomes, en revanche, permettent des frappes ciblées. Mais leur danger réside ailleurs : dans la perte potentielle d’un contrôle humain significatif. Lorsque les machines ont le pouvoir de prendre des décisions de vie ou de mort, le seuil de violence peut être considérablement abaissé, et l’ampleur de leur déploiement pourrait entraîner une destruction d’une ampleur qui remet en question les cadres juridiques et éthiques existants.
Le 14 juin 2024, le défunt pape François s’est adressé aux dirigeants du G7 dans les Pouilles, les mettant en garde : « À la lumière de la tragédie que constituent les conflits armés, il est urgent de reconsidérer le développement et l’utilisation de dispositifs tels que les « armes autonomes létales » et, à terme, d’interdire leur utilisation… Aucune machine ne devrait jamais choisir de prendre la vie d’un être humain. »
Nous, scientifiques soussignés, ne sommes pas naïfs. Nous comprenons qu’une fois la guerre déclenchée, toutes les options militaires peuvent être envisagées. Mais l’histoire montre que même des adversaires profondément divisés ont été capables de négocier des accords de désarmement, tels que ceux conclus dans les années 1960 et 1970, afin de réduire le risque d’escalade. Une voie similaire doit être suivie pour les AWS.
Comme Einstein et Russell nous l’ont rappelé en 1955 : « Nous appelons, en tant qu’êtres humains, les êtres humains : souvenez-vous de votre humanité, et oubliez le reste. »
Il y a quatre-vingts ans, la ville de Potsdam accueillait les dirigeants des trois grandes puissances, qui ont jeté les bases d’un ordre d’après-guerre conforme aux principes de la Charte des Nations unies, signée quelques semaines plus tôt à San Francisco.
Quatre-vingts ans plus tard, nous appelons les dirigeants mondiaux d’aujourd’hui à se souvenir de cet héritage. Veillez à ce que les décisions concernant la vie et la mort restent entre les mains des humains. Et engagez-vous à résoudre les conflits non pas par l’automatisation et le ciblage algorithmique, mais conformément au droit international et au sens commun de l’humanité.