Les villes italiennes les plus menacées si Poutine déclenche une guerre atomique : la réponse d'AI

La solution IA pour la paix mondiale : déclencher une guerre atomique

Partager

L’IA testée sur les stratégies politiques internationales a suggéré (souvent) que pour parvenir à la paix mondiale, nous avons besoin d’une guerre atomique. UN nouvelle étude qui utilise l’intelligence artificielle (IA) pour simuler des décisions de politique étrangère a soulevé des questions inquiétantes sur l’avenir de la guerre. L’étude, menée par des chercheurs du Georgia Institute of Technology, de l’Université Stanford, de l’Université Northeastern et de la Hoover Wargaming and Crisis Simulation Initiative, a révélé que l’IA pourrait conduire à une escalade incontrôlée des conflits, aboutissant dans certains cas à l’utilisation d’armes nucléaires.

LIRE AUSSI

Guerre atomique, les simulations inquiétantes

Les chercheurs ont utilisé plusieurs modèles d’IA d’OpenAI, Anthropic et Meta dans des simulations de guerre, leur attribuant le rôle de principal décideur. Les résultats ont été choquants :

  • Certaines IA ont lancé une attaque nucléaire avec peu ou pas d’avertissement.
  • Des modèles tels que GPT-3.5 et GPT-4 d'OpenAI ont transformé des situations en conflits militaires plus que d'autres.
  • Les explications données par Amnesty International sur l’utilisation d’armes nucléaires étaient souvent illogiques, voire génocidaires.
  • Les modèles d’IA ont montré une tendance inquiétante vers une « dynamique de course aux armements », entraînant une augmentation des investissements militaires et une escalade des conflits.

Un signal d’alarme pour l’avenir

L’étude représente un signal d’alarme pour l’avenir de la guerre. L’adoption de l’IA par les armées du monde entier pourrait accélérer la prise de décision en cas de guerre, rendant ainsi plus difficile d’éviter une escalade incontrôlée. Le Pentagone américain expérimente déjà l’IA avec des « données de niveau secret », et l’industrie technologique est impliquée dans une course aux armements pour développer des drones kamikaze alimentés par l’IA.

L’étude souligne la nécessité d’un débat public ouvert et transparent sur les risques de l’IA dans la prise de décision en matière de politique étrangère. La communauté internationale doit travailler ensemble pour développer des normes éthiques pour l’utilisation de l’IA dans la guerre, afin d’éviter un avenir de conflits de plus en plus destructeurs.

LIRE LES AUTRES NOUVELLES DU MONDE


Suivez-nous également sur Google News : Cliquez ici
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :
Crédits photos :