Las ciudades italianas en mayor riesgo si Putin desata una guerra atómica: la respuesta de AI

La solución de la IA para la paz mundial: iniciar una guerra atómica

Compartir

La IA probada en estrategias políticas internacionales ha sugerido (a menudo) que para lograr la paz mundial necesitamos una guerra atómica. A nuevo estudio que utiliza inteligencia artificial (IA) para simular decisiones de política exterior ha planteado preguntas preocupantes sobre el futuro de la guerra. El estudio, realizado por investigadores del Instituto de Tecnología de Georgia, la Universidad de Stanford, la Universidad Northeastern y la Iniciativa de Simulación de Crisis y Wargaming Hoover, encontró que la IA podría conducir a una escalada incontrolada de conflictos, culminando en algunos casos en el uso de armas nucleares.

LEER TAMBIÉN

Guerra atómica, las inquietantes simulaciones

Los investigadores utilizaron varios modelos de IA de OpenAI, Anthropic y Meta en simulaciones de guerra, asignándoles el papel de principal tomador de decisiones. Los resultados fueron impactantes:

  • Algunas IA han lanzado un ataque nuclear con poca o ninguna advertencia.
  • Modelos como GPT-3.5 y GPT-4 de OpenAI han convertido situaciones en duros conflictos militares más que otros.
  • Las explicaciones dadas por AI sobre el uso de armas nucleares fueron a menudo ilógicas o incluso genocidas.
  • Los modelos de IA han mostrado una preocupante tendencia hacia una “dinámica de carrera armamentista”, que da como resultado un aumento de las inversiones militares y una escalada de los conflictos.

Una llamada de atención para el futuro

El estudio representa una llamada de atención para el futuro de la guerra. La adopción de la IA por parte de los ejércitos de todo el mundo podría acelerar la toma de decisiones en la guerra, haciendo más difícil evitar una escalada incontrolada. El Pentágono de Estados Unidos ya está experimentando con IA con “datos de nivel secreto”, y la industria tecnológica está involucrada en una carrera armamentista para desarrollar drones kamikazes con IA.

El estudio destaca la necesidad de un debate público abierto y transparente sobre los riesgos de la IA en la toma de decisiones de política exterior. La comunidad internacional debe trabajar en conjunto para desarrollar estándares éticos para el uso de la IA en la guerra, a fin de evitar un futuro de conflictos cada vez más destructivos.

LEER OTRAS NOTICIAS DEL MUNDO


Síguenos también en Google News: haga clic aquí
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos:
Créditos fotográficos: