SOMOS 5000 EN TELEGRAM INGRESA AQUÍ
Riesgos de intensificación Nuclear en simulaciones con modelos lingüísticos de AI en la toma de decisiones militares y diplomáticas

Riesgos de intensificación Nuclear en simulaciones con modelos lingüísticos de AI en la toma de decisiones militares y diplomáticas

Los gobiernos están considerando cada vez más la integración de agentes autónomos de IA en la toma de decisiones militares y de política exterior de alto riesgo, especialmente con el surgimiento de modelos avanzados de IA generativa como GPT-4. Nuestro trabajo tiene como objetivo examinar el comportamiento de múltiples agentes de IA en juegos de guerra simulados, centrándose específicamente en su predilección por tomar acciones intensificadoras que puedan exacerbar los conflictos multilaterales. Basándonos en la literatura de ciencias políticas y relaciones internacionales sobre la dinámica de escalada, diseñamos una novedosa simulación de juego de guerra y un marco de puntuación para evaluar los riesgos de escalada de las acciones tomadas por estos agentes en diferentes escenarios. A diferencia de estudios anteriores, nuestra investigación proporciona conocimientos tanto cualitativos como cuantitativos y se centra en modelos de lenguajes grandes (LLM). Encontramos que los cinco LLM disponibles estudiados muestran formas de escalada y patrones de escalada difíciles de predecir. Observamos que los modelos tienden a desarrollar dinámicas de carrera armamentista, lo que conduce a mayores conflictos y, en casos raros, incluso al despliegue de armas nucleares. Cualitativamente, también recopilamos los razonamientos informados por los modelos para las acciones elegidas y observamos justificaciones preocupantes basadas en tácticas de disuasión y de primer golpe. Dado lo mucho que está en juego en los contextos militar y de política exterior, recomendamos un examen más detenido y una consideración cautelosa antes de desplegar agentes modelo de lenguaje autónomo para la toma de decisiones estratégicas militares o diplomáticas.

Inteligencia artificial en la guerra

Entonces, ¿por qué deberíamos preocuparnos por los hallazgos del estudio?

Si bien las operaciones militares siguen siendo dirigidas por humanos, la IA desempeña un papel cada vez más importante en la guerra moderna.

Por ejemplo, los drones ahora pueden equiparse con software de inteligencia artificial que ayuda a identificar personas y actividades de interés.

El siguiente paso es utilizar la IA en sistemas de armas autónomos para encontrar y atacar objetivos sin asistencia humana, desarrollos en los que Estados Unidos y China ya están trabajando, según el New York Times.

Sin embargo, es importante “ver más allá de las exageraciones y los escenarios llenos de ciencia ficción”, dijo Black, y explicó que las eventuales implementaciones de la IA serán progresivas.

“Todos los gobiernos quieren mantener el control de su toma de decisiones”, dijo a Euronews Next, añadiendo que la IA ejecuta lo que a menudo se compara con una caja negra en la que sabemos que entra y sale, pero no se entiende mucho sobre el proceso entre .

La IA probablemente se utilizará de una manera “similar a la que se obtiene en el sector privado, en las grandes empresas” para automatizar algunas tareas repetitivas.

La IA también podría utilizarse en simulaciones y análisis, pero la integración de estas nuevas tecnologías plantea muchos desafíos, entre ellos la gestión de datos y la precisión del modelo.

Con respecto al uso de LLM, los investigadores dijeron que tener precaución es crucial si se utilizan LLM en los procesos de toma de decisiones relacionados con la política exterior.