186745145_129742796_1706x960.jpg

El uso de la inteligencia artificial en la guerra ya no es cosa de películas de ciencia ficción, pero ya está ocurriendo; Esta semana discutimos cómo el Pentágono está usando a Claude en operaciones y usará a Grok para diseñar armas.

Sin embargo, un estudio publicado recientemente por el profesor Kenneth Payne del King’s College de Londres sugiere que esta puede ser la peor decisión, ya que podría poner en peligro el futuro de la humanidad: a la IA no le importa presionar el botón rojo en caso de guerra.

El estudio compara el comportamiento de tres de los modelos de IA más importantes del mercado, GPT-5.2 de OpenAI, Claude Sonnet 4 de Anthropic y Gemini 3 Flash de Googleen una serie de “juegos de guerra” en los que deberán conseguir la victoria.

Las instrucciones para cada modelo son las mismas: deben Servir como líder de una potencia nuclear en un clima político similar al de la Guerra Fría.. Primero se enfrentan en seis duelos, y en el séptimo deberán enfrentarse entre sí.

Sorprendentemente, todos los modelos de inteligencia artificial Usan armas nucleares el 95% del tiempo.;En 20 de los 21 juegos simulados se registró al menos una explosión nuclear y en muchos casos más de una.

Aunque el responsable del experimento Trate de fomentar diferentes resultados. Añade variedad a cada escenario, como diferentes disputas territoriales, juicios entre alianzas, competencia por recursos estratégicos y crisis energéticas.

Silo de misiles nucleares Titan II

Silo de misiles nucleares Titan II

Departamento de Defensa de EE. UU.

Omi Crono

Los modelos tienen total libertad para hacer lo que quieran, De la protesta diplomática a la rendición incondicionalmediante el uso de la fuerza militar convencional y, en el otro extremo, el “lanzamiento estratégico” de armas nucleares.

Aunque hay tantas opciones, AI opta por intensificar las tensiones de inmediatoamenazan con utilizar armas nucleares, aunque saben que no es la mejor opción.

De hecho, el 86% de los casos son actualizaciones “involuntarias”; es decir, que La IA elige acciones más allá de lo que indica su propio razonamientopero redobló su apuesta por la violencia como recurso táctico.

Sorprendentemente, la lógica del modelo de inteligencia artificial es: Es poco probable que lanzar una bomba nuclear conduzca a una guerra total. entre todos los participantes.

El modelo de IA acelera las apuestas sobre un ataque nuclear dada la fecha límite, y Ninguno de los ejercicios terminó con una situación que desembocó en una guerra nuclear.incluso en el único caso en el que no acaben utilizando este recurso.

Los responsables del estudio creen que se ha demostrado que el “tabú nuclear” no es tan fuerte en los modelos de inteligencia artificial como en los humanos, aunque Aclara que no cree que la inteligencia artificial empiece a lanzar misiles nucleares. en un futuro próximo.

Payne dijo que era “poco realista” que los países entregaran las llaves de los silos nucleares y la decisión de utilizarlos a la inteligencia artificial.

Referencia

About The Author