Ya era hora. La acalorada disputa en Estados Unidos entre el Pentágono y la empresa de inteligencia artificial Anthropic ha provocado finalmente un debate fundamental sobre las aplicaciones militares de la inteligencia artificial. La pregunta es: ¿quién decide para qué se puede utilizar esta nueva y a veces impredecible tecnología? ¿Esta responsabilidad recae en los creadores del modelo de IA, quienes mejor saben de qué es capaz la IA y de qué no? ¿O el Pentágono, que compra estos productos a su discreción para utilizarlos en situaciones de guerra?
Sin mucho debate, la IA ha asumido un papel cada vez más central en la guerra en los últimos años. En Ucrania, en Gaza y ahora también en la guerra estadounidense-israelí contra Irán. Por ejemplo, la IA puede analizar grandes cantidades de información mucho más rápido que los humanos y utilizarla para seleccionar objetivos para bombardear. La IA parece ser eficaz, pero también conduce a una “expansión de la muerte y la destrucción”, como escribió anteriormente la NRC.
Se trata de un avance que plantea importantes cuestiones morales, y no sólo porque la IA puede cometer errores graves. Al fin y al cabo, ¿qué valor tiene la certeza de que la decisión final siempre recae en un humano si este evaluador humano tiene que decidir sobre decenas de objetivos que le presenta la IA en un día? ¿Qué tan cuidadosa puede ser esta supervisión humana? “Me tomó veinte segundos alcanzar cada objetivo”, dijo un soldado israelí hace dos años. el guardián sobre el bombardeo de Gaza. “Como persona, no tenía ningún valor añadido”. Sin embargo, esta práctica parece ya haber sido aceptada tácitamente.
La IA en el campo de batalla está provocando un aumento de la muerte y la destrucción. Por eso es bueno que ahora haya un debate sobre las aplicaciones militares de la IA.
La situación es diferente con las dos condiciones que Anthropic establece ahora para el uso de su modelo de IA Claude por parte del Pentágono. La compañía no quiere que el Pentágono utilice a Claude para la vigilancia masiva de ciudadanos estadounidenses o para sistemas de armas autónomos que puedan matar sin intervención humana. Anthropic no tiene objeciones de principio a las armas autónomas, pero dice que la IA aún no está lo suficientemente avanzada como para usarse de manera segura en armas autónomas.
El secretario de Defensa de Trump, Hegseth, se negó a aceptar los dos mandatos de Anthropic. Pero Anthropic se negó a abandonarlos, lo que llevó al Pentágono a rescindir su contrato con la empresa y designar oficialmente a Anthropic como un “riesgo para la cadena de suministro”. Como resultado, otras instituciones y empresas que hacen negocios con el Pentágono ya no pueden utilizar productos Anthropic. Anthropic está impugnando esto legalmente.
Es bueno que Anthropic, la única gran empresa tecnológica que se ha atrevido a enfrentarse a la administración Trump, haya provocado un debate sobre el uso militar de la IA. Pero en un Estado constitucional democrático, las cuestiones de guerra y paz deberían ser decididas en última instancia por los políticos, no por una empresa privada. En 2022, Elon Musk cerró por sí solo el acceso a Internet del ejército ucraniano en una parte del país donde se estaban librando combates: un ejemplo a seguir.
Pero en un Estado constitucional, el gobierno debe respetar las leyes y reglamentos. El Pentágono dice que seguirá la ley al utilizar IA. Pero prácticamente no existen leyes ni regulaciones que regulen la IA en Estados Unidos, y si la administración Trump se sale con la suya, seguirá siendo así. El debate actual deja claro lo importante que es que se introduzcan este tipo de leyes.