Matt O’Brien Y Konstantin Toropin
Washington: La administración Trump ordenó a todas las agencias estadounidenses que dejen de usar la tecnología de inteligencia artificial de Anthropic e impuso otras sanciones severas en un conflicto inusualmente público entre el gobierno estadounidense y la compañía sobre la seguridad de la IA.
El presidente Donald Trump, el secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir que el ejército utilice plenamente su tecnología de inteligencia artificial antes de la fecha límite del viernes (hora de EE. UU.), acusando a la compañía de poner en peligro la seguridad nacional.
El Pentágono quiere utilizar el chatbot Claude de Anthropic para cualquier propósito dentro de los límites legales, pero sin ninguna restricción de uso por parte de Anthropic. La compañía ha insistido en que Claude no se utilizará para vigilancia masiva de estadounidenses ni para operaciones con armas totalmente autónomas.
La orden de Trump se produjo después de que el director ejecutivo de Anthropic, Dario Amodei, se negara a dar marcha atrás, citando preocupaciones de que los productos de la compañía pudieran usarse de manera que violarían sus protecciones.
“¡No lo necesitamos, no lo queremos y no haremos más negocios con ellos!” Trump dijo en las redes sociales.
Hegseth veía a la empresa como un “riesgo para la cadena de suministro”, una etiqueta que normalmente se aplica a los adversarios extranjeros y que podría descarrilar las asociaciones clave de la empresa con otras empresas.
Anthropic dijo que lucharía contra cualquier designación formal en los tribunales, describiéndola en un comunicado como “una medida sin precedentes, históricamente reservada para adversarios estadounidenses y nunca antes utilizada públicamente contra una empresa estadounidense”.
Los esfuerzos del gobierno por afirmar su dominio sobre la toma de decisiones interna de Anthropic se producen en medio de un conflicto mayor sobre el papel de la IA en la seguridad nacional y preocupaciones sobre cómo se podrían usar máquinas cada vez más poderosas en situaciones que involucran fuerza letal, información sensible o vigilancia gubernamental.
Respectivamente Los New York TimesSi bien muchas aplicaciones militares de la inteligencia artificial aún se encuentran en la etapa de desarrollo, los modelos ya se están utilizando activamente para el análisis de inteligencia.
Sacar a Claude de las computadoras del gobierno perjudicaría a los analistas de la Agencia de Seguridad Nacional que revisan los datos de comunicaciones interceptadas desde el extranjero y podría obstaculizar a los analistas de la CIA que buscan patrones en los informes de inteligencia, dijo el periódico.
Citando a ex funcionarios, dijo Justo Dijo que los líderes de la CIA estaban comprometidos a encontrar una manera de continuar utilizando a Claude, lo que ha acelerado su trabajo y profundizado su análisis. Antes de los comentarios de Trump, los funcionarios habían advertido que cualquier orden presidencial podría obligar a la agencia a buscar otras soluciones.
Trump ataca
Trump dijo que Anthropic cometió un error cuando intentaron presionar al Pentágono. Escribió en Truth Social que la mayoría de las agencias tendrían que dejar de usar la IA de Anthropic inmediatamente, pero le dio al Pentágono un plazo de seis meses para eliminar gradualmente la tecnología, que ya está integrada en plataformas militares.
“¡Los Estados Unidos de América nunca permitirán que una corporación despierta y radical de izquierda dicte cómo nuestros grandes militares luchan y ganan guerras!” escribió en mayúsculas.
Después de meses de conversaciones privadas que se convirtieron en debate público esta semana, Anthropic dijo el jueves que el nuevo lenguaje contractual del gobierno le permitiría “ignorar las medidas de protección a voluntad”, algo que su empresa “no podía aceptar en conciencia”, dijo Amodei.
Anthropic puede darse el lujo de perder el contrato. Pero las acciones del gobierno plantearon riesgos de gran alcance en el apogeo del meteórico ascenso de la empresa desde un poco conocido laboratorio de investigación en ciencias informáticas en San Francisco hasta una de las nuevas empresas más valiosas del mundo.
La decisión del presidente se produjo tras horas de conversaciones entre altos funcionarios de Trump en el Pentágono y el Departamento de Estado que criticaron a Anthropic en las redes sociales, pero sus quejas fueron contradictorias.
El portavoz principal del Pentágono, Sean Parnell, dijo en las redes sociales el jueves que la posición de Anthropic “pone en peligro operaciones militares críticas y potencialmente pone en riesgo a nuestros combatientes”.
Mientras tanto, Hegseth dijo el viernes que el Pentágono “debe tener acceso completo y sin restricciones a los modelos de Anthropic para cualquier propósito LEGAL en defensa de la República”.
La decisión de Hegseth de clasificar a Anthropic como un riesgo para la cadena de suministro utiliza una herramienta administrativa diseñada para evitar que las empresas propiedad de adversarios estadounidenses vendan productos que perjudiquen los intereses estadounidenses.
El senador Mark Warner, el principal demócrata del Comité de Inteligencia del Senado, señaló que estas dinámicas “combinadas con una retórica incendiaria contra esta empresa plantean serias preocupaciones sobre si las decisiones de seguridad nacional se basan en un análisis cuidadoso o en consideraciones políticas”.
Anthropic no respondió de inmediato a una solicitud de comentarios sobre las acciones de la administración Trump.
La disputa sacude a Silicon Valley
La disputa ha sorprendido a los desarrolladores en Silicon Valley, donde capitalistas de riesgo, destacados científicos de IA y muchos empleados de los mayores rivales de Anthropic -OpenAI y Google- han apoyado la postura de Amodei en cartas abiertas y otros foros.
Es probable que la medida beneficie al chatbot rival de Elon Musk, Grok, al que el Pentágono quiere otorgar acceso a redes militares secretas, y podría servir como advertencia para Google y OpenAI, cuyos contratos para suministrar sus herramientas de inteligencia artificial al ejército aún están en desarrollo.
Musk se puso del lado de la administración Trump y dijo en su plataforma de redes sociales X: “Anthropic odia la civilización occidental”.
Pero uno de los rivales más feroces de Amodei, el jefe de OpenAI, Sam Altman, se puso del lado de Anthropic, cuestionando la medida “amenazante” del Pentágono en una entrevista de CNBC y en una carta a los empleados, diciendo que OpenAI estaba siguiendo las mismas líneas rojas. Amodei trabajó una vez para OpenAI antes de que él y otros ejecutivos de OpenAI se fueran en 2021 para fundar Anthropic.
“A pesar de todas las diferencias que tengo con Anthropic, confío más en ellos como empresa y creo que realmente se preocupan por la seguridad”, dijo Altman a CNBC, horas antes de reunir a los empleados para una reunión práctica el viernes (hora de EE. UU.).
El general retirado de la Fuerza Aérea Jack Shanahan, ex jefe de las iniciativas de inteligencia artificial del Pentágono, escribió en las redes sociales esta semana: “La diana de Anthropic genera titulares agudos, pero al final todos pierden”.
Shanahan dijo que Claude ya era ampliamente utilizado en todo el gobierno, incluso en áreas secretas, y que las líneas rojas de Anthropic eran “sensatas”. Dijo que los grandes modelos de lenguaje de IA que impulsan los chatbots como Claude, Grok y ChatGPT tampoco están “listos para el horario de máxima audiencia en entornos de seguridad nacional”, particularmente para armas totalmente autónomas.
Anthropic “no está tratando de hacerse el lindo aquí”, escribió en LinkedIn. “No encontrará un sistema con un alcance mayor y más profundo en todo el ejército”.
AP
Infórmese directamente de nuestros corresponsales extranjeros sobre lo que aparece en los titulares de todo el mundo. Suscríbase a nuestro boletín semanal What in the World.