"El secretario de Defensa, Pete Hegseth, ha amenazado con castigar a la empresa de inteligencia artificial Anthropic si no permite que el Pentágono utilice su tecnología como quiera, aparentemente incluso para crear drones asesinos autónomos o realizar vigilancia de los estadounidenses.
El poderoso modelo de IA de Anthropic, Claude, es actualmente el único autorizado para manejar datos militares clasificados, y la compañía recibió un contrato de 200 millones de dólares el año pasado para desarrollar capacidades de IA para que el Departamento de Defensa las utilice junto con otras empresas de IA.
Desafiando el "enorme consenso" en la cumbre de la India, la administración Trump se opone a las salvaguardas globales de la IA.
Sin embargo, la política de uso de la empresa prohíbe su uso para la vigilancia masiva y para el desarrollo de armas autónomas, como drones que atacan objetivos sin un operador humano.
Estas limitaciones han enfurecido a los líderes del Departamento de Defensa. El martes, Hegseth convocó al CEO de Anthropic, Dario Amodei, a una reunión en el Pentágono, donde exigió acceso "sin restricciones" a Claude sin ninguna salvaguarda.
Este objetivo se esbozó el mes pasado en el memorándum "Estrategia de IA" del departamento, que pedía a Estados Unidos adoptar una "fuerza de combate prioritaria en IA" y que las empresas permitieran que su tecnología se desplegara para "cualquier uso legal", libre de salvaguardas éticas.
Según un alto funcionario de defensa que habló con Axios, Hegseth emitió un ultimátum a Amodei el martes: si no concede al Pentágono el uso sin restricciones de la tecnología de Anthropic antes de las 5:01 pm del viernes, el departamento tomaría medidas para coaccionar a la empresa.
O bien declararía a Anthropic un "riesgo para la cadena de suministro", lo que efectivamente la pondría en la lista negra para uso militar y rescindiría su contrato, o bien invocaría la Ley de Producción de Defensa, lo que obligaría a la empresa a adaptar el producto a las necesidades militares.
Si bien no sería un paso inusual para el Pentágono cortar lazos con Anthropic, las amenazas de declararla un riesgo para la cadena de suministro han sido descritas como extraordinarias.
Jessica Tillipman, decana asociada de estudios de derecho de contratación pública en la Universidad George Washington, especializada en gobernanza de la IA, escribió en las redes sociales que la amenaza de "declarar a Anthropic un riesgo para la cadena de suministro es profundamente problemática", ya que "generalmente esto lo reservamos para productos que crean riesgos de seguridad, y usarlo de esta manera socava su propósito".
Como escribió Elizabeth Nolan Brown el miércoles para Reason, esto "significaría que cualquiera que quiera trabajar con el ejército estadounidense en cualquier capacidad debe romper lazos con la empresa de IA", lo que podría asestar un duro golpe al negocio.
El mes pasado, Amodei publicó un ensayo sobre cómo las "autocracias habilitadas por la IA" podrían usar la tecnología para vigilar y reprimir a sus ciudadanos y librar guerras contra países menos desarrollados:
"Un enjambre de millones o miles de millones de drones armados totalmente automatizados, controlados localmente por una poderosa IA y coordinados estratégicamente en todo el mundo por una IA aún más poderosa, podría ser un ejército invencible, capaz tanto de derrotar a cualquier ejército del mundo como de reprimir la disidencia dentro de un país siguiendo a cada ciudadano...
Una poderosa IA que analizara miles de millones de conversaciones de millones de personas podría medir el sentimiento público, detectar focos de deslealtad en formación y erradicarlos antes de que crezcan. Esto podría llevar a la imposición de un verdadero panóptico a una escala que no vemos hoy."
Según los informes, Amodei se resistió a las demandas de Hegseth para levantar las restricciones en la reunión del martes, negándose a ceder en los dos temas clave de la vigilancia masiva y las armas autónomas. Tras los informes de la reunión, la empresa ha afirmado que aún quiere trabajar con el gobierno, al tiempo que garantiza que sus modelos se utilicen de acuerdo con lo que "fiable y responsablemente" pueden hacer.
Un portavoz principal del Pentágono dijo que el ejército debe ser libre de usar la tecnología como mejor le parezca. Según Associated Press, el funcionario argumentó que "el Pentágono solo ha emitido órdenes legales y enfatizó que el uso legal de las herramientas de Anthropic sería responsabilidad de los militares".
La cuestión de si el Pentágono solo ha emitido órdenes "legales" está en disputa; de hecho, el Pentágono está luchando por reducir la pensión de jubilación del senador Mark Kelly (demócrata por Arizona), un capitán retirado de la Marina, después de que hiciera un video en noviembre recordando a las tropas en servicio activo que tienen el deber de no obedecer órdenes ilegales.
Ese video fue hecho en respuesta a informes de que Hegseth había dado órdenes de bombardear a los sobrevivientes de uno de los ataques con botes de la administración en el Caribe, un acto descrito como un posible "crimen de guerra" en medio de una campaña más amplia que expertos legales han dicho que es ilegal tanto bajo la ley estadounidense como la internacional.
Según informes, el ejército también utilizó a Claude como parte de otro acto legalmente cuestionable el mes pasado: la operación para secuestrar al presidente venezolano Nicolás Maduro, que implicó bombardeos en Caracas y mató al menos a 83 personas. No está claro cómo se utilizó el modelo durante el ataque.
Si bien el Pentágono no ha especificado qué actividades restringidas desea llevar a cabo utilizando la tecnología de Anthropic, el senador Ruben Gallego (D-Ariz.) dijo que con sus demandas, Hegseth esencialmente le estaba diciendo a la compañía: "Déjenos usar su IA para la vigilancia masiva, o les retiraremos el contrato".
Bajo el presidente Donald Trump, Gallego añadió, "las corporaciones son castigadas por negarse a espiar a los ciudadanos estadounidenses"."
(Stephen Prager , Common Dreams, 25/02/26, traducción Quillbot, enlaces en el original)
No hay comentarios:
Publicar un comentario