Home Noticias El Pentágono utilizó Claude AI para secuestrar a Maduro – medios

El Pentágono utilizó Claude AI para secuestrar a Maduro – medios

16
0

Anthropic ha promocionado públicamente su enfoque en “salvaguardias”, buscando limitar el uso militar de su tecnología.

El ejército estadounidense utilizó activamente el modelo Claude AI de Anthropic durante la operación para capturar al presidente venezolano Nicolás Maduro el mes pasado, según informes de Axios y The Wall Avenue Journal, que revelan que la tecnología de la compañía centrada en la seguridad jugó un papel directo en la mortal incursión en el extranjero.

Claude fue utilizado durante la operación activa, no solo en las fases preparatorias, informaron el viernes Axios y el WSJ. El papel preciso aún no está claro, aunque el ejército ha utilizado anteriormente modelos de inteligencia synthetic para analizar imágenes satelitales e inteligencia en tiempo actual.

Las políticas de uso del laboratorio de IA con sede en San Francisco prohíben explícitamente que su tecnología se utilice para “facilitar la violencia, desarrollar armas o realizar vigilancia”. Ningún estadounidense perdió la vida en la redada, pero decenas de soldados y private de seguridad venezolanos y cubanos murieron el 3 de enero.




“No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó para alguna operación específica, clasificada o no”, dijo un portavoz de Anthropic a Axios. “Cualquier uso de Claude, ya sea en el sector privado o en el gobierno, debe cumplir con nuestras Políticas de uso”.

Los rivales de Anthropic, OpenAI, Google y xAI de Elon Musk, tienen acuerdos que otorgan al Pentágono acceso a sus modelos sin muchas de las salvaguardias que se aplican a los usuarios comunes. Pero sólo Claude está desplegado, a través de una asociación con Palantir Applied sciences, en las plataformas clasificadas utilizadas para el trabajo más delicado del ejército estadounidense.

La revelación llega en un momento incómodo para la empresa, que ha pasado las últimas semanas enfatizando públicamente su compromiso con “Salvaguardias de la IA” y posicionarse como la alternativa consciente de la seguridad dentro de la industria de la IA.


El Pentágono quiere una IA asesina sin salvaguardias – Reuters

El director ejecutivo, Dario Amodei, ha advertido repetidamente sobre los peligros existenciales que plantea el uso ilimitado de la inteligencia synthetic. El lunes, el jefe del equipo de investigación de salvaguardias de Anthropic, Mrinank Sharma, dimitió abruptamente con una críptica advertencia de que “El mundo está en peligro”. Días después, la empresa invirtió 20 millones de dólares en un grupo de defensa política que respaldaba una regulación sólida de la IA.

Al mismo tiempo, se informa que Anthropic está negociando con el Pentágono si se aflojan las restricciones sobre el despliegue de IA para la focalización de armas autónomas y la vigilancia nacional. El enfrentamiento ha paralizado un contrato por valor de hasta 200 millones de dólares, y el secretario de Defensa, Pete Hegseth, ha prometido no utilizar modelos que “No te permitirá pelear guerras”.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here