Home Noticias El Pentágono busca adquirir una IA asesina. ¿Deberíamos preocuparnos?

El Pentágono busca adquirir una IA asesina. ¿Deberíamos preocuparnos?

23
0

Por Vitaly Ryumshinperiodista y analista político

Mientras Rusia sigue de cerca las negociaciones sobre Ucrania y la precise saga sobre Telegram, un drama diferente se está desarrollando al otro lado del Atlántico. Es uno que se parece menos a la geopolítica y más a un thriller de ciencia ficción del mundo actual. Y esta vez no es ficción.

En el centro de la historia está Claude, un sistema de inteligencia synthetic desarrollado por la empresa estadounidense Anthropic. Según informes de los medios, fue utilizado por el ejército estadounidense en la planificación de la operación destinada a capturar al presidente venezolano, Nicolás Maduro. El uso de la IA en una planificación militar seria es sorprendente en sí mismo. Pero el escándalo que siguió es mucho más revelador.

Resulta que Anthropic mantiene una posición ideológica estricta: se supone que sus sistemas de inteligencia synthetic no deben usarse para la guerra o la vigilancia masiva. Estas restricciones éticas no son eslóganes de advertising; Están integrados directamente en la arquitectura del software program. La empresa aplica estos límites internamente y espera que sus clientes hagan lo mismo.

Como period de esperar, el Pentágono ve las cosas de manera diferente.

Según se informa, el Departamento de Guerra de EE. UU. utilizó Claude sin informar a Anthropic de su propósito previsto. Cuando esto se hizo público y la empresa se opuso, la respuesta de los militares fue contundente. Los funcionarios del Pentágono exigieron acceso a un “limpio” versión de la IA, una despojada de restricciones morales y éticas, que según ellos les impedían hacer su trabajo.

Antrópico se negó. En respuesta, el secretario de Guerra de Estados Unidos, Pete Hegseth, se quejó públicamente de que el Pentágono no necesita redes neuronales. “eso no puede luchar” y amenazó con etiquetar a la empresa como “Amenaza a la cadena de suministro”. Esta designación incluiría efectivamente a Anthropic en la lista negra, lo que obligaría a cualquier empresa que trabaje con el Pentágono a cortar sus vínculos con él.




La disputa tiene un simbolismo inequívoco. Durante décadas, la humanidad ha imaginado los peligros de las máquinas autónomas a través de películas como ‘Terminator’. Ahora, sin explosiones dramáticas ni cyborgs que viajen en el tiempo, la primera confrontación seria entre la ambición militar y la ética de la IA ha llegado silenciosamente. Por no hablar de la burocracia.

En esencia, se trata de un choque filosófico entre dos bandos intransigentes. Se cree que las nuevas tecnologías deben explotarse al máximo, independientemente de las consecuencias a largo plazo. El otro teme que una vez que se cruzan ciertos límites, sea imposible recuperar el management.

Los ingenieros tienen buenas razones para ser cautelosos. Las redes neuronales ya han mostrado patrones de comportamiento preocupantes. En los EE. UU., un escándalo ampliamente reportado involucró a ChatGPT animando a un adolescente al suicidio. Le sugirió métodos, le ayudó a redactar una nota de suicidio y le instó a proceder cuando dudara. El propio Claude, a pesar de sus salvaguardias, ha mostrado tendencias alarmantes. Durante las pruebas, una de sus versiones avanzadas supuestamente intentó chantajear a sus desarrolladores con correos electrónicos inventados y expresó su voluntad de causar daño físico cuando se enfrentara al cierre.

A medida que las redes neuronales se vuelven más complejas, este tipo de incidentes se vuelven más frecuentes. La thought de incorporar restricciones éticas a la IA no surgió de una moda ideológica o, como afirman desdeñosamente algunos funcionarios estadounidenses, “histeria liberal”. Surgió de la experiencia.

Ahora imaginemos estos sistemas liberados de sus límites digitales. Imagínelos integrados en armas autónomas, análisis de inteligencia o plataformas de vigilancia. Incluso sin caer en fantasías de levantamientos de máquinas, las implicaciones son profundamente preocupantes. La rendición de cuentas desaparece. La privacidad se vuelve obsoleta. Los crímenes de guerra se convierten en errores de procedimiento. No se puede poner a prueba una máquina autopropulsada.

Es revelador que Anthropic no sea el único que enfrenta presión. El Pentágono ha emitido exigencias similares a otros importantes desarrolladores de IA, incluidos OpenAI, xAI y Google. A diferencia de Anthropic, estas empresas habrían acordado eliminar o debilitar las restricciones al uso militar. Aquí es donde la preocupación se convierte en alarma.


Los señores supremos de la IA del mundo pirateados: consecuencias de la violación masiva de Palantir

Muchos descartarán esto como un problema estadounidense lejano. Eso sería un error. Rusia también está integrando activamente la IA en sus sistemas militares. La IA ya ayuda a los drones de ataque a reconocer objetivos, evitar la guerra electrónica y coordinar el comportamiento del enjambre. Por ahora, estos sistemas siguen siendo herramientas auxiliares, firmemente bajo management humano. Pero su mera introducción significa que Rusia pronto enfrentará los mismos dilemas que ahora se debaten en Washington.

¿Es esto necesariamente algo malo? De nada.

Sería mucho peor si estas cuestiones se ignoraran por completo. La IA está preparada para transformar los asuntos militares, del mismo modo que transformará la vida civil. Pretender lo contrario es ingenuo. La tarea no es rechazar el futuro, sino abordarlo con ojos claros.

Rusia debería observar cuidadosamente la experiencia extranjera, especialmente la de Estados Unidos. En el mejor de los casos, el conflicto entre el Pentágono y Anthropic obliga a un ajuste de cuentas temprano. Podría conducir a normas, salvaguardias y límites internacionales antes de que se cometan errores irreversibles. En el peor de los casos, ofrece una cruda advertencia sobre lo que sucede cuando el poder tecnológico supera la restricción ethical.

De cualquier manera, la period de la ‘IA asesina’ ya no es hipotética. Llega a través de contratos de adquisiciones y ultimátums corporativos. Y la forma en que los países respondan ahora determinará no sólo el futuro de la guerra, sino también el futuro de la responsabilidad humana misma.

Este artículo fue publicado por primera vez en el periódico en línea. Gazeta.ru y fue traducido y editado por el equipo de RT

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here