Home Tecnología Las habilidades de piratería de la IA se están acercando a un...

Las habilidades de piratería de la IA se están acercando a un ‘punto de inflexión’

27
0

Vlad Ionescu y Ariel Herbert-Voss, cofundadores de la startup de ciberseguridad RunSybilse sintieron momentáneamente confundidos cuando su herramienta de inteligencia synthetic, Sybil, les alertó sobre una debilidad en los sistemas de un cliente en noviembre pasado.

Sybil utiliza una combinación de diferentes modelos de IA, así como algunos trucos técnicos patentados, para escanear los sistemas informáticos en busca de problemas que los piratas informáticos puedan explotar, como un servidor sin parches o una base de datos mal configurada.

En este caso, Sybil marcó un problema con la implementación por parte del cliente de GraphQL federado, un lenguaje utilizado para especificar cómo se accede a los datos a través de la internet a través de interfaces de programación de aplicaciones (API). El problema significó que el cliente estaba exponiendo inadvertidamente información confidencial.

Lo que desconcertó a Ionescu y Herbert-Voss fue que detectar el problema requería un conocimiento notablemente profundo de varios sistemas diferentes y de cómo interactúan esos sistemas. RunSybil cube que desde entonces encontró el mismo problema con otras implementaciones de GraphQL, antes de que alguien lo hiciera público. “Recorrimos Web y no existía”, cube Herbert-Voss. “Descubrirlo fue un paso de razonamiento en términos de las capacidades de los modelos: un cambio radical”.

La situación apunta a un riesgo creciente. A medida que los modelos de IA se vuelven más inteligentes, su capacidad para encontrar errores de día cero y otras vulnerabilidades también continúa creciendo. La misma inteligencia que se puede utilizar para detectar vulnerabilidades también se puede utilizar para explotarlas.

Canción del amanecerun científico informático de UC Berkeley que se especializa tanto en IA como en seguridad, cube que los avances recientes en IA han producido modelos que son mejores para encontrar fallas. El razonamiento simulado, que implica dividir los problemas en partes constituyentes, y la IA agente, como buscar en la internet o instalar y ejecutar herramientas de software program, han ampliado las capacidades cibernéticas de los modelos.

“Las capacidades de seguridad cibernética de los modelos fronterizos han aumentado drásticamente en los últimos meses”, afirma. “Este es un punto de inflexión”.

El año pasado, Tune cocreó un punto de referencia llamado CiberGimnasio para determinar qué tan bien los modelos de lenguaje grandes encuentran vulnerabilidades en grandes proyectos de software program de código abierto. CyberGym incluye 1.507 vulnerabilidades conocidas encontradas en 188 proyectos.

En julio de 2025, Claude Sonnet 4 de Anthropic pudo encontrar alrededor del 20 por ciento de las vulnerabilidades en el punto de referencia. En octubre de 2025, un nuevo modelo, Claude Sonnet 4.5, pudo identificar el 30 por ciento. “Los agentes de IA pueden encontrar días cero y a un costo muy bajo”, afirma Tune.

Tune cube que esta tendencia muestra la necesidad de nuevas contramedidas, incluida la ayuda de la IA a los expertos en ciberseguridad. “Necesitamos pensar en cómo hacer que la IA ayude más en el lado de la defensa, y se pueden explorar diferentes enfoques”, cube.

Una concept es que las empresas de vanguardia en inteligencia synthetic compartan modelos con investigadores de seguridad antes del lanzamiento, para que puedan utilizar los modelos para encontrar errores y proteger sistemas antes de un lanzamiento common.

Otra contramedida, cube Tune, es repensar cómo se construye el software program en primer lugar. Su laboratorio ha demostrado que es posible utilizar la IA para generar código que sea más seguro que el que utilizan la mayoría de los programadores hoy en día. “A largo plazo, creemos que este enfoque de seguridad por diseño realmente ayudará a los defensores”, afirma Tune.

El equipo de RunSybil cube que, en el corto plazo, las habilidades de codificación de los modelos de IA podrían significar que los piratas informáticos obtengan ventaja. “La IA puede generar acciones en una computadora y generar código, y esas son dos cosas que hacen los piratas informáticos”, cube Herbert-Voss. “Si esas capacidades se aceleran, eso significa que las acciones ofensivas de seguridad también se acelerarán”.


Esta es una edición de Will Knight Boletín del laboratorio de IA. Leer boletines anteriores aquí.

avotas