Home Tecnología El agente viral de IA Moltbot es un desastre de seguridad: 5...

El agente viral de IA Moltbot es un desastre de seguridad: 5 señales de alerta que no debes ignorar (antes de que sea demasiado tarde)

25
0

NurPhoto a través de Getty Photos

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • Moltbot, anteriormente conocido como Clawdbot, se ha vuelto viral como una “IA que realmente hace cosas”.
  • Los expertos en seguridad han advertido contra unirse a la tendencia y utilizar el asistente de IA sin precaución.
  • Si planea probar Moltbot usted mismo, tenga en cuenta estos problemas de seguridad.

Clawdbot, ahora rebautizado como Moltbot luego de un empujón de IP de Anthropic, ha estado en el centro de un torbellino viral esta semana, pero existen ramificaciones de seguridad al usar el asistente de IA que debes tener en cuenta.

¿Qué es Moltbot?

Moltbotrepresentado como un lindo crustáceo, se promociona a sí mismo como una “IA que realmente hace cosas”. Nacido de la mente del desarrollador austriaco Peter Steinberger, el asistente de inteligencia synthetic de código abierto ha sido diseñado para administrar aspectos de su vida digital, incluido el manejo de su correo electrónico, el envío de mensajes e incluso realizar acciones en su nombre, como registrarse para vuelos y otros servicios.

Además: 10 formas en que la IA puede causar daños sin precedentes en 2026

Como informó anteriormente ZDNET, este agente, almacenado en computadoras individuales, se comunica con sus usuarios a través de aplicaciones de mensajería de chat, incluidas iMessage, WhatsApp y Telegram. Hay más de 50 integraciones, habilidades y complementos, memoria persistente y funcionalidad de management complete del sistema y del navegador.

En lugar de operar un modelo de IA independiente, Moltbot aprovecha el poder de Claude de Anthropic (adivinen por qué se solicitó el cambio de nombre de Clawdbot, o consulten la versión de la langosta). página de historia) y ChatGPT de OpenAI.

En sólo cuestión de días, Moltbot se ha vuelto viral. En GitHub, ahora cuenta con cientos de contribuyentes y alrededor de 100.000 estrellas, lo que convierte a Moltbot en uno de los proyectos de código abierto de IA de más rápido crecimiento en la plataforma hasta la fecha.

Entonces, ¿cuál es el problema?

1. El interés viral crea oportunidades para los estafadores

A muchos de nosotros nos gusta el software program de código abierto por la transparencia de su código, la oportunidad que tiene cualquiera de auditar el software program en busca de vulnerabilidades y problemas de seguridad y, en common, la comunidad que crean los proyectos populares.

Sin embargo, la popularidad vertiginosa y los cambios también pueden permitir que desarrollos maliciosos pasen desapercibidos, según se informó. repositorios falsos y estafas criptográficas ya en circulación. Aprovechando el repentino cambio de nombre, los estafadores lanzaron un token falso de IA Clawdbot que logró recaudar $16 millones antes de que se estrellara.

Por lo tanto, si planea probarlo, asegúrese de utilizar solo repositorios confiables.

2. Entregar las llaves de tu reino digital

Si opta por instalar Moltbot y desea utilizar la IA como un asistente private y autónomo, deberá otorgarle acceso a sus cuentas y habilitar controles a nivel del sistema.

No existe una configuración perfectamente segura, ya que Moltbot documentación reconoce, y Cisco llama moltbot una “pesadilla absoluta” desde el punto de vista de la seguridad. Como la autonomía del bot depende de los permisos para ejecutar comandos de shell, leer o escribir archivos, ejecutar scripts y realizar tareas computacionales en su nombre, estos privilegios pueden exponerlo a usted y a sus datos a peligro si están mal configurados o si el malware infecta su máquina.

Además: ¿Linux después de Linus? La comunidad del kernel finalmente redacta un plan para reemplazar a Torvalds

“Ya se ha informado que Moltbot ha filtrado credenciales y claves API de texto sin formato, que pueden ser robadas por actores de amenazas mediante inyección rápida o puntos finales no seguros”, dijeron los investigadores de seguridad de Cisco. “La integración de Moltbot con aplicaciones de mensajería extiende la superficie de ataque a esas aplicaciones, donde los actores de amenazas pueden crear mensajes maliciosos que provocan un comportamiento no deseado”.

3. Credenciales expuestas

Investigador de seguridad ofensiva y fundador de Dvuln Jamieson O’Reilly ha estado monitoreando Moltbot y encontró instancias expuestas y mal configuradas conectadas a la net sin ninguna protección de autenticación, uniéndose otros investigadores explorando también esta zona. De cientos de casos, algunos no tenían ninguna protección, lo que filtró claves API de Anthropic, tokens de bot de Telegram, credenciales de Slack OAuth y secretos de firma, así como historiales de conversaciones.

Mientras que los desarrolladores inmediatamente saltó a la acción e introdujo nuevas medidas de seguridad que pueden mitigar este problema; si desea utilizar Moltbot, debe tener confianza en cómo lo configura.

4. Ataques de inyección rápida

Los ataques de inyección rápida son un flamable de pesadilla para los expertos en ciberseguridad que ahora participan en la IA. Rahul Sood, director ejecutivo y cofundador de Irreverent Labs, ha enumerado una serie de posibles problemas de seguridad asociados con los agentes proactivos de IA. dicho que el modelo de seguridad de Moltbot/Clawdbot “me asusta muchísimo”.

Además: Los mejores cursos y certificados gratuitos de IA para mejorar tus habilidades en 2026, y los he probado todos

Este vector de ataque requiere un asistente de inteligencia synthetic para leer y ejecutar instrucciones maliciosas que podrían, por ejemplo, estar ocultas en el materials net de origen o en las URL. Luego, un agente de IA puede filtrar datos confidenciales, enviar información a servidores controlados por atacantes o ejecutar tareas en su máquina, si tiene los privilegios para hacerlo.

Sood amplió el tema sobre X, comentando:

“Y dondequiera que lo ejecute… Nube, servidor doméstico, Mac Mini en el armario… recuerde que no solo está dando acceso a un bot. Está dando acceso a un sistema que leerá contenido de fuentes que no controla. Piénselo de esta manera, los estafadores de todo el mundo se regocijan mientras se preparan para destruir su vida. Así que, por favor, analicen en consecuencia”.

Como el de Moltbot documentación Tenga en cuenta que, con todos los asistentes y agentes de IA, el problema del ataque de inyección rápida no se ha resuelto. Hay medidas que puede tomar para mitigar la amenaza de convertirse en víctima, pero combinar el acceso generalizado al sistema y a la cuenta con mensajes maliciosos parece una receta para el desastre.

“Incluso si solo usted puede enviar un mensaje al bot, la inyección rápida aún puede ocurrir a través de cualquier contenido no confiable que lea el bot (resultados de búsqueda/obtención net, páginas del navegador, correos electrónicos, documentos, archivos adjuntos, registros/códigos pegados)”, se lee en la documentación. “En otras palabras: el remitente no es la única superficie de amenaza; el contenido en sí puede contener instrucciones adversas”.

5. Habilidades y contenidos maliciosos

Los investigadores de ciberseguridad ya han casos descubiertos de habilidades maliciosas adecuadas para su uso con Moltbot que aparecen en línea. En uno de esos ejemplos, el 27 de enero, una nueva extensión de VS Code llamada “ClawdBot Agent” fue marcada como maliciosa. Esta extensión period en realidad un troyano completo que utiliza software program de acceso remoto probablemente con fines de vigilancia y robo de datos.

Moltbot no tiene una extensión VS Code, pero este caso resalta cómo la creciente popularidad del agente probablemente conducirá a una cosecha completa de extensiones y habilidades maliciosas que los repositorios tendrán que detectar y administrar. Si los usuarios instalan uno accidentalmente, es posible que, sin darse cuenta, estén abriendo una puerta para que sus configuraciones y cuentas se vean comprometidas.

Además: Claude Cowork automatiza tareas complejas para usted ahora, bajo su propio riesgo

Para resaltar esta cuestión, O’Reilly construyó una habilidad segura, pero con puerta trasera, y la liberó. No pasó mucho tiempo antes de que la habilidad se descargara miles de veces.

Si bien recomiendo precaución al adoptar asistentes y agentes de IA que tengan altos niveles de autonomía y acceso a sus cuentas, eso no quiere decir que estos modelos y herramientas innovadores no tengan valor. Moltbot podría ser la primera versión de cómo los agentes de IA se integrarán en nuestras vidas futuras, pero aun así debemos extremar las precauciones y evitar elegir la comodidad por encima de la seguridad private.



avotas