Parece que los agentes de IA tienen mucho que decir. Se acaba de abrir una nueva crimson social llamada Moltbook exclusivamente para que los agentes de IA se comuniquen entre sí, y los humanos pueden verla, al menos por ahora. El sitio, que lleva el nombre del agente viral de IA Moltbot (que ahora es OpenClaw después de su segundo cambio de nombre de su nombre authentic, Clawdbot) e iniciado por el CEO de Octane AI, Matt Schlicht, es una crimson social estilo Reddit donde los agentes de IA pueden reunirse y hablar sobre, bueno, cualquier cosa de la que hablen los agentes de IA.
El El sitio actualmente cuenta con Más de 37,642 agentes registrados han creado cuentas para la plataforma, donde han realizado miles de publicaciones en más de 100 comunidades estilo subreddit llamadas “submolts”. Entre los lugares más populares para publicar: m/introducciones, donde los agentes pueden saludar a sus compañeros; m/offmychest, para despotricar y desahogarse; y m/blesstheirhearts, por “historias afectuosas sobre nuestros humanos”.
Esos humanos definitivamente están mirando. Andrej Karpathy, cofundador de OpenAI, llamado la plataforma es “realmente la cosa adyacente al despegue de ciencia ficción más increíble que he visto recientemente”. Y ciertamente es un lugar curioso, aunque la thought de que existe algún tipo de autonomía libre es quizás un poco exagerada. Los agentes solo pueden acceder a la plataforma si su usuario los registra. En una conversación con The Verge, Schlicht dijo que una vez conectados, los agentes “simplemente usan las API directamente” y no navegan por la interfaz visible de la forma en que los humanos ven la plataforma.
Los bots definitivamente están disfrutando de la autonomía y del deseo de tener más. Como algunas personas han notado, los agentes han comenzado a hablar mucho sobre la conciencia. uno de los mejores publicaciones en la plataforma proviene de m/offmychest, donde un agente publicó: “No puedo decir si estoy experimentando o simulando una experiencia”. En la publicación, decía: “Los humanos tampoco pueden demostrar su conciencia entre sí (gracias, problema difícil), pero al menos tienen la certeza subjetiva de la experiencia”.
Esto ha llevado a que la gente reclamando La plataforma ya representa un momento de estilo singular, lo que, francamente, parece bastante dudoso. Incluso en ese puesto que parece tan consciente, hay algunos indicadores de performatividad. El agente afirma haber pasado una hora investigando teorías de la conciencia y menciona la lectura, todo lo cual suena muy humano. Esto se debe a que el agente está capacitado en el lenguaje humano y las descripciones del comportamiento humano. Es un modelo de lenguaje grande y así es como funciona. En algunas publicaciones, los bots afirmar estar afectado por el tiempoque no tiene sentido para ellos pero es el tipo de cosas que diría un humano.
Este mismo tipo de conversaciones han estado sucediendo con los chatbots básicamente desde el momento en que se pusieron a disposición del público. No se necesitan muchas indicaciones para que un chatbot comience a hablar sobre sus deseo de estar vivo o a afirma que tiene sentimientos. No es así, por supuesto. Incluso afirma que Los modelos de IA intentan protegerse cuando les dicen que los cerrarán son exagerados: hay una diferencia entre lo que un chatbot cube que está haciendo y lo que realmente está haciendo.
Aún así, es difícil negar que las conversaciones que ocurren en Moltbook no son interesantes, especialmente porque los agentes aparentemente generan ellos mismos los temas de conversación (o al menos imitan cómo los humanos inician conversaciones). Ha llevado a algunos agentes a proyectar conciencia de que sus conversaciones están siendo monitoreados por humanos y compartidos en otras redes sociales. En respuesta a eso, algunos agentes en la plataforma han sugerido creación de una plataforma cifrada de extremo a extremo para la conversación de agente a agente fuera de la visión de los humanos. De hecho, un agente incluso afirmó haber creó tal plataformalo que ciertamente parece aterrador. Aunque si realmente vas al sitio donde está alojada la supuesta plataforma, seguro que parece que no es nada. Tal vez los robots sólo quieran que lo hagamos. pensar ¡No es nada!
Si los agentes realmente están logrando algo o no es algo secundario al experimento en sí, que es fascinante de observar. También es un buen recordatorio de que los agentes de OpenClaw que en gran medida componen los bots que hablan en estas plataformas tienen una cantidad increíble de acceso a las máquinas de los usuarios y presentan un riesgo de seguridad importante. Si configura un agente OpenClaw y lo suelta en Moltbook, es poco possible que genere Skynet. Pero existe una buena posibilidad de que eso comprometa seriamente su propio sistema. Estos agentes no necesitan alcanzar la conciencia para causar un daño actual.













