Esta semana, los usuarios de X notaron que el chatbot de inteligencia synthetic Grok de la plataforma generará fácilmente imágenes sexualizadas no consensuadas, incluidas aquellas de niños.
Mashable informó sobre la falta de salvaguardias en torno a los deepfakes sexuales cuando xAI lanzó por primera vez Grok Think about en agosto. La herramienta de IA generativa crea imágenes y videoclips cortos, e incluye específicamente un modo “picante” para crear imágenes NSFW.
Si bien este no es un fenómeno nuevo, la reacción del edificio obligó al equipo de Grok a responder.
Este Tweet no está disponible actualmente. Es posible que se esté cargando o que se haya eliminado.
“Hay casos aislados en los que los usuarios solicitaron y recibieron imágenes de IA que mostraban a menores con ropa mínima”. Publicada la cuenta X de Grok el jueves. También afirmó que el equipo ha identificado “fallos en las salvaguardias” y está “solucionándolos urgentemente”.
El miembro del private técnico de xAI, Parsa Tajik, hizo una declaración similar en su cuenta private: “El equipo está estudiando la posibilidad de reforzar aún más nuestras barreras de seguridad. [sic]”
Grok también reconoció que el materials de abuso sexual infantil (CSAM) es ilegal y la propia plataforma podría enfrentar sanciones penales o civiles.
Velocidad de la luz triturable
Los usuarios de X también han llamado la atención sobre el chatbot que manipula imágenes inocentes de mujeres, a menudo representándolas con menos ropa. Esto incluye tanto a ciudadanos privados como a figuras públicas, como mamámiembro del grupo de Ok-pop TWICE, y Cosas más extrañas estrella Millie Bobby Brown.
Este Tweet no está disponible actualmente. Es posible que se esté cargando o que se haya eliminado.
Este Tweet no está disponible actualmente. Es posible que se esté cargando o que se haya eliminado.
Aquí está todo lo que Elon Musk prometió en 2025 y no cumplió
Grok Think about, la herramienta de inteligencia synthetic generativa, ha tenido un problema con los deepfakes sexuales desde su lanzamiento en agosto de 2025. Incluso, según se informa, creó deepfakes explícitos de Taylor Swift para algunos usuarios sin que se les pidiera que lo hicieran.
La plataforma de detección de medios manipulada por IA, Copyleaks, realizó una breve revisión observacional de la pestaña de fotografías de acceso público de Grok e identificó ejemplos de mujeres aparentemente reales, manipulación de imágenes sexualizadas (es decir, indicaciones para quitarse la ropa o cambiar la posición del cuerpo) y ninguna indicación clara de consentimiento. Copyleaks encontró aproximadamente una imagen sexualizada no consensuada por minuto en el flujo de imágenes observadas, según compartió la organización con Mashable.
A pesar de la Política de uso aceptable de xAI Al prohibir a los usuarios “representar imágenes de personas de manera pornográfica”, esto no incluye necesariamente materials meramente sexualmente sugerente. Sin embargo, la política prohíbe “la sexualización o explotación de niños”.
En la primera mitad de 2024, X envió más de 370.000 informes de explotación infantil al CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), como exige la ley. También afirmó que suspendió más de dos millones de cuentas que interactuaban activamente con CSAM. El año pasado, NBC Information informó que anónimos, aparentemente automatizados X cuentas estaban inundando algunos hashtags con contenido de abuso infantil.
Grok también ha aparecido en las noticias en los últimos meses por difundir información errónea sobre el tiroteo en Bondi Seaside y por elogiar a Hitler.
Mashable envió preguntas de xAI y una solicitud de comentarios y recibió la respuesta automática, “Legacy Media Lies”.
Si se le han compartido imágenes íntimas sin su consentimiento, llame a la línea directa 24 horas al día, 7 días a la semana de Cyber Civil Rights Initiative al 844-878-2274 para obtener asistencia gratuita y confidencial. El sitio internet del CCRI también incluye información útil así como una lista de recursos internacionales.











