Ha pasado más de una semana desde que los usuarios de X comenzaron a utilizar en masa el modelo de inteligencia synthetic Grok para desnudar a las personas, incluidos los niños, y la plataforma propiedad de Elon Musk no ha hecho casi nada para solucionarlo. Parte de la razón es el hecho de que, actualmente, la plataforma no está obligada a hacer mucho sobre el problema.
El año pasado, el Congreso promulgó la Ley Take It Down, que, entre otras cosas, penaliza el materials sexualmente explícito no consensuado y exige que plataformas como X brinden una opción para que las víctimas soliciten que el contenido que utilice su imagen sea eliminado dentro de las 48 horas. La senadora demócrata Amy Klobuchar, copatrocinadora de la ley, publicado en X“Nadie debería encontrar en línea imágenes sexuales de sí mismo creadas por IA, especialmente niños. X debe cambiar esto. Si no lo hacen, mi ley bipartidista TAKE IT DOWN pronto les exigirá que lo hagan”.
Tenga en cuenta el “pronto” en esa oración. El requisito dentro de la ley para que las plataformas creen sistemas de notificación y eliminación no entra en vigor hasta el 19 de mayo de 2026. Actualmente, ni X (la plataforma donde se generan las imágenes a través de mensajes publicados y alojados) ni xAI (la empresa responsable del modelo Grok AI que genera las imágenes) tienen sistemas formales de solicitud de eliminación. X tiene un Procedimiento formal de solicitud de eliminación de contenido para las autoridades.pero se recomienda a los usuarios generales que visiten el Centro de ayuda, donde parece que los usuarios solo pueden reportar una publicación como violando las reglas de X.
Si tiene curiosidad sobre la probabilidad de que un usuario promedio elimine una de estas imágenes, pregúntele a Ashley St. Clair qué tan bien fueron sus intentos cuando marcó una imagen sexualizada no consensuada de ella que se compartió en X. St. Clair tiene tanto acceso como cualquiera para hacer una petición private para que se elimine una publicación: es la madre de uno de los hijos de Elon Musk y tiene una cuenta X con más de un millón de seguidores. “Es curioso, considerando que tengo la línea más directa y no hacen nada”, dijo. le dijo a The Guardian. “Me he quejado con X, y ni siquiera me han quitado una foto mía de cuando period niño, que fue desnudada por Grok”.
La imagen de St. Clair finalmente fue eliminada, aparentemente después de que sus seguidores la informaran ampliamente y le prestaran atención en la prensa. Pero St. Clair ahora afirma que le agradecieron sus esfuerzos por plantear este tema. tener restricciones para comunicarse con Grok y que le revoquen su membresía X Premium. Premium le permite recibir un pago según su compromiso. Grok, que se ha convertido en la fuente de información por defecto sobre toda esta situación, a pesar de que es un modelo de IA incapaz de hablar por nada ni por nadie, explicado en una publicación, “La marca de verificación X y Premium de Ashley St. Clair probablemente fueron eliminadas debido a posibles violaciones de los términos, incluidas sus acusaciones públicas contra Grok por generar imágenes inapropiadas y posible actividad related al spam”.
La aplicación de la ley fuera de la Ley Take It Down es posible, aunque menos sencilla. El senador demócrata Ron Wyden sugirió que el materials generado por Grok no estaría protegido por la Sección 230 de la Ley de Decencia en las Comunicaciones, que normalmente otorga a las plataformas tecnológicas inmunidad de responsabilidad por el comportamiento ilegal de los usuarios. Por supuesto, es poco possible que el Departamento de Justicia de la administración Trump inicie un caso contra las empresas de Musk, dejando los intentos de hacer cumplir la ley en manos de los estados.
Fuera de Estados Unidos, algunos gobiernos se están tomando el asunto mucho más en serio. Autoridades en Francia, Irlandael Reino Unidoy India Todos han comenzado a investigar las imágenes sexuales no consentidas generadas por Grok y eventualmente pueden presentar cargos contra X y xAI.
Pero ciertamente no parece que el director de X y xAI se esté tomando el asunto tan en serio. Mientras Grok generaba imágenes sexuales de niños, Elon Musk, director ejecutivo de ambas empresas involucradas en este escándalo, volvía a publicar activamente contenido creado como parte de la tendencia, incluidas imágenes generadas por IA de una tostadora y un cohete en bikini. Hasta ahora, el grado de reconocimiento de la situación por parte de X comienza y termina en culpar a los usuarios. En una publicación de X Security, la empresa dicho“Cualquiera que use o solicite a Grok que cree contenido ilegal sufrirá las mismas consecuencias que si cargara contenido ilegal”, pero no asumió ninguna responsabilidad por habilitarlo.
En todo caso, lo que Grok ha estado haciendo en las últimas semanas parece estar más cerca de lo que Musk quiere de la IA. Según un informe de CNNMusk se ha mostrado “descontento por la censura excesiva” de Grok, y se ha sentido particularmente frustrado por las restricciones al generador de imágenes y vídeos de Grok. Públicamente, Musk ha reiterado habló alto El “modo picante” de Grok y se burló de la thought de “despertar” en la IA.
En respuesta a una solicitud de comentarios de Gizmodo, xAI dijo: “Legacy Media Lies”, el último de los mensajes automatizados que la plataforma ha enviado desde que cerró su departamento de relaciones públicas.











