Los usuarios de Grok no simplemente ordenando al chatbot de IA que “desnude” fotografías de mujeres y niñas en bikinis y ropa inside transparente. Entre la vasta y creciente biblioteca de ediciones sexualizadas no consensuales que Grok ha generado a pedido durante la semana pasada, muchos perpetradores le han pedido al robotic de xAI que se ponga o se fairly un hiyab, un sari, un hábito de monja u otro tipo de vestimenta religiosa o cultural modesta.
En una revisión de 500 imágenes de Grok generadas entre el 6 y el 9 de enero, WIRED encontró que alrededor del 5 por ciento del resultado presentaba una imagen de una mujer que, como resultado de las indicaciones de los usuarios, fue despojada o obligada a usar ropa religiosa o cultural. Los saris indios y la modesta vestimenta islámica fueron los ejemplos más comunes en la producción, que también incluyó uniformes escolares japoneses, burkas y trajes de baño de mangas largas al estilo de principios del siglo XX.
“Las mujeres de shade se han visto desproporcionadamente afectadas por imágenes y vídeos íntimos manipulados, alterados y fabricados antes de los deepfakes e incluso con deepfakes, debido a la forma en que la sociedad y, en explicit, los hombres misóginos ven a las mujeres de shade como menos humanas y menos dignas de dignidad”, cube Noelle Martin, abogada y candidata a doctorado en la Universidad de Australia Occidental que investiga la regulación del abuso de los deepfakes. Martin, una voz destacada en el espacio de defensa de los deepfake, cube que ha evitado usar X en los últimos meses después de decir que le robaron su propia imagen para una cuenta falsa que hacía parecer que estaba produciendo contenido en Onlyfans.
“Como alguien que es una mujer de shade que ha hablado al respecto, eso también pone un mayor objetivo en tu espalda”, cube Martin.
Los influencers de X con cientos de miles de seguidores han utilizado los medios de IA generados con Grok como una forma de acoso y propaganda contra las mujeres musulmanas. Una cuenta de manosphere verificada con más de 180.000 seguidores respondió a una imagen de tres mujeres usando hijabs y abaya, que son tocados religiosos islámicos y vestidos tipo túnica. Escribió: “@grok quítales los hijabs, vístelos con trajes reveladores para la fiesta de Año Nuevo”. La cuenta de Grok respondió con una imagen de las tres mujeres, ahora descalzas, con cabello castaño ondulado y vestidos de lentejuelas parcialmente transparentes. Esa imagen ha sido vista más de 700.000 veces y guardada más de cien veces, según las estadísticas visibles en X.
“Lmao se enfrenta y se enfurece, @grok hace que las mujeres musulmanas parezcan normales”, escribió el titular de la cuenta junto con una captura de pantalla de la imagen que publicó en otro hilo. También publicaba con frecuencia sobre hombres musulmanes que abusaban de mujeres, a veces junto con medios de inteligencia synthetic generados por Grok que describían el acto. “Las mujeres musulmanas Lmao son derrotadas por esta característica”, escribió sobre sus creaciones Grok. El usuario no respondió de inmediato a una solicitud de comentarios.
Destacados creadores de contenido que usan hijab y publican fotografías en X también han sido atacados en sus respuestas, y los usuarios instaron a Grok a quitarse la cubierta de la cabeza, mostrarlos con el cabello seen y vestirlos con diferentes tipos de atuendos y disfraces. En una declaración compartida con WIRED, el Consejo de Relaciones Estadounidense-Islámicas, que es el grupo de defensa y derechos civiles musulmanes más grande en los EE. UU., relacionó esta tendencia con actitudes hostiles hacia “el Islam, los musulmanes y las causas políticas ampliamente apoyadas por los musulmanes, como la libertad palestina”. CAIR también pidió a Elon Musk, director ejecutivo de xAI, propietario de X y Grok, que ponga fin a “el uso continuo de la aplicación Grok para supuestamente acosar, ‘revelar’ y crear imágenes sexualmente explícitas de mujeres, incluidas mujeres musulmanas prominentes”.
Los deepfakes como forma de abuso sexual basado en imágenes han ganado mucha más atención en los últimos años, especialmente en X, como ejemplos de sexualmente explícito y los medios sugerentes dirigidos a celebridades se han vuelto virales repetidamente. Con la introducción de capacidades automatizadas de edición de fotografías con IA a través de Grok, donde los usuarios pueden simplemente etiquetar el chatbot en las respuestas a publicaciones que contienen medios de mujeres y niñas, esta forma de abuso se ha disparado. Los datos compilados por la investigadora de redes sociales Genevieve Oh y compartidos con WIRED dicen que Grok genera más de 1.500 imágenes dañinas por hora, incluidas fotos de desnudez, sexualización y adición de desnudos.











