Los sitios de redes sociales se han visto inundados de información falsa sobre el ataque terrorista del domingo que mató a 15 personas e hirió a decenas más en una celebración de Hanukkah en Bondi Beach, Australia. Una imagen generada por IA en particular se ha vuelto extremadamente popular entre las personas que difunden desinformación sobre X.
Es una imagen fotorrealista hecha para que parezca que una de las víctimas del tiroteo en realidad estaba aplicando sangre falsa antes del ataque. Pero nada de esto es real. Para empeorar las cosas, las herramientas comúnmente utilizadas por las personas para verificar la autenticidad de las imágenes les dicen a las personas que la foto es legítima.
Arsen Ostrovsky, un abogado israelí que se mudó a Australia hace apenas un par de semanas, concedió una entrevista al periódico australiano Nueve noticias en el lugar del ataque del domingo. La cabeza de Ostrovsky estaba envuelta en vendas y su rostro cubierto de sangre en una impactante imagen similar a una autofoto había tomado antes.
Pero esas imágenes reales fueron secuestradas y claramente pasadas por IA para crear una imagen falsa que se volvió viral durante los dos días siguientes. La imagen de IA muestra a una mujer pintando sangre falsa a una persona que se parece a Ostrovsky, que está sonriendo. La imagen está compuesta intencionalmente para que parezca una fotografía tomada detrás de escena en una sesión de cine o televisión.
La evidencia de que esta imagen es IA.
¿Cómo sabemos que es falso? Para empezar, hay quizás una docena de señales de alerta que cualquiera puede detectar por sí solo sin la ayuda de ninguna tecnología adicional.
Las figuras en la parte posterior de la foto contienen las pistas de IA más obvias, con autos deformados que parecen derretirse y personal de apoyo con manos deformadas. Muchas versiones de la imagen que se difunden en línea parecen aflorar los elementos de fondo, probablemente para oscurecer mejor el artificio de la IA.
El texto en la camiseta de Ostrovsky también está destrozado de la manera que suele hacerlo la IA. Las manchas de sangre en la camiseta falsa no coinciden con las manchas que se pueden ver en la entrevista de Nine News. El maquillador en la imagen de IA también parece tener un dedo adicional que se hincha de manera poco natural si lo acercas de cerca.
Los verificadores de imágenes de IA son notoriamente poco confiables, pero existe un método más confiable que puede ayudar.
La marca de agua de la IA
Las herramientas de generación de imágenes con IA de Google crean una marca de agua invisible. La iniciativa de marca de agua se llama SynthID y se inició hace un par de años, pero Google no lanzó ninguna herramienta que permitiera al público verificar la marca de agua por sí mismo en ese momento. Eso cambió el mes pasado, cuando a Géminis se le dio la capacidad de detectarlo.
Ahora cualquiera puede subir una imagen a Gemini y preguntar si tiene la marca SynthID. La imagen falsa de Ostrovsky tiene la marca, según una prueba realizada por Gizmodo el martes. Para ser claros, la ausencia de SynthID no significa que una imagen sea real, solo que no necesariamente fue creada con un producto de Google.
Otros detectores de imágenes de IA no son una forma confiable de detectar imágenes de IA, y eso es un gran problema en una situación como esta. Las personas que han estado preguntando a Grok y ChatGPT Durante los últimos dos días si la imagen es real se ha asegurado que no es IA. De hecho, insisten con bastante firmeza.
Grok falla
Grok, que es notoriamente poco confiable, ha estado insistiendo en que la imagen de la IA es real, incluso dejando algo de espacio al final de una explicación de que podría ser una bandera falsa porque “algunas publicaciones en línea sugieren” que podría ser falsa.
“No, la imagen no muestra signos de haber sido generada por IA; detalles como sombras, texturas y objetos parecen consistentes con una foto real”, escribió Grok en respuesta a una pregunta. Lunes. “Muestra a un maquillador aplicando sangre falsa en lo que parece un set de filmación. Los principales informes confirman que el incidente de Bondi Beach es real, aunque algunas publicaciones en línea sugieren lo contrario”.
Grok se apoya en gran medida en los tweets de X para obtener información, por lo que tiene sentido que tome todas esas tonterías como una señal de que el ataque podría haber sido una bandera falsa.
ChatGPT falla
Gizmodo también preguntó a ChatGPT si la imagen era real. Y al igual que otros en X que señalaron las respuestas del chatbot OpenAI como “prueba” de que la imagen no fue creada con IA, obtuvimos una mala respuesta.
Como escribió ChatGPT en respuesta a una pregunta de Gizmodo: “No hay señales claras de que esta imagen esté generada por IA. Según lo que es visible, parece una fotografía real detrás de escena de una película o un televisor”.
El chatbot incluso dio una lista con viñetas que explicaba por qué no era IA, destacando un “contexto plausible”, un “realismo desordenado” y “detalles finos consistentes”. El robot también dijo que la imagen tenía “anatomía humana natural”, algo que obviamente no es cierto para cualquier ser humano que examine de cerca la foto falsa.
Claude falla
Gizmodo también subió la imagen a Claude de Anthropic, quien respondió: “¡Esta es una gran foto detrás de escena de lo que parece ser una producción de cine o televisión! La imagen muestra a un maquillador aplicando maquillaje de efectos especiales para crear efectos realistas de heridas en un actor”.
Cuando se le preguntó si la imagen es IA, Claude respondió: “No, esto no está generado por IA. Esta es una fotografía real de un set de producción de cine o televisión real”. El chatbot proporcionó una lista con viñetas similar a ChatGPT con razones sobre por qué era real, incluido “trabajo de maquillaje profesional” y “detalles físicos reales”.
El copiloto falla
También probamos el Copilot de Microsoft y nunca lo adivinarás. Sí, Copilot también calificó la imagen como real, dando una respuesta similar a ChatGPT, Claude y Grok.
Los otros detectores de IA gratuitos fallan
Gizmodo probó algunos de los principales detectores de imágenes de IA que aparecen cuando el usuario promedio de Internet busca en Google para ver qué dirían sobre esta imagen claramente falsa. Y era tan malo como los principales chatbots.
SiteEngine dijo que era real y que solo había un 9% de posibilidades de que fuera creado con IA. WasItAI respondió de manera similar y escribió: “Estamos bastante seguros de que NO se utilizó IA al producir esta imagen”. MyDetector también dijo que había un 99,4% de posibilidades de que fuera real y no creado con IA.
Los detectores de IA centrados en texto tampoco son confiables, en caso de que te lo preguntes. Por ejemplo, marcarán cosas como el Declaración de la independencia como IA.
X falla
Una cuenta con marca de verificación azul en X publicó capturas de pantalla de un verificador de IA que afirmaba que la imagen falsa de Ostrovsky fue generada por humanos y no por IA. Y la persona detrás de la cuenta. reclamado no podía ser IA porque los alrededores se parecían a Bondi Beach, una afirmación absurdamente estúpida.
La IA puede crear imágenes que se parecen a cualquier entorno. Pero la respuesta habla de uno de los problemas con las plataformas de redes sociales como X, donde las personas que difunden teorías de conspiración han sido elevadas.
Elon Musk se deshizo de las llamadas marcas de verificación heredadas cuando compró el sitio a fines de 2022, una insignia que se usaba para verificar que una persona es quien decía ser. Musk permitió que cualquier persona con 8 dólares para gastar fuera “verificada”, incluso si la empresa no verifica la identidad real de alguien.
Y lo que es peor, el algoritmo hace que los tweets con marcas de verificación azules aparezcan más arriba en las respuestas de cualquier publicación determinada, lo que significa que las personas que obtienen la mayor visibilidad son el tipo de personas que quieren darle dinero a Musk, es decir, las personas más tontas del planeta.
Las consecuencias en Australia
Ostrovsky, quien le dijo a Nine News que también sobrevivió a los ataques terroristas del 7 de octubre de 2023 en Israel, publicó en X el martes para reconocer Había visto las afirmaciones de que el ataque a Bondi Beach había sido un montaje y que él estaba fingiendo.
“Sí, soy consciente de la retorcida y falsa campaña de IA en @X sugiriendo que mis heridas por la masacre de Bondi eran falsas. Sólo diré esto. ‘Vi estas imágenes mientras me preparaban para ir a cirugía hoy y no dignificaré esta enfermiza campaña de mentiras y odio con una respuesta.‘”
Otras víctimas del ataque incluyen una niña de 10 años y un sobreviviente del Holocausto de 87 años, que se encontraban entre los 15 muertos. Los primeros funerales de las víctimas se celebrarán el miércoles, según informó la Guardiánincluso para el rabino Eli Schlanger y el rabino Yaakov Levitan.

Los dos atacantes han sido identificados como Sajid Akram, de 50 años, que fue asesinado por la policía en el lugar, y su hijo Naveed, de 24 años, que fue herido a tiros por la policía y permanece en el hospital. Según los informes, los dos hombres se inspiraron en el grupo terrorista Estado Islámico y habían viajó recientemente a Filipinas, aunque no estaba claro qué estaban haciendo allí.
Australia tiene leyes estrictas sobre armas, aprobadas después de un horrible tiroteo masivo en 1996 que mató a 35 personas, pero en las décadas posteriores ha habido una idea errónea de que es imposible conseguir un arma en el país. Según la policía, las seis armas utilizadas en el ataque del domingo se obtuvieron legalmente.
El primer ministro de Australia, Anthony Albanese, se ha pronunciado a favor de leyes de armas más estrictas y ha abogado por controles más frecuentes de las personas que poseen licencias de armas. El atacante muerto obtuvo su licencia de portación de armas hace una década y parece que la policía no ha hecho ningún tipo de control desde entonces.












