Home Tecnología Grok difundió información errónea sobre el tiroteo en Bondi Beach

Grok difundió información errónea sobre el tiroteo en Bondi Beach

16
0

 

En la tarde del 14 de diciembre, una gran multitud de personas se reunió en la playa Bondi de Australia para celebrar la primera noche de Hanukkah, y en lugar de eso fueron recibidos con violencia, ya que dos hombres armados abrieron fuego contra el grupo. Hasta el día de hoy, 15 personas han sido asesinadas.

Uno de los agresores fue derribado por el transeúnte Ahmed Al Ahmed, cuya valiente decisión de enfrentarse al tirador y apoderarse de su arma fue capturada en video y compartida ampliamente en las plataformas de redes sociales. Informado por una epidemia de violencia armada que ha convertido a muchos espectadores en héroes, queda claro ante la cámara que el hombre de la camisa blanca está potencialmente salvando docenas de vidas. El arma de cañón largo está a la vista mientras se la arrebata de la mano a un hombre vestido de negro, quien luego se cae y se aleja.

VER TAMBIÉN:Mujer de Los Ángeles descubre a un hombre escondido en el baúl de Waymo

Pero Grok de X, el chatbot de IA diseñado por xAI, la empresa de IA de Elon Musk, no lo vi así.

Cuando los usuarios se toparon con el desgarrador vídeo de Ahmed a la mañana siguiente y le pidieron al chatbot que les explicara, Grok descrito la escena como “un viejo vídeo viral de un hombre trepando a una palmera en un estacionamiento, posiblemente para podarla”. Desde entonces, X usuarios han agregado una verificación de datos a la respuesta del bot. En otra respuesta, Grok etiquetó erróneamente el video como imágenes del ataque de Hamás del 7 de octubre y en otra lo atribuyó al ciclón tropical Alfred, informó Gizmodo.

X aún no ha explicado por qué ocurrió este problema, o por qué Grok ha cometido errores similares más allá de las consultas sobre Bondi Beach.

Velocidad de la luz triturable

Pero los perros guardianes saben por qué y es muy sencillo. Los chatbots son malos para dar noticias de última hora. A raíz del asesinato del comentarista de extrema derecha Charlie Kirk, Grok exacerbó las teorías de conspiración sobre el tirador y los propios guardaespaldas de Kirk, y les dijo a algunos usuarios que un video gráfico que mostraba claramente la muerte de Kirk era solo un meme. Otras fuentes de búsqueda basadas en inteligencia artificial, incluida Google AI Overview, también brindaron información falsa inmediatamente después de la muerte de Kirk.

“En lugar de negarse a responder, los modelos ahora extraen cualquier información disponible en línea en un momento determinado, incluidos sitios web de baja participación, publicaciones sociales y granjas de contenido generadas por IA sembradas por actores malignos. Como resultado, los chatbots repiten y validan afirmaciones falsas durante eventos de alto riesgo y de rápido movimiento”, dijo a Mashable en ese momento el investigador de NewsGuard, McKenzie Sadeghi.

Las plataformas de redes sociales también han reducido la verificación de datos humanos en todos los ámbitos y, en cambio, los chatbots pueden priorizar la frecuencia sobre la precisión en las respuestas a las noticias en tiempo real.

Las empresas de inteligencia artificial saben que esta es una brecha evidente para sus bots, y es por eso que han cortejado a las publicaciones de noticias para que firmen acuerdos de licencia cada vez más grandes para mejorar sus productos. A principios de este mes, Meta firmó múltiples acuerdos comerciales de IA con editores de noticias, incluidos CNN, Fox News y publicaciones internacionales El Mundo, sumándose a su asociación existente con Reuters. Google es ejecutando un programa piloto con los editores de noticias participantes para ampliar las funciones impulsadas por IA, incluidos resúmenes de artículos, a Google News.

Las alucinaciones y la precisión también siguen siendo un gran problema para los modelos de lenguaje grande y los chatbots de IA en general, que a menudo brindan información falsa a los usuarios con confianza.

avotas