Home Tecnología Google y Apple alojaron docenas de aplicaciones de nudificación deepfake, según revela...

Google y Apple alojaron docenas de aplicaciones de nudificación deepfake, según revela una investigación

15
0

Una nueva investigación afirma que las tiendas de aplicaciones de Apple y Google albergaban docenas de aplicaciones de IA llamadas “nudify”, a pesar de que dichas aplicaciones violaban las reglas de las empresas.

El proyecto de transparencia (TTP), un grupo afiliado a la Escuela de Gobierno Kennedy de la Universidad de Harvard, Encontré docenas de aplicaciones en ambas tiendas. que eliminan digitalmente la ropa, dejando a los sujetos desnudos o casi desnudos. Encontró 55 aplicaciones de este tipo en Google Play Retailer y 47 en Apple App Retailer.

Escribió TTP:

“Las aplicaciones identificadas por TTP se han descargado colectivamente más de 705 millones de veces en todo el mundo y generaron 117 millones de dólares en ingresos, según AppMagic, una firma de análisis de aplicaciones. Debido a que Google y Apple toman una parte de esos ingresos, se están beneficiando directamente de la actividad de estas aplicaciones”.

Ambos gigantes tecnológicos han respondido al informe TTP. Manzana le dijo a CNBC Había eliminado 28 aplicaciones identificadas en el informe TTP, mientras que Google le dijo al medio que había “suspendido varias aplicaciones” aunque señaló que su investigación estaba en curso.

Sin embargo, el TTP concluye que ambas App Retailer deben hacer más para detener los deepfakes no consensuados.

VER TAMBIÉN:

Los deepfakes explícitos son traumáticos. Cómo afrontar el dolor.

“Los hallazgos de TTP muestran que Google y Apple no han logrado seguir el ritmo de la difusión de aplicaciones de IA que pueden ‘desnudar’ a las personas sin su permiso”, afirma el informe. “Ambos empresas Dicen que están dedicados a la seguridad de los usuarios, pero albergan una colección de aplicaciones que pueden convertir una foto inofensiva de una mujer en una imagen sexualizada y abusiva”.

El informe de TTP llega inmediatamente después de la controversia que rodea a Elon Musk y Grok de xAI, que está siendo investigado en varios países por crear imágenes sexualizadas y no consensuadas. Una investigación de Mashable descubrió que Grok carece de barreras de seguridad básicas para evitar deepfakes. Además, los investigadores dicen que Grok ha creado más de 3 millones de imágenes sexualizadas, incluidas más de 20.000 que parecían representar a niños, durante un período de 11 días entre el 29 de diciembre y el 8 de enero.

Con los albores de la period de la IA, los deepfakes sexuales seguirán siendo un problema importante para el futuro de las empresas de tecnología.

avotas