Esta foto tomada el 2 de febrero de 2024 muestra a Lu Yu, jefa de Gestión de Productos y Operaciones de Wantalk, un chatbot de inteligencia synthetic creado por la empresa de tecnología china Baidu, mostrando el perfil de una novia digital en su teléfono, en la sede de Baidu en Beijing.
Jade Gao | AFP | Imágenes falsas
BEIJING – China planea impedir que los chatbots impulsados por inteligencia synthetic influyan en las emociones humanas de maneras que podrían conducir al suicidio o la autolesión, según borrador de reglas lanzado el sábado.
El regulaciones propuestas de la Administración del Ciberespacio apuntan a lo que llama “servicios de IA interactivos similares a los humanos”, según una traducción de CNBC del documento en chino.
Las medidas, una vez finalizadas, se aplicarán a los productos o servicios de IA ofrecidos al público en China que simulan la personalidad humana e involucran emocionalmente a los usuarios a través de texto, imágenes, audio o video. El período de comentarios públicos finaliza el 25 de enero.
Las reglas planeadas por Beijing marcarían el primer intento del mundo de common la IA con características humanas o antropomórficas, dijo Winston Ma, profesor adjunto de la Facultad de Derecho de la Universidad de Nueva York. Las últimas propuestas surgen en un momento en que las empresas chinas han desarrollado rápidamente compañeros de inteligencia synthetic y celebridades digitales.
En comparación con la regulación de IA generativa de China en 2023, Ma dijo que esta versión “destaca un salto de la seguridad del contenido a la seguridad emocional”.
El proyecto de reglas propone que:
- Los chatbots de IA no pueden generar contenido que fomente el suicidio o la autolesión, ni participar en violencia verbal o manipulación emocional que dañe la salud psychological de los usuarios.
- Si un usuario propone específicamente suicidarse, los proveedores de tecnología deben hacer que un humano se haga cargo de la conversación y se comunique inmediatamente con el tutor del usuario o con una persona designada.
- Los chatbots de IA no deben generar contenido relacionado con los juegos de azar, obsceno o violento.
- Los menores deben tener el consentimiento de un tutor para utilizar la IA como compañía emocional, con límites de tiempo para su uso.
- Las plataformas deberían poder determinar si un usuario es menor de edad incluso si no revela su edad y, en caso de duda, aplicar configuraciones para menores, permitiendo al mismo tiempo apelaciones.
Disposiciones adicionales requerirían que los proveedores de tecnología recuerden a los usuarios después de dos horas de interacción continua con IA y exigirían evaluaciones de seguridad para los chatbots de IA con más de 1 millón de usuarios registrados o más de 100.000 usuarios activos mensuales.
El documento también fomenta el uso de IA related a la humana en “difusión cultural y compañía de personas mayores”.
IPO de chatbot de IA chinos
La propuesta llega poco después de dos startups chinas líderes de chatbots de IA, Z.ai y Minimax., presentó su solicitud de oferta pública inicial en Hong Kong este mes.
Minimax es mejor conocido internacionalmente por su aplicación Talkie AI, que permite a los usuarios chatear con personajes virtuales. La aplicación y su versión nacional china, Xingye, representaron más de un tercio de los ingresos de la compañía en los tres primeros trimestres del año, con una media de más de 20 millones de usuarios activos mensuales durante ese tiempo.
Z.ai, también conocido como Zhipu, presentado bajo el nombre “Tecnología del Atlas del Conocimiento.” Si bien la compañía no reveló los usuarios activos mensuales, destacó su tecnología “empoderados” alrededor de 80 millones dispositivos, incluidos teléfonos inteligentes, computadoras personales y vehículos inteligentes.
Ninguna de las empresas respondió a la solicitud de comentarios de CNBC sobre cómo las reglas propuestas podrían afectar sus planes de IPO.









