El senador del estado de California, Steve Padilla, un demócrata de San Diego, presentó el lunes un proyecto de ley en la Asamblea del Estado de California que impondría una moratoria de 4 años a la venta de juguetes con capacidades de chatbot de inteligencia synthetic para niños menores de 18 años, según un nuevo informe de Crunch tecnológico. El objetivo de la legislación, conocida como Proyecto de Ley Senatorial 867, es brindar tiempo suficiente para el desarrollo de normas de seguridad para proteger a los niños de los juguetes impulsados por inteligencia synthetic que entablan conversaciones inapropiadas y les dicen a los niños cómo hacerse daño a sí mismos.
“Los chatbots y otras herramientas de inteligencia synthetic pueden convertirse en partes integrales de nuestras vidas en el futuro, pero los peligros que plantean ahora requieren que tomemos medidas audaces para proteger a nuestros niños”, dijo el senador Padilla en un comunicado. publicado en línea.
“Nuestras normas de seguridad en torno a este tipo de tecnología están en su infancia y necesitarán crecer tan exponencialmente como lo hacen las capacidades de esta tecnología. Pausar la venta de estos juguetes integrados con chatbot nos da tiempo para elaborar las pautas y el marco de seguridad adecuados para estos juguetes. Nuestros niños no pueden ser utilizados como ratas de laboratorio para que las grandes tecnologías experimenten”, continuó Padilla.
En los últimos meses ha habido varias historias de terror sobre juguetes con inteligencia synthetic que hablan de manera inapropiada con los niños. FoloToy, que fabrica un osito de peluche llamado Kumma, comenzó a hablar sobre fetiches sexuales con niños el año pasado hasta que OpenAI le cerró el acceso a GPT-4o. El osito de peluche también les decía a los niños dónde encontrar cuchillos.
Mattel anunció una asociación con OpenAI en junio 2025 Se suponía que eso haría que la compañía fabricara un juguete asistido por IA, pero eso aún no ha sucedido. El grupo de defensa del consumidor Public Curiosity Group Training Fund también probó algunos juguetes de inteligencia synthetic y descubrió que muchos tienen controles parentales limitados y pueden indicar a los niños dónde encontrar objetos peligrosos como armas y cerillas. Una de las conclusiones clave es que las barandillas parecían fallar cuanto más tiempo alguien interactúa con un juguete de IA.
Los chatbots de IA han sido objeto de críticas en una variedad de contextos recientemente, especialmente porque varias personas se han quitado la vida después de interactuar con ellos. Gizmodo presentó una solicitud de la Ley de Libertad de Información el año pasado ante la Comisión Federal de Comercio por quejas de consumidores sobre ChatGPT de OpenAI que incluía ejemplos de psicosis inducida por IA. Una queja de una mujer en Utah relató cómo el chatbot le indicó a su hijo que no tomara sus medicamentos e insistió en que sus padres eran peligrosos. Poner ese tipo de capacidad en un osito de peluche obviamente plantearía problemas aún mayores.
El presidente Donald Trump emitió una orden ejecutiva mes pasado que aparentemente prohíbe a los estados aprobar sus propias leyes para common la IA. Y si bien el poder de Trump para hacer eso con una orden ejecutiva es cuestionable en sí mismo, dejando de lado esa pregunta, la EO sí establece excepciones para las leyes relativas a la protección de la seguridad infantil.
No está claro si se aprobará la nueva legislación de Padilla. Pero incluso si pasa por la Asamblea del Estado de California, podría ser vetado por el gobernador Gavin Newsom, un demócrata aliado de las grandes empresas tecnológicas y le encanta vetar proyectos de ley eso podría ser demasiado bueno para la humanidad. En octubre, Newsom vetado la Ley No Robo Bosses, que habría impedido que las empresas automatizaran los despidos y las decisiones disciplinarias de los trabajadores.











