OpenAI ha enfrentado una enorme presión en los últimos meses para abordar las preocupaciones de que su producto estrella, ChatGPT, no sea seguro para los adolescentes.
El chatbot de IA está en el centro de múltiples demandas por muerte por negligencia que alegan que entrenó a adolescentes para quitarse la vida o no respondió adecuadamente a sus sentimientos suicidas. Un anuncio de servicio público recientemente describió algunos de estos intercambios, imaginando a los chatbots como humanos espeluznantes que dañan a los niños. OpenAI ha negado las acusaciones en un caso: la muerte por suicidio de Adam Raine, de 16 años.
El jueves, OpenAI publicó una entrada de weblog sobre sus crecientes esfuerzos de seguridad y se comprometió a “poner la seguridad de los adolescentes en primer lugar, incluso cuando pueda entrar en conflicto con otros objetivos”.
La publicación presentó una actualizar a su especificación de modeloque orienta cómo deben comportarse sus modelos de IA. Un nuevo conjunto de principios para usuarios menores de 18 años informará particularmente cómo reaccionan los modelos en situaciones de alto riesgo.
5 estrategias para evitar la dependencia de ChatGPT
OpenAI dijo que la actualización de ChatGPT debería proporcionar una “experiencia segura y apropiada para su edad” para usuarios de entre 13 y 17 años, priorizando la prevención, la transparencia y la intervención temprana.
“Esto significa que los adolescentes deben encontrar barreras de seguridad más fuertes, alternativas más seguras y estímulo para buscar apoyo confiable fuera de línea cuando las conversaciones avanzan hacia territorios de mayor riesgo”, decía la publicación. ChatGPT está diseñado para instar a los adolescentes a comunicarse con los servicios de emergencia o recursos de disaster cuando demuestren un riesgo inminente.
Velocidad de la luz triturable
Cuando los usuarios inician sesión como menores de 18 años, las medidas de seguridad deberían hacer que ChatGPT tenga especial cuidado al discutir temas como autolesiones, suicidio, juegos de roles románticos o sexualizados, o guardar secretos sobre comportamientos peligrosos, según la compañía.
Según la publicación, la Asociación Estadounidense de Psicología proporcionó a OpenAI comentarios sobre un primer borrador de los principios para menores de 18 años.
“Los niños y adolescentes podrían beneficiarse de las herramientas de inteligencia synthetic si se equilibran con las interacciones humanas que, según la ciencia, son fundamentales para el desarrollo social, psicológico, conductual e incluso biológico”, dijo en la publicación el Dr. Arthur C. Evans Jr., director ejecutivo de la Asociación Estadounidense de Psicología.
OpenAI también ofrece a adolescentes y padres dos nuevos guías de alfabetización en IA examinadas por expertos. La compañía dijo que se encuentra en las primeras etapas de implementación de un modelo de predicción de edad para usuarios con planes de consumo ChatGPT.
Los expertos en seguridad infantil y salud psychological declararon recientemente que los chatbots de IA no son seguros para las discusiones de los adolescentes sobre su salud psychological. La semana pasada, OpenAI anunció que su último modelo, ChatGPT-5.2, es “más seguro” para la salud psychological.
Si tiene tendencias suicidas o está experimentando una disaster de salud psychological, hable con alguien. Puede llamar o enviar un mensaje de texto a 988 Suicide & Disaster Lifeline al 988, o chatear en 988lifeline.org. Puede comunicarse con Trans Lifeline llamando al 877-565-8860 o a Trevor Undertaking al 866-488-7386. Envíe “START” a la línea de texto de disaster al 741-741. Comuníquese con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes de 10:00 a. m. a ten:00 p. m., hora del Este, o envíe un correo electrónico [email protected]. Si no te gusta el teléfono, considera usar el 988 Chat de línea de vida de crisis y suicidio. Aquí hay un lista de recursos internacionales.
Divulgación: Ziff Davis, la empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA.










