Home Tecnología Las primeras pruebas sugieren que la evaluación de ChatGPT Well being de...

Las primeras pruebas sugieren que la evaluación de ChatGPT Well being de sus datos de condición física puede causar pánico innecesario

21
0

A principios de este mes, OpenAI introdujo un nuevo espacio centrado en la salud dentro de ChatGPT, presentándolo como una forma más segura para que los usuarios hagan preguntas sobre temas delicados como datos médicos, enfermedades y estado físico. Una de las características principales destacadas en el lanzamiento fue la capacidad de ChatGPT Well being para analizar datos de aplicaciones como Apple Well being, MyFitnessPal y Peloton para detectar tendencias a largo plazo y ofrecer resultados personalizados. Sin embargo, un nuevo informe sugiere que OpenAI puede haber exagerado la efectividad de la función para extraer información confiable de esos datos.

Según las primeras pruebas realizadas por El Correo de WashingtonGeoffrey A. Fowler, cuando ChatGPT Well being tuvo acceso a una década de datos de Apple Well being, el chatbot calificó la salud cardíaca del reportero con una F. Sin embargo, después de revisar la evaluación, un cardiólogo la calificó de “infundada” y dijo que el riesgo actual de enfermedad cardíaca del reportero period extremadamente bajo.

El Dr. Eric Topol del Instituto de Investigación Scripps ofreció una evaluación contundente de las capacidades de ChatGPT Well being, diciendo que la herramienta no está lista para ofrecer asesoramiento médico y se basa demasiado en métricas poco confiables de relojes inteligentes. La calificación de ChatGPT se basó en gran medida en las estimaciones de Apple Watch sobre el VO2 máximo y la variabilidad de la frecuencia cardíaca, las cuales tienen limitaciones conocidas y pueden variar significativamente entre dispositivos y versiones de software program. Una investigación independiente ha descubierto que las estimaciones de VO2 máximo del Apple Watch a menudo son bajas, pero ChatGPT aún las trata como indicadores claros de mala salud.

ChatGPT Well being dio diferentes calificaciones para los mismos datos

Los problemas no terminaron ahí. Cuando el reportero le pidió a ChatGPT Well being que repitiera el mismo ejercicio de calificación, la puntuación fluctuó entre una F y una B en las conversaciones, y el chatbot a veces ignoraba los informes recientes de análisis de sangre a los que tenía acceso y ocasionalmente olvidaba detalles básicos como la edad y el sexo del reportero. Claude for Healthcare de Anthropic, que también debutó a principios de este mes, mostró consistencias similares, asignando calificaciones que oscilaban entre una C y una B menos.

Tanto OpenAI como Anthropic han enfatizado que sus herramientas no están destinadas a reemplazar a los médicos y solo brindan un contexto basic. Aún así, ambos chatbots brindaron evaluaciones seguras y altamente personalizadas de la salud cardiovascular. Esta combinación de autoridad e inconsistencia podría asustar a los usuarios sanos o tranquilizar falsamente a los que no lo son. Si bien la IA puede eventualmente desbloquear información valiosa a partir de datos de salud a largo plazo, las primeras pruebas sugieren que incorporar años de datos de seguimiento del estado físico a estas herramientas actualmente crea más confusión que claridad.

avotas