Dr. Sina Bari, cirujano practicante y líder de atención médica de inteligencia synthetic en una empresa de datos iMeritoha visto de primera mano cómo ChatGPT puede desviar a los pacientes con consejos médicos incorrectos.
“Hace poco vino un paciente y cuando le recomendé un medicamento, imprimieron un diálogo desde ChatGPT que decía que este medicamento tiene un 45% de probabilidad de embolia pulmonar”, dijo el Dr. Bari a TechCrunch.
Cuando el Dr. Bari investigó más a fondo, descubrió que la estadística provenía de un artículo sobre el impacto de ese medicamento en un subgrupo específico de personas con tuberculosis, que no se aplicaba a su paciente.
Y, sin embargo, cuando OpenAI anunció su chatbot dedicado ChatGPT Well being la semana pasada, el Dr. Bari sintió más entusiasmo que preocupación.
ChatGPT Well being, que se lanzará en las próximas semanas, permite a los usuarios hablar con el chatbot sobre su salud en un entorno más privado, donde sus mensajes no se utilizarán como datos de entrenamiento para el modelo de IA subyacente.
“Creo que es genial”, dijo el Dr. Bari. “Es algo que ya está sucediendo, por lo que formalizarlo para proteger la información del paciente y poner algunas salvaguardias a su alrededor. […] “Esto hará que sea aún más potente para que lo utilicen los pacientes”.
Los usuarios pueden obtener orientación más personalizada de ChatGPT Well being cargando sus registros médicos y sincronizándolos con aplicaciones como Apple Well being y MyFitnessPal. Para quienes se preocupan por la seguridad, esto genera inmediatamente señales de alerta.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
“De repente, se transfieren datos médicos desde organizaciones que cumplen con HIPAA a proveedores que no cumplen con HIPAA”, dijo a TechCrunch Itai Schwartz, cofundador de la empresa de prevención de pérdida de datos MIND. “Así que tengo curiosidad por ver cómo abordarían esto los reguladores”.
Pero tal como lo ven algunos profesionales de la industria, el gato ya está fuera de peligro. Ahora, en lugar de buscar en Google los síntomas del resfriado, la gente habla con chatbots de IA. 230 millones de personas Ya hablan con ChatGPT sobre su salud cada semana.
“Este fue uno de los casos de uso más importantes de ChatGPT”, dijo a TechCrunch Andrew Brackin, socio de Gradient que invierte en tecnología de la salud. “Por lo tanto, tiene mucho sentido que quieran crear una versión más privada, segura y optimizada de ChatGPT para estas preguntas sobre atención médica”.
Los chatbots de IA tienen un problema persistente con las alucinaciones, un tema particularmente delicado en la atención médica. Según Vectara Modelo de evaluación de coherencia fácticael GPT-5 de OpenAI es más propenso a sufrir alucinaciones que muchos modelos de Google y Anthropic. Pero las empresas de inteligencia synthetic ven el potencial de rectificar las ineficiencias en el ámbito de la atención médica (Anthropic también anunció un producto de salud esta semana).
Para el Dr. Nigam Shah, profesor de medicina en Stanford y científico jefe de datos de Stanford Well being Care, la incapacidad de los pacientes estadounidenses para acceder a la atención es más urgente que la amenaza de que ChatGPT brinde malos consejos.
“En este momento, uno acude a cualquier sistema de salud y quiere reunirse con el médico de atención primaria; el tiempo de espera será de tres a seis meses”, dijo el Dr. Shah. “Si tu elección es esperar seis meses hasta que llegue un médico de verdad, o hablar con alguien que no sea un médico pero que pueda hacer algunas cosas por ti, ¿cuál elegirías?”
El Dr. Shah cree que una ruta más clara para introducir la IA en los sistemas sanitarios pasa por el lado del proveedor, en lugar del lado del paciente.
Las revistas médicas tienen a menudo reportado que las tareas administrativas pueden consumir aproximadamente la mitad del tiempo de un médico de atención primaria, lo que scale back drásticamente la cantidad de pacientes que pueden atender en un día determinado. Si ese tipo de trabajo pudiera automatizarse, los médicos podrían atender a más pacientes, quizás reduciendo la necesidad de que las personas utilicen herramientas como ChatGPT Well being sin la intervención adicional de un médico actual.
El Dr. Shah dirige un equipo en Stanford que está desarrollando ChatEHRun software program integrado en el sistema de registros médicos electrónicos (EHR), que permite a los médicos interactuar con los registros médicos de un paciente de una manera más ágil y eficiente.
“Hacer que el historial médico electrónico sea más fácil de usar significa que los médicos pueden dedicar menos tiempo a buscar en cada rincón la información que necesitan”, dijo la Dra. Sneha Jain, una de las primeras en probar ChatEHR, en un artículo de Stanford Drugs. artículo. “ChatEHR puede ayudarles a obtener esa información desde el principio para que puedan dedicar tiempo a lo que importa: hablar con los pacientes y descubrir qué está pasando”.
Anthropic también está trabajando en productos de inteligencia synthetic que puedan usarse por parte de los médicos y las aseguradoras, en lugar de solo su chatbot público Claude. Esta semana, Anthropic anunció Claude for Healthcare al explicar cómo podría usarse para reducir el tiempo dedicado a tareas administrativas tediosas, como enviar solicitudes de autorización previa a los proveedores de seguros.
“Algunos de ustedes ven cientos, miles de estos casos de autorización previa por semana”, dijo el CPO de Anthropic, Mike Krieger, en una presentación reciente en la sede de JP Morgan. Conferencia de salud. “Imagínense entonces recortar 20 o 30 minutos a cada uno de ellos: es un ahorro de tiempo espectacular”.
A medida que la IA y la medicina se entrelazan más, existe una tensión ineludible entre los dos mundos: el principal incentivo de un médico es ayudar a sus pacientes, mientras que las empresas de tecnología son, en última instancia, responsables ante sus accionistas, incluso si sus intenciones son nobles.
“Creo que la tensión es importante”, dijo el Dr. Bari. “Los pacientes confían en que seamos cínicos y conservadores para poder protegerlos”.











