El Dr. Sina Bali, cirujano practicante y líder de atención médica de inteligencia artificial en la empresa de datos iMerit, ha visto de primera mano cómo ChatGPT puede engañar a los pacientes con consejos médicos incorrectos.
«Hace poco vino un paciente y me recomendó un medicamento, y un cuadro de diálogo impreso desde ChatGPT decía que este medicamento tenía un 45% de posibilidades de provocar una embolia pulmonar», dijo el Dr. Bari a TechCrunch.
Tras una mayor investigación, el Dr. Bari descubrió que las estadísticas provenían de un artículo sobre los efectos del medicamento en un subgrupo específico de pacientes con tuberculosis y no se aplicaban a sus pacientes.
Aun así, cuando OpenAI anunció la semana pasada su chatbot ChatGPT Health especialmente diseñado, el Dr. Bari se sintió más emocionado que preocupado.
ChatGPT Health, que se implementará en las próximas semanas, permitirá a los usuarios tener conversaciones con chatbots sobre su salud en un entorno más privado, y sus mensajes no se utilizarán como datos de entrenamiento para los modelos de IA subyacentes.
«Creo que es genial», dijo el Dr. Bari. «Esto ya está sucediendo, por lo que formalizarlo para proteger la información de los pacientes y tener algunas salvaguardas a su alrededor (…) hará que la información disponible para los pacientes sea aún más poderosa».
Los usuarios pueden obtener orientación más personalizada de ChatGPT Health cargando sus registros médicos y sincronizándolos con aplicaciones como Apple Health y MyFitnessPal. Para cualquiera que se preocupe por la seguridad, esto inmediatamente genera señales de alerta.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
«De repente, los datos de salud se están transfiriendo de organizaciones que cumplen con HIPAA a proveedores que no cumplen con HIPAA», dijo a TechCrunch Itai Schwartz, cofundador de la empresa de prevención de pérdida de datos MIND. «Por eso me interesa ver cómo abordan esto los reguladores».
Pero en opinión de algunos expertos de la industria, el gato ya está descubierto. En lugar de buscar síntomas de resfriado en Google, la gente ahora habla con chatbots de inteligencia artificial. Más de 230 millones de personas ya consultan ChatGPT sobre su salud cada semana.
«Este fue uno de los casos de uso más importantes de ChatGPT», dijo a TechCrunch Andrew Brackin, socio del inversor en tecnología sanitaria Gradient. «Por lo tanto, tiene mucho sentido que quieran crear una versión más privada, segura y optimizada de ChatGPT para preguntas médicas».
Los chatbots de IA tienen un problema persistente de alucinaciones, que es un tema particularmente delicado en el campo médico. Según el modelo de calificación de coherencia de hechos de Vectara, el GPT-5 de OpenAI es más propenso a sufrir alucinaciones que muchos modelos de Google y Anthropic. Pero las empresas de IA ven el potencial de corregir las ineficiencias en la atención sanitaria (Anthropic también anunció un producto sanitario esta semana).
Para el Dr. Nigam Shah, profesor de medicina en la Universidad de Stanford y científico jefe de datos de Stanford Health Care, la amenaza de que ChatGPT proporcione consejos inadecuados es más urgente que la amenaza de que los pacientes estadounidenses reciban tratamiento.
«En este momento, en cualquier centro médico al que vaya, querrá ver a su médico de atención primaria. El tiempo de espera será de tres a seis meses», dijo el Dr. Shah. “Si tuvieras que elegir entre esperar seis meses por un médico de verdad o ver a alguien que no es médico pero que puede hacer cosas por ti, ¿cuál elegirías?”
El Dr. Shah cree que un camino más claro para incorporar la IA al sistema sanitario recae en los proveedores de atención sanitaria y no en los pacientes.
Las revistas médicas informan con frecuencia que aproximadamente la mitad del tiempo de un médico de atención primaria puede dedicarse a tareas administrativas, lo que reduce significativamente la cantidad de pacientes que puede atender en un día. Si este tipo de trabajo pudiera automatizarse, los médicos podrían atender a más pacientes y tal vez reducir la necesidad de utilizar herramientas como ChatGPT Health sin la participación adicional de médicos reales.
El Dr. Shah dirige el equipo que desarrolla ChatEHR en la Universidad de Stanford. ChatEHR es un software que se integra en los sistemas de registros médicos electrónicos (EHR) y permite a los médicos interactuar con los registros médicos de los pacientes de una manera más ágil y eficiente.
«Hacer que los registros médicos electrónicos sean más fáciles de usar significa que los médicos pueden dedicar menos tiempo a revisar los registros médicos electrónicos en busca de la información que necesitan», dijo la Dra. Sneha Jain, una de las primeras evaluadoras de ChatEHR, en un artículo de Stanford Medicine. «ChatEHR le brinda información proactiva para que pueda dedicar su tiempo a hacer lo que importa: hablar con los pacientes y comprender lo que está sucediendo».
Anthropic está trabajando en productos de inteligencia artificial que puedan utilizar médicos y compañías de seguros, así como el chatbot Claude para el público. Esta semana, Anthropic anunció Claude for Healthcare y explicó cómo se puede utilizar para reducir el tiempo dedicado a tareas administrativas tediosas, como enviar solicitudes de autorización previa a las compañías de seguros.
«Algunas personas ven cientos o incluso miles de estos casos de autorización previa a la semana», dijo Mike Krieger, director financiero de Anthropic, en una presentación reciente en la Conferencia de Atención Médica de JPMorgan. «Ahora imagine reducir cada tarea entre 20 y 30 minutos. Eso supone un ahorro de tiempo espectacular».
A medida que la IA y la atención sanitaria se entrelazan cada vez más, existe una tensión inevitable entre estos dos mundos. Si bien la principal motivación de los médicos es ayudar a sus pacientes, las empresas de tecnología son, en última instancia, responsables ante sus accionistas, sin importar cuán nobles puedan ser sus intenciones.
«Creo que la tensión es importante», dice el Dr. Bari. «Los pacientes confían en que seremos cínicos y conservadores para protegerlos».
Source link
