
Anthropic se ha convertido en la última empresa de inteligencia artificial (IA) en anunciar un nuevo conjunto de funciones que brindarán a los usuarios de su plataforma Claude una comprensión más profunda de su información de salud.
Bajo una iniciativa llamada Claude for Healthcare, los suscriptores de los planes Claude Pro y Max en los EE. UU. pueden optar por brindarle a Claude acceso seguro a los resultados de sus pruebas y registros médicos conectándose a HealthEx y Function, y la integración de Apple Health y Android Health Connect se implementará a través de aplicaciones de iOS y Android a finales de esta semana, dijo la compañía.
«Una vez conectado, Claude puede resumir el historial médico de un usuario, explicar los resultados de las pruebas en un lenguaje sencillo, detectar patrones en las métricas de salud y estado físico y preparar preguntas para las citas», dijo Antropic. «El objetivo es hacer que las conversaciones entre pacientes y médicos sean más productivas y ayudar a los usuarios a mantenerse informados sobre su salud».

Este desarrollo se produce pocos días después de que OpenAI anunciara ChatGPT Health, una experiencia dedicada para que los usuarios conecten de forma segura sus registros médicos y aplicaciones de bienestar para obtener respuestas personalizadas, información de laboratorio, consejos nutricionales e ideas de comidas.
La compañía también señaló que la integración es privada por diseño, lo que permite a los usuarios elegir explícitamente qué tipo de información quieren compartir con Claude y desconectar o editar los permisos de Claude en cualquier momento. Al igual que OpenAI, los datos de salud no se utilizan para entrenar el modelo.
Esta expansión se produce en medio de un mayor escrutinio sobre si los sistemas de inteligencia artificial pueden evitar proporcionar orientación dañina o peligrosa. Recientemente, Google tomó medidas para eliminar algunos de sus resúmenes de IA después de que se descubrió que proporcionaban información de salud inexacta. Tanto OpenAI como Anthropic enfatizan que sus productos de IA pueden cometer errores y no sustituyen el asesoramiento médico profesional.
Anthropic señala en su Política de uso aceptable que los casos de uso de alto riesgo relacionados con decisiones médicas, diagnósticos médicos, atención al paciente, terapia, salud mental y otras orientaciones médicas requieren que expertos calificados en el campo revisen los resultados producidos «antes de la distribución o la determinación final».
«Claude está diseñado para incluir descargos de responsabilidad situacionales, reconocer esa incertidumbre y dirigir a los usuarios a profesionales médicos para obtener orientación personalizada», dijo Antropic.
Source link
