¿Qué saber antes de pedirle consejos de salud a un chatbot de IA?
Con cientos de millones de personas recurriendo a los chatbots en busca de consejos, era solo cuestión de tiempo antes de que las empresas de tecnología comenzaran a ofrecer programas diseñados específicamente para responder preguntas de salud. En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar los historiales médicos de los usuarios, aplicaciones de bienestar y datos de dispositivos wearables para responder preguntas médicas y de salud. Actualmente, hay una lista de espera para el programa. Anthropic, una empresa rival de IA, ofrece funciones similares para algunos usuarios de su chatbot Claude. Ambas compañías afirman que sus programas, conocidos como modelos de lenguaje extenso, no sustituyen la atención profesional y no deberían utilizarse para diagnosticar afecciones médicas. En cambio, afirman que los chatbots pueden resumir y explicar resultados de pruebas complejas, ayudar a prepararse para una consulta médica o analizar tendencias de salud importantes ocultas en los historiales médicos y las métricas de la aplicación. Los chatbots pueden ofrecer información más personalizada que una búsqueda de Google Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los ven como una mejora respecto del status quo. Las plataformas de IA no son perfectas (a veces pueden alucinar o brindar malos consejos ), pero es más probable que la información que producen sea personalizada y específica que la que los pacientes podrían encontrar a través de una búsqueda en Google. “La alternativa a menudo es no hacer nada, o que el paciente improvise”, dijo el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Por eso creo que, si se usan estas herramientas con responsabilidad, se puede obtener información útil”. Una ventaja de los últimos chatbots es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico. Incluso si no le ha dado a la IA acceso a su información médica, Wachter y otros recomiendan dar a los chatbots tantos detalles como sea posible para mejorar las respuestas. Wachter y otros enfatizan que hay situaciones en las que las personas deberían evitar el chatbot y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso podrían indicar una emergencia médica. Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA con “un grado de saludable escepticismo”, afirmó el Dr. Lloyd Minor de la Universidad de Stanford. "Si estás hablando de una decisión médica importante, o incluso de una decisión más pequeña sobre tu salud, nunca deberías confiar únicamente en lo que obtienes de un modelo de lenguaje amplio", dijo Minor, quien es el decano de la facultad de medicina de Stanford. Muchos de los beneficios que ofrecen los bots de IA se derivan de que los usuarios compartan información médica personal. Sin embargo, es importante comprender que cualquier información compartida con una empresa de IA no está protegida por la ley federal de privacidad que normalmente rige la información médica confidencial. Comúnmente conocida como HIPAA, la ley permite multas e incluso penas de prisión para médicos, hospitales, aseguradoras u otros servicios de salud que divulguen historiales médicos . Sin embargo, la ley no aplica a las empresas que diseñan chatbots. “Cuando alguien sube su historial médico a un modelo de lenguaje extenso, es muy diferente a entregárselo a un médico nuevo”, dijo Minor. “Los consumidores deben comprender que se aplican estándares de privacidad completamente diferentes”. Tanto OpenAI como Anthropic afirman que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben aceptar compartir su información y pueden desconectarse en cualquier momento. A pesar del entusiasmo en torno a la IA, las pruebas independientes de la tecnología están en sus primeras etapas. Estudios preliminares sugieren que programas como ChatGPT pueden aprobar exámenes médicos de alto nivel, pero a menudo presentan dificultades al interactuar con humanos. Un estudio realizado recientemente por la Universidad de Oxford con 1,300 participantes descubrió que las personas que utilizan chatbots de inteligencia artificial para investigar condiciones de salud hipotéticas no toman mejores decisiones que las personas que utilizan búsquedas en línea o su criterio personal. Los chatbots de IA a los que se les presentaron escenarios médicos en un formato escrito completo identificaron correctamente la condición subyacente el 95% de las veces. «Ese no fue el problema», dijo el autor principal, Adam Mahdi, del Oxford Internet Institute. «El punto donde todo se vino abajo fue durante la interacción con los participantes reales». Mahdi y su equipo detectaron varios problemas de comunicación. Con frecuencia, las personas no proporcionaban a los chatbots la información necesaria para identificar correctamente el problema de salud. Por otro lado, los sistemas de IA solían responder con una combinación de información positiva y negativa, y los usuarios tenían dificultades para distinguir entre ambas. El estudio, realizado en 2024, no utilizó las últimas versiones de chatbot, incluidas nuevas ofertas como ChatGPT Health. La capacidad de los chatbots de hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área en la que Wachter ve espacio para mejorar. "Creo que esto mejorará realmente cuando las herramientas se vuelvan un poco más médicas en la forma de interactuar con los pacientes", dijo Wachter. Por ahora, una forma de sentirse más seguro acerca de la información que está recibiendo es consultar varios chatbots, similar a obtener una segunda opinión de otro médico. "A veces introduzco información en ChatGPT y en Gemini", dijo Wachter, refiriéndose a la herramienta de inteligencia artificial de Google. "Y cuando ambos coinciden, me siento un poco más seguro de que es la respuesta correcta".