El creciente uso de chatbots de inteligencia artificial para resolver dudas médicas ha comenzado a encender alertas dentro de la comunidad científica. Investigadores y médicos advierten que, aunque estas herramientas pueden ayudar a entender información de salud, también pueden generar respuestas incorrectas o peligrosas si se utilizan como sustituto de una consulta profesional.
Un estudio publicado en 2024 en la revista JAMA Internal Medicine analizó respuestas generadas por modelos de lenguaje como ChatGPT frente a preguntas médicas comunes. Los investigadores encontraron que muchas respuestas eran claras y comprensibles para los pacientes, pero en varios casos contenían omisiones importantes o recomendaciones médicas incompletas, lo que podría llevar a interpretaciones erróneas.
La doctora Katherine T. Miller, investigadora en salud digital de la Universidad de California y coautora de análisis sobre IA médica, ha señalado que los modelos de lenguaje “pueden explicar conceptos médicos con facilidad, pero no están diseñados para evaluar pacientes reales ni para sustituir el juicio clínico”.
Otro análisis del Massachusetts Institute of Technology (MIT) sobre sistemas de IA conversacional advierte que estos modelos pueden presentar el fenómeno conocido como “alucinación”, cuando generan información incorrecta con apariencia convincente. En el contexto médico, este problema puede traducirse en diagnósticos inexistentes, tratamientos incorrectos o interpretaciones erróneas de síntomas.
Por su parte, el doctor Isaac Kohane, profesor de informática biomédica en la Harvard Medical School, ha señalado que los chatbots pueden ser herramientas útiles para educación médica básica o para ayudar a los pacientes a formular preguntas antes de acudir al médico. Sin embargo, subraya que la inteligencia artificial no puede evaluar signos físicos, revisar estudios clínicos completos ni considerar el historial médico de cada persona, elementos indispensables para cualquier diagnóstico.
Incluso empresas tecnológicas que desarrollan estos sistemas reconocen esa limitación. OpenAI, desarrolladora de ChatGPT, indica en sus lineamientos que los modelos de lenguaje no deben utilizarse para diagnósticos médicos ni para decisiones clínicas, ya que su funcionamiento se basa en probabilidades lingüísticas y no en evaluación médica directa.
La Organización Mundial de la Salud (OMS) también ha advertido en documentos recientes sobre inteligencia artificial en salud que el uso de estas tecnologías debe mantenerse bajo supervisión médica. El organismo sostiene que, aunque la IA puede facilitar el acceso a información, el diagnóstico, el tratamiento y la toma de decisiones clínicas deben permanecer en manos de profesionales de la salud.
Los especialistas coinciden en que los chatbots pueden servir como herramientas informativas o educativas, por ejemplo para explicar qué significa un resultado de laboratorio o para comprender términos médicos complejos. Sin embargo, en situaciones urgentes, como dolor en el pecho, dificultad para respirar, pérdida de conciencia o síntomas graves, acudir a un sistema automatizado en lugar de buscar atención médica inmediata puede retrasar un tratamiento vital.
La conversación sobre la inteligencia artificial en medicina sigue abierto. Mientras hospitales y universidades exploran cómo integrar estas herramientas en sistemas clínicos, la recomendación predominante entre investigadores es clara: la inteligencia artificial puede orientar, pero no reemplazar la evaluación médica humana.