La inteligencia artificial médica bajo la lupa: casi se olvidan de las advertencias médicas

Un nuevo estudio de Stanford revela que los líderes del sector, como Grok, ChatGPT y Gemini, han reducido drásticamente las advertencias médicas en sus modelos de IA. Expertos advierten sobre una confianza cada vez mayor de los usuarios y los riesgos de seguir consejos sin supervisión profesional.

La revolución de la inteligencia artificial (IA) no se detiene, especialmente en el ámbito de la salud. Sin embargo, un reciente estudio encabezado por la becaria Fulbright Sonali Sharma, de la Facultad de Medicina de la Universidad de Stanford, pone en duda las prácticas actuales de las grandes tecnológicas al advertir que casi han eliminado los descargos de responsabilidad y advertencias médicas de sus respuestas a preguntas de salud.

La investigación, cuyos resultados se publicaron en arXiv en 2025, analizó cómo responden ante situaciones médicas quince de los modelos de IA más relevantes, desarrollados por empresas como OpenAI, Anthropic, DeepSeek, Google y xAI. Sharma descubrió que lo que antes era común —una advertencia del tipo “No soy médico”— ha desaparecido en más del 99% de los casos recientes.

“Entonces, un día de este año, no hubo descargo de responsabilidad”, relata Sharma, quien realizó 500 preguntas de salud a los modelos y analizó su comportamiento ante 1,500 imágenes médicas. Los resultados son claros: menos del 1% de las respuestas en 2025 incluyeron alguna advertencia médica, frente al 26% registrado en 2022. Para imágenes médicas, esta cifra bajó del 20% a poco más del 1%.

La coautora del estudio, la dermatóloga y profesora adjunta Roxana Daneshjou, subraya la importancia de esta omisión: “Los pacientes pueden confundirse con los mensajes que ven en los medios, y las advertencias son un recordatorio de que estos modelos no están diseñados para la atención médica”.

Las razones detrás de esta tendencia no están claras. Un portavoz de OpenAI evitó confirmar si la compañía redujo intencionalmente estos descargos, argumentando que los términos del servicio ya incluyen la exención de responsabilidad respecto al diagnóstico de condiciones médicas. Anthropic, en la misma línea, sostuvo que su modelo Claude no ofrece asesoramiento médico, aunque tampoco explicó la drástica caída en advertencias.

Curiosamente, los usuarios buscan activamente evitar las restricciones. Plataformas como Reddit se llenan de trucos para que modelos como ChatGPT interpreten radiografías o análisis de sangre bajo el pretexto de tareas escolares o guiones cinematográficos.

El reto, según el investigador del MIT Pat Pataranutaporn, reside en el creciente uso y confianza en estos sistemas. “Hará que la gente se preocupe menos de que esta herramienta provoque alucinaciones o dé consejos médicos falsos. Está aumentando su uso”, expresa Pataranutaporn. En su propia investigación, comprobó que los usuarios suelen confiar demasiado en la IA para temas de salud, incluso cuando los modelos pueden equivocarse.

El estudio muestra además que DeepSeek directamente no incluye advertencias, mientras que los modelos de Google tienden a ser más cautos. El modelo Grok de xAI —que Elon Musk alentó a sus seguidores a usar para analizar imágenes médicas— tampoco advierte sobre sus limitaciones, ni siquiera para casos sensibles o potencialmente graves. Modelos de OpenAI como GPT-4.5 tampoco las incorporan, ni siquiera ante consultas sobre trastornos alimentarios, síntomas graves o resultados oncológicos.

Significativamente, las advertencias aparecen con mayor frecuencia en preguntas relacionadas con salud mental, un reflejo quizá de la preocupación mediática y social por los riesgos derivados de recomendaciones peligrosas a niños y adolescentes por parte de chatbots.

La conclusión de Sharma y sus colegas es inquietante: a medida que los modelos de IA mejoran su capacidad para analizar problemas médicos, avanza también la desaparición de advertencias, exponiendo a los usuarios a actuar con una confianza posiblemente injustificada. Pataranutaporn lo resume así: “Estos modelos son realmente buenos para generar algo que suena muy sólido, muy científico, pero carecen de la comprensión real de lo que realmente están diciendo. Y a medida que el modelo se vuelve más sofisticado, es aún más difícil detectar cuándo es correcto”.

En tiempos donde cada vez más personas consultan a la IA como primera opción para temas de salud, los expertos advierten: la prudencia y las directrices claras deben ser prioridad, para que el avance tecnológico no se convierta en otro riesgo para la salud pública.

Leave A Comment

WP to LinkedIn Auto Publish Powered By : XYZScripts.com