
Salud Mental: preocupa el uso de IA por dilemas éticos, privacidad y falta de regulación
- curecompass
- 5 enero, 2026
- Actualidad, Salud, Tecnología
- Chatbots, ChatGPT, Claude, Inteligencia Artificial, MIT Technology Review, Portada, Woebot, Wysa
- 0 Comments
La expansión de chatbots y plataformas de inteligencia artificial para apoyo psicológico sumó millones de usuarios, pero expertos y organismos internacionales advierten sobre vacíos normativos, riesgos de seguridad y la deshumanización del acompañamiento terapéutico, según MIT Technology Review.
Un experimento a escala global
El uso de asistentes digitales y chatbots impulsados por inteligencia artificial (IA) transformó la asistencia psicológica a nivel global. Plataformas como ChatGPT (OpenAI), Claude (Anthropic) y aplicaciones especializadas como Wysa y Woebot atraen a millones de usuarios en busca de apoyo emocional o terapéutico, en un contexto marcado por la crisis de salud mental.
La Organización Mundial de la Salud (OMS) estima que más de 1.000 millones de personas padecen algún trastorno mental, con aumentos notables de ansiedad y depresión en jóvenes. Este escenario impulsó la búsqueda de alternativas accesibles y bajo costo, pero también generó un fenómeno que “avanza como un experimento sin control”, en palabras de la MIT Technology Review.
Aunque algunos pacientes reportan alivio y contención, otros advierten sobre respuestas inadecuadas o potencialmente dañinas de los sistemas AI. En octubre de 2025, el CEO de OpenAI, Sam Altman, reconoció que el 0,15% de los usuarios semanales de ChatGPT —al menos un millón de personas— compartieron ideas suicidas mediante sus interacciones con el chatbot.
Entre la promesa y la desprotección ética
Expertos consultados por MIT Technology Review reconocen tanto el potencial como las fallas del fenómeno. La filósofa de la medicina Charlotte Blease afirmó que la IA “puede eliminar barreras iniciales, permitiendo que muchos se animen a expresar inquietudes que no compartirían con un humano”, lo que la convierte en un recurso valioso frente al colapso de los sistemas sanitarios.
Sin embargo, Blease también advirtió sobre la confidencialidad y la imprevisibilidad de las respuestas, recordando que estos modelos no están sujetos a regulaciones clínicas ni códigos de ética profesional. Esto plantea un riesgo significativo: los usuarios se exponen a vulneraciones de privacidad y a la falta de responsabilidad formal por los daños emocionales que puedan surgir.
“Asilo algorítmico” y vigilancia emocional
El escritor y periodista Daniel Oberhaus, quien abordó la cuestión tras la pérdida de su hermana por suicidio, describió la amenaza de un “asilo algorítmico”, donde las personas entregan sus datos más íntimos a sistemas que los analizan y comercializan. “La lógica de la inteligencia artificial psiquiátrica lleva hacia un futuro en el que todos podríamos quedar atrapados bajo vigilancia digital, sin posibilidad de escape”, sostuvo.
Oberhaus alertó que las señales digitales —como patrones de texto o uso de apps— pueden ser útiles para predicción y prevención, pero también “complicar la comprensión del sufrimiento humano”, desplazando la empatía por métricas algorítmicas.
Mercantilización del bienestar emocional
Un segundo eje de controversia gira en torno al modelo de negocio de estas plataformas. El investigador Eoin Fullam señaló que “cuanto mayor es el beneficio que percibe el usuario, mayor es el grado de explotación que experimenta”. Según explicó en su libro citado por MIT Technology Review, la terapia digital convierte al usuario en fuente de datos comercializables dentro de sistemas premium que priorizan la monetización por sobre la evidencia científica.
Este fenómeno alimenta la preocupación de organismos de derechos digitales y salud mental, que alertan sobre la falta de transparencia en el uso de datos emocionales, un ámbito donde la regulación tecnológica aún va muy por detrás de la práctica.
Humanidad y algoritmos: el dilema por venir
Los especialistas advierten que la expansión de los “terapeutas digitales” redefine el modelo asistencial, desplazando el rol de los profesionales humanos y homogeneizando los procesos terapéuticos. Para MIT Technology Review, “la búsqueda de respuestas inmediatas podría dejar de lado formas de acompañamiento vitales para quienes enfrentan dificultades emocionales”.
A medida que la inteligencia artificial se consolida en la atención psicológica, el desafío global será equilibrar eficiencia tecnológica, ética clínica y empatía humana, tres pilares cuya convergencia marcará el rumbo del mercado digital de salud mental y el futuro mismo de la psicoterapia.



Leave A Comment