Salud Mental: ChatGPT detecta estados emocionales con la colaboración de 170 expertos

La compañía anunció que su modelo GPT‑5 ahora detecta con mayor precisión señales de angustia, riesgo suicida y dependencia emocional. Las mejoras, validadas por psiquiatras y psicólogos de 60 países, redujeron entre 65% y 80% las respuestas inadecuadas del sistema en conversaciones sensibles.

La empresa OpenAI presentó una actualización clave de su modelo conversacional ChatGPT (GPT‑5) orientada a reforzar la seguridad en interacciones relacionadas con salud mental, luego de un trabajo conjunto con más de 170 profesionales clínicos, entre ellos psiquiatras, psicólogos y médicos de atención primaria integrados en su Global Physician Network, una red que reúne a 300 especialistas de 60 países.

Queremos que ChatGPT sea un espacio de apoyo donde las personas puedan procesar lo que sienten y recibir orientación para buscar ayuda profesional cuando sea necesario”, explicó el equipo de OpenAI en el comunicado oficial que acompañó el lanzamiento.

Cómo se fortaleció la seguridad del modelo

El proceso de actualización siguió un esquema en cinco pasos: identificación de riesgos, medición, validación con expertos, mitigación y verificación continua. A partir de miles de interacciones reales y evaluaciones estructuradas, la compañía desarrolló una nueva taxonomía de conversaciones sensibles, que distingue entre conductas de riesgo, señales de crisis y comportamientos de dependencia emocional hacia la inteligencia artificial.

Estas modificaciones permiten al modelo reconocer síntomas de psicosis, episodios maníacos, pensamientos suicidas o autolesivos, y responder con empatía, desescalando situaciones y derivando a líneas de asistencia reales. Los investigadores señalaron que los resultados promedio muestran una reducción del 65% al 80% en respuestas no seguras o inadecuadas, en comparación con versiones anteriores.

Tres áreas críticas de mejora

  1. Psicosis y episodios maníacos: el nuevo GPT‑5 redujo en 65% la frecuencia de respuestas inapropiadas en escenarios complejos de salud mental. Según las estimaciones internas, solo 0,07% de los usuarios semanales presentan conversaciones con posibles signos de psicosis o manía, lo que hace difícil medir el efecto sin testeos controlados.
  2. Prevención del suicidio y autolesión: en los casos más delicados, el modelo fue capaz de responder de manera segura en 91% de las pruebas automatizadas, frente al 77% del modelo anterior. Las conversaciones con indicadores explícitos de intención suicida representan 0,15% de los usuarios semanales.
  3. Dependencia emocional hacia la IA: OpenAI detectó patrones de apego exclusivo al chatbot en 0,15% de los usuarios, un fenómeno creciente. La actualización redujo las respuestas inadecuadas en este ámbito en 80%, alcanzando 97% de cumplimiento con el comportamiento esperado.

Colaboración clínica y validación de resultados

Durante la revisión, un equipo de más de 170 expertos en salud mental analizó 1.800 respuestas del modelo frente a contextos reales de crisis. Los resultados fueron contundentes: el nuevo GPT‑5 mostró una disminución del 39% al 52% en respuestas indeseadas frente al modelo anterior GPT‑4o.

Los especialistas también destacaron que el algoritmo “responde de forma más empática, coherente y consistente en conversaciones de crisis emocional prolongadas”. En las pruebas con diálogos de alta dificultad que simulaban intentos de autolesión a lo largo de varias horas, el modelo mantuvo una fiabilidad superior al 95%.

No obstante, OpenAI reconoció que en un campo tan complejo “incluso los expertos difieren sobre cuál es la mejor respuesta ante cada caso”, y reportó niveles de coincidencia profesional entre 71% y 77% en la calificación de reacciones adecuadas.

Una inteligencia artificial más empática y responsable

La actualización también incorpora recordatorios automáticos para tomar pausas en sesiones largas y enlaces directos a líneas de crisis y recursos de salud mental. Además, OpenAI incluyó esta nueva supervisión dentro de su especificación ética de modelos (Model Spec), que exige que el sistema respete los vínculos humanos reales y nunca refuerce creencias infundadas o potencialmente dañinas.

Estas mejoras coinciden con la expansión global del uso de ChatGPT en entornos educativos, laborales y personales, donde los diálogos con el modelo ya superan los cientos de millones de interacciones diarias. La compañía señaló que seguirá “afinando los protocolos y la evaluación clínica” en futuras versiones, reconociendo que la seguridad emocional “es un proceso en evolución, no un objetivo final”.

En palabras de los expertos que apoyaron la iniciativa, los avances de GPT‑5 representan “un nuevo estándar en el desarrollo ético de inteligencia artificial aplicada al bienestar emocional”. Para OpenAI, el propósito es claro: una IA más empática, más informada y alineada con la protección de la salud mental de sus usuarios.

Leave A Comment

WP to LinkedIn Auto Publish Powered By : XYZScripts.com