OpenAI refuerza ChatGPT para manejar conversaciones con señales de psicosis o manía

OpenAI refuerza ChatGPT para manejar conversaciones con señales de psicosis o manía

OpenAI anunció esta semana que reforzó el funcionamiento de ChatGPT para responder de forma más segura y empática cuando detecta señales de crisis de salud mental en las conversaciones con usuarios. 

Aunque se trata de situaciones poco frecuentes (aproximadamente 0.07% de los usuarios muestran indicios de episodios como psicosis o manía), la empresa decidió intervenir para que el sistema no responda de manera fría, evasiva o inadecuada en momentos de vulnerabilidad.

¿Por qué tomó esta decisión OpenAI?

La compañía detectó que un número mínimo pero relevante de conversaciones incluían señales de confusión extrema, pensamientos acelerados, delirios o pérdida de contacto con la realidad. 

No implica que ChatGPT diagnostique enfermedades mentales, sino que reconoce patrones de lenguaje que podrían reflejar una crisis severa. Por ello, OpenAI decidió mejorar la forma en que el modelo responde ante este tipo de situaciones sensibles.

Colaboración con especialistas en salud mental

Para diseñar estas mejoras, OpenAI trabajó con más de 170 expertos entre psiquiatras, psicólogos y médicos. Con su apoyo, identificó cómo se expresan verbalmente las crisis de salud mental y cómo debe reaccionar el sistema: con empatía, sin reforzar creencias delirantes y orientando, cuando sea necesario, hacia recursos profesionales o líneas de ayuda.

¿Qué cambios implementó ChatGPT?

Las mejoras no buscan que la IA actúe como terapeuta, sino que brinde acompañamiento responsable. Entre los ajustes destacan:

  • Respuestas más empáticas y cuidadosas.
  • Evitar confirmar alucinaciones o ideas delirantes.
  • Sugerir apoyo profesional cuando la situación lo amerite.
  • Detectar señales de autolesión o dependencia emocional hacia la IA.
  • Mostrar recordatorios para pausar la conversación en interacciones prolongadas.

Resultados: menos respuestas inadecuadas

Según las pruebas internas de OpenAI, las respuestas inadecuadas o insuficientes del modelo en conversaciones de alto riesgo disminuyeron entre 65% y 80%. Además, el nuevo sistema alcanzó un 92% de cumplimiento con los estándares de respuesta empática y segura, frente a solo 27% del modelo anterior.

Actualización de reglas y límites de la IA

OpenAI también actualizó sus lineamientos internos (conocidos como Model Spec) para que el modelo:

  • No dé diagnósticos ni consejos médicos directos.
  • No alimente comportamientos de dependencia emocional.
  • No valide ideas falsas o delirantes.
  • Aclare que no sustituye la ayuda de profesionales de salud mental.

Con estas medidas, OpenAI reconoció que muchas personas usan la inteligencia artificial no solo para tareas académicas o laborales, sino también como espacio de desahogo o compañía. 

admin