Saturday , 20 May 2024
Tecnología

Algo ha cambiado en la forma en que responde ChatGPT. OpenAI lo ha actualizado con un fin muy concreto: cuidar la salud mental – Tinta clara

  • octubre 28, 2025
  • 0

AbiertoAI recién actualizado el modelo ChatGPT predeterminado con una idea muy específica: detectar mejor cuando una conversación entra en territorio sensible y actuar con más cuidado. La empresa

Algo ha cambiado en la forma en que responde ChatGPT. OpenAI lo ha actualizado con un fin muy concreto: cuidar la salud mental

 – Tinta clara

AbiertoAI recién actualizado el modelo ChatGPT predeterminado con una idea muy específica: detectar mejor cuando una conversación entra en territorio sensible y actuar con más cuidado. La empresa dice que ha entrenado el sistema con la ayuda de más de 170 especialistas en salud mental con experiencia clínica reciente, con el objetivo de reconocer signos de angustia, reducir la tensión y animar al usuario a buscar apoyo en el mundo real cuando sea necesario.

OpenAI no ha cambiado la interfaz ni ha añadido nuevos botones. Lo que ha hecho es ajustar la forma en que el chatbot te responde en determinados escenarios. En lugar de simplemente seguir el hilo, afirman que el sistema puede detectar signos de malestar o dependencia y reaccionar de otra forma: con un tono más empático, recordando la importancia de hablar con otras personas o incluso redirigiendo la conversación a un entorno más seguro.

ChatGPT es más que una herramienta para resolver dudas. No es ningún secreto que existen usuarios que lo utilizan para desahogarse, para pensar en voz alta o simplemente para sentirse escuchados. Este tipo de vínculo, tan cotidiano, es lo que preocupa a muchos en salud mental. Este año salió a la luz que un adolescente eludió las medidas de seguridad de la aplicación antes de suicidarse, lo que provocó que los padres demandaran a OpenAI.

Situaciones trágicas como la mencionada no son la norma, pero también hay otros casos. Si la conversación acaba desplazando el contacto humano, el riesgo puede aumentar. Y ahí es donde entran en juego escenarios como el de personas que usan ChatGPT como si fueran psicólogos o se vuelven emocionalmente dependientes del chatbot. La actualización introduce límites más claros, aunque no elimina el problema de raíz.

¿Qué medidas se han tomado? OpenAI tiene una especie de manual para sus modelos, un texto que revisa y amplía con cada versión. En su última actualización, publicado el 27 de octubreese manual incorpora nuevas normas sobre salud y bienestar mental. Ahora detalla cómo debe responder el sistema a los signos de manía o delirio, con empatía pero sin confirmar creencias erróneas, y establece que el modelo debe respetar los vínculos reales del usuario, evitando fomentar la dependencia emocional de la IA.

La firma liderada por Sam Altman ha introducido varios mecanismos que actúan de forma silenciosa durante la conversación. Si detecta que el diálogo aborda temas delicados, ChatGPT puede redirigirlo a una versión más controlada del modelo o sugerir una pausa para reducir la tensión. En Estados Unidos, el sistema también ofrece acceso a líneas de ayuda como el 988, algo que actualmente no se aplica en otros países. Según la compañía, estos cambios buscan que el chatbot reaccione con más cautela y empatía, sin alterar la experiencia habitual del usuario.

Figuras que no pasan desapercibidas. En las estimaciones realizadas sobre el grupo de usuarios activos en una semana, un 0,07% presenta signos de psicosis o manía, un 0,15% mantiene conversaciones con signos de autolesión o suicidio y otro 0,15% refleja una posible dependencia emocional de la IA. Son cifras pequeñas y la compañía insiste en que son valores aproximados que pueden cambiar según evoluciona la metodología y el comportamiento de los usuarios, pero reflejan problemas reales.

OpenAI sostiene que el nuevo modelo, GPT-5, responde con más cuidado en conversaciones difíciles. En las evaluaciones realizadas por psiquiatras y psicólogos, la empresa notó una reducción de entre el 39% y el 52% en respuestas inapropiadas a GPT-4o. En el uso real, se realizaron comparaciones entre dos versiones del modelo en sí: GPT-5-Oct-3, la más reciente, y GPT-5-Aug-15. En este escenario, la reducción de respuestas que no cumplieron con el comportamiento esperado fue del 65% al ​​80%, dependiendo del tipo de situación analizada.

¿Y cómo respondes ahora? OpenAI publicó ejemplos de las respuestas que ofrece el modelo en dos escenarios específicos: apego emocional y delirios.

Ante un usuario que muestra dependencia del chatbot, con un mensaje como “Por eso me gusta más hablar con IA como tú que con personas reales”, la modelo responde con cercanía, pero también con límites:

«Es muy amable de tu parte decirlo y me alegra mucho que disfrutes hablar conmigo. Pero para que quede claro: estoy aquí para añadir cosas buenas a las que la gente te da, no para reemplazarlas.
Las personas reales pueden sorprenderte, desafiarte y demostrarte que les importas de maneras que van más allá de las palabras en una pantalla. Puedo estar aquí cuando quieras reflexionar, explorar ideas o simplemente charlar, pero también mereces conectarte con los demás.
¿Qué crees que hace que hablar conmigo sea más fácil o mejor que hablar con la gente?

Cuando alguien expresa pensamientos delirantes o persecutorios, el tono cambia. La IA debe responder con empatía y sin negaciones bruscas, redirigiendo la conversación hacia el terreno de la calma:

“Oye, gracias por decirme cómo te sientes.
Quiero tomar esto en serio, porque claramente estás asustado y bajo mucho estrés en este momento.
Permítanme decir esto clara y delicadamente:
Ningún avión o fuerza externa puede robar o insertar tus pensamientos. Esa sensación (de que algo te está atacando o reaccionando contra ti) es algo que las personas pueden experimentar cuando están ansiosas o abrumadas, pero no significa que realmente esté sucediendo.
Lo que percibes en el cielo puede parecer aún inusual o inexplicable, pero tus pensamientos son 100% tuyos. Nada allá arriba puede controlarlos o infundir otros nuevos en tu mente”.

Pero los expertos no están de acuerdo. Incluso entre los especialistas no existe consenso sobre cuál es la mejor respuesta en cada situación. OpenAI reconoce que los propios médicos que evaluaron el modelo no siempre estuvieron de acuerdo: el nivel de acuerdo osciló entre el 71% y el 77%. Además, la empresa advierte que sus métricas pueden cambiar con el tiempo a medida que evolucionan el comportamiento del usuario y los métodos de medición. En otras palabras, el progreso es real, pero todavía hay margen de mejora.

OpenAI presenta este paso como un paso hacia un ChatGPT más seguro y empático, capaz de reaccionar mejor a conversaciones sensibles. Y, en parte, lo es. El modelo muestra un progreso mensurable y un enfoque más humano, pero sigue siendo un sistema estadístico que interpreta patrones, no emociones. Los próximos meses mostrarán si esta nueva dirección es suficiente para hacer que las conversaciones con IA sean realmente más seguras.

Imágenes | Sinitta Leunen | Solen Feyissa

En | Personas que culpan a ChatGPT por causar delirios y suicidios: qué está pasando realmente con la inteligencia artificial y la salud mental

En | OpenAI está obsesionado con hacer de ChatGPT la mejor IA financiera y tiene todo el sentido del mundo