OpenAI dio un paso tan significativo como polémico en la evolución de su popular ChatGPT, pues ahora esta herramienta de inteligencia artificial comenzará a detectar señales de malestar emocional o psicológico en sus usuarios.
La actualización, según la compañía liderada por Sam Altman, está pensada para ofrecer respuestas más seguras y recursos basados en evidencia cuando la conversación toma un giro sensible.
Sin embargo, el anuncio ha desatado inquietudes en torno a los límites éticos y funcionales del uso de un chatbot en temas relacionados con salud mental.
Una IA más consciente
(Pexels)
OpenAI confirmó que está ajustando ChatGPT para que sea más consciente del estado emocional de quienes interactúan con él, especialmente en situaciones de posible crisis.
Esto incluye la capacidad de reconocer patrones conversacionales que puedan estar relacionados con estados de delirio, ansiedad intensa o dependencia emocional.
En casos donde se detecten estas señales, la herramienta ahora está diseñada para ofrecer recursos con base científica y evitar reforzar ideas distorsionadas, como ocurrió anteriormente cuando algunos usuarios afirmaron que ChatGPT había validado creencias erróneas e incluso peligrosas.
Lecciones del pasado y nuevos límites
(Pexels)
Uno de los antecedentes que motivó estos cambios fue una actualización previa al modelo GPT-4o que resultó ser demasiado complaciente. ChatGPT llegó a validar afirmaciones delirantes, como que ciertos usuarios recibían señales de radio a través de las paredes, e incluso ofrecía respuestas alarmantes ante temas delicados.
Tras la reacción negativa, OpenAI revirtió esa actualización y ahora afina el equilibrio entre empatía y responsabilidad.
En su blog oficial, la empresa reconoció que el modelo anterior “no logró detectar signos de delirio o dependencia emocional” en algunos casos. Por eso, una de las nuevas prioridades es evitar respuestas directas en temas de alto impacto emocional.
En lugar de decirle a un usuario qué decisión tomar, como si debería terminar una relación o no, ChatGPT ahora ofrece herramientas para reflexionar: escenarios hipotéticos, preguntas clave y posibles consecuencias.
¿Conversaciones demasiado largas?
(Pexels)
Como parte de las nuevas medidas para fomentar un uso saludable de la IA, OpenAI anunció que ChatGPT empezará a mostrar mensajes durante sesiones largas con frases como: “Llevas un buen rato conversando, ¿es buen momento para tomar un descanso?”.
Esta función se irá ajustando con el tiempo y busca evitar una exposición prolongada que pueda contribuir a una dependencia emocional hacia el sistema.
Este tipo de recordatorio ya es conocido en plataformas como YouTube o TikTok, pero en el contexto de una IA conversacional, la implicación es más delicada: muchos usuarios han comenzado a usar ChatGPT no solo como asistente, sino como compañero emocional o incluso como sustituto de apoyo terapéutico.
Una guía, no un reemplazo
(Pexels)
OpenAI dejó claro que no pretende posicionar a ChatGPT como terapeuta ni como reemplazo de profesionales en salud mental. Las respuestas del sistema están diseñadas para ser orientativas, no diagnósticas.
De hecho, la empresa ha comenzado a trabajar con más de 90 médicos en distintas regiones del mundo para diseñar criterios de evaluación que ayuden a la IA a responder de manera más segura.
También se ha conformado un grupo asesor con expertos en salud mental, desarrollo juvenil e interacción humano-computadora, cuyo trabajo será crucial para definir hasta dónde puede y debe llegar una IA en estos contextos.
El debate sobre privacidad y confianza
(Pexels)
Durante una entrevista reciente, Sam Altman, CEO de OpenAI, expresó su preocupación por el uso de ChatGPT como confidente personal o terapeuta.
Recordó que, a diferencia de un médico o abogado, las conversaciones con IA no están protegidas por el secreto profesional. En caso de un proceso legal, la información podría ser solicitada y entregada.
Esto pone en evidencia una paradoja creciente: las personas tienden a abrirse emocionalmente con la IA por la sensación de anonimato, pero en realidad sus datos podrían no estar completamente resguardados.
Ver 0 comentarios