En un movimiento que busca consolidar su responsabilidad en un área de creciente sensibilidad, OpenAI publicó el 27 de febrero de 2026 una ambiciosa hoja de ruta sobre el futuro de la salud mental dentro de su ecosistema ChatGPT. El anuncio, lejos de ser una mera actualización técnica, dibuja una estrategia integral que combina innovación en protección al usuario con una reestructuración de su defensa legal, en un momento en que la inteligencia artificial conversacional se entrelaza cada vez más con el bienestar emocional de sus más de 900 millones de usuarios semanales.
La compañía ha decidido dar un paso significativo más allá de los controles parentales implementados en septiembre de 2025. Si bien estas herramientas para tutores han tenido una “buena adopción”, OpenAI es consciente de que la vulnerabilidad no entiende de edades. Por ello, la gran novedad es el lanzamiento inminente de la función “Trusted Contact” (Contacto de Confianza).
Esta herramienta, pionera en el sector, permitirá a los usuarios adultos designar a una persona de su círculo cercano –un familiar, amigo o terapeuta– para que actúe como un “recurso de apoyo en el mundo real”. El sistema monitorizará (siempre con el consentimiento explícito del usuario en la configuración) patrones de conversación que puedan indicar un estado de angustia profunda, riesgo de autolesión o crisis emocional. Ante una detección de este tipo, no solo ofrecerá recursos y líneas de ayuda, sino que podrá notificar de manera discreta a ese contacto de confianza previamente designado, abriendo un canal de apoyo humano cuando la máquina identifica que su capacidad de asistencia ha llegado a un límite.
“Queremos que ChatGPT sea un lugar seguro para explorar ideas y emociones, pero también reconocemos que una IA no es un sustituto de la conexión humana”, señala el comunicado oficial. “Esta función actúa como un puente, activando la red de seguridad real de una persona cuando más la necesita”.
Paralelamente, OpenAI está perfeccionando el “cerebro” emocional de sus modelos. La compañía ha detallado la implementación de nuevos y complejos métodos de evaluación. Ya no se trata solo de detectar palabras clave aisladas, sino de simular conversaciones largas y complejas sobre salud mental. Estos test buscan entrenar a los modelos para que reconozcan matices, señales de angustia sutil y cambios de tono a lo largo del tiempo, mejorando así su capacidad para desescalar situaciones tensas o guiar al usuario hacia ayuda profesional especializada. La meta es ambiciosa: pasar de una IA que reacciona a una que comprende el contexto emocional de una conversación prolongada.
El comunicado también aborda el complejo panorama judicial que enfrenta la empresa. En un giro procesal significativo, varios casos legales relacionados con el impacto de ChatGPT en la salud mental de los usuarios se han consolidado en un único procedimiento en el estado de California.
Esta unificación, solicitada por los abogados de los demandantes que ya anuncian su intención de presentar nuevas querellas, permitirá a la justicia californiana abordar las acusaciones de manera global. OpenAI ha aprovechado para reiterar sus principios en esta batalla legal: defender su posición basándose en los hechos, actuar con la máxima sensibilidad hacia las historias personales involucradas y, crucialmente, mantener el foco en la mejora técnica de sus sistemas, independientemente del ruido judicial.
Para las personas, estas medidas representan un cambio tangible en la relación con la tecnología. Los padres ganan herramientas más finas para la supervisión, los adultos vulnerables obtienen un “guardián” digital que puede movilizar a su red de apoyo, y toda la base de usuarios se beneficia de un asistente potencialmente más diestro en el manejo de conversaciones delicadas.
OpenAI es consciente de que pisa terreno movedizo. Por un lado, debe innovar; por otro, protegerse de las repercusiones legales y éticas de que un usuario deposite su confianza –y su angustia– en una máquina. Al crear la figura del “contacto de confianza”, la empresa no solo añade una función, sino que redefine implícitamente el contrato con sus usuarios: la IA estará ahí para escucharte, pero también sabrá cuándo pedir ayuda humana en tu nombre. El desafío ahora será demostrar que esa línea roja se traza con la precisión y la empatía que la salud mental exige.





