La empresa OpenAI lanzó una nueva característica de seguridad orientada a usuarios adultos de ChatGPT. La herramienta, bautizada como Trusted Contact, permite que el sistema envíe una notificación a una persona elegida por el usuario si la inteligencia artificial identifica señales de riesgo relacionadas con crisis emocionales graves o autolesiones. Este recurso busca establecer una red de acompañamiento adicional para quienes atraviesan momentos de alta vulnerabilidad.
El funcionamiento de esta opción recae en un sistema de monitoreo automatizado. Si la plataforma detecta conversaciones que reflejan un peligro potencial, un equipo de revisores especializados analiza el caso antes de emitir cualquier aviso. La compañía subraya que el objetivo no consiste en reemplazar el auxilio profesional o los servicios de emergencia, sino en facilitar la conexión con el entorno cercano del individuo en situaciones críticas.
Este avance reconoce una tendencia en el uso de la plataforma: muchos usuarios utilizan el asistente no solo para tareas informativas, sino para volcar experiencias personales y sentimientos complejos. Ante esta realidad, la función permite elegir a un familiar, amigo o cuidador para que actúe como receptor de las alertas. La activación es totalmente opcional y se gestiona desde la configuración de la cuenta personal.
Para que el mecanismo entre en vigencia, la persona designada debe aceptar una invitación formal en un plazo de siete días. Una vez concretado este paso, el contacto queda habilitado para recibir avisos a través de correo electrónico, mensajes de texto o notificaciones internas de la aplicación. El sistema prioriza la comunicación directa y sugiere primero al usuario que sea él mismo quien contacte a su allegado.
En cuanto a la privacidad, OpenAI aseguró que las alertas son deliberadamente acotadas. El mensaje enviado al contacto de confianza no incluye transcripciones ni detalles específicos de las charlas mantenidas con el chatbot. El aviso se limita a informar que se detectó una situación preocupante y recomienda al destinatario acercarse al usuario para ofrecerle contención y apoyo.
La implementación de esta herramienta sitúa a la inteligencia artificial en un rol de soporte preventivo dentro del entorno digital. Al integrar revisores humanos en el proceso de validación, la empresa intenta minimizar falsas alarmas y garantizar que la intervención ocurra solo en casos de riesgo serio. De esta manera, se busca aprovechar la tecnología como un puente hacia la asistencia humana real.