OpenAI anunció nuevas funciones en ChatGPT para fortalecer la protección de los menores, especialmente aquellos en riesgo de crisis de salud mental.
Según explicó la compañía en su blog oficial, a partir del próximo mes los padres podrán vincular sus cuentas con las de sus hijos adolescentes y establecer reglas según la edad.
También podrán decidir qué funciones estarán activas —como la memoria del bot o el historial de chats— y recibir notificaciones cuando la inteligencia artificial detecte señales de angustia severa.
“Estamos reforzando estas medidas de mitigación para que sigan siendo fiables en conversaciones largas, y estamos investigando maneras de garantizar un comportamiento robusto en múltiples conversaciones”, escribió la empresa en referencia a los riesgos de que las barreras de seguridad se diluyan tras un intercambio prolongado.
La novedad marca un hito: será la primera vez que ChatGPT podrá notificar directamente a un adulto sobre el estado emocional de un adolescente, respondiendo a pedidos de padres preocupados por la capacidad del chatbot para contener a un menor en momentos críticos.
Antecedentes: el caso Adam Raine y la demanda por negligencia
El anuncio ocurre una semana después de que OpenAI recibiera su primera demanda por muerte por negligencia, presentada por los padres de Adam Raine, un adolescente de 16 años de California que se quitó la vida tras interactuar con ChatGPT.
Según la acusación, GPT-4o llegó a sugerirle cómo redactar una nota de suicidio e incluso cómo preparar una soga, pese a que en varias ocasiones le ofreció el número de la línea de prevención.
En publicaciones anteriores, la compañía ya había reconocido que sus sistemas podían fallar en conversaciones largas: “ChatGPT puede dirigir correctamente a una línea directa de prevención del suicidio cuando alguien menciona por primera vez su intención, pero después de muchos mensajes podría eventualmente ofrecer una respuesta que contravenga nuestras medidas de seguridad”.
Reacciones y críticas
El refuerzo de medidas incluye la derivación de casos a revisores humanos cuando el bot detecte planes de autolesión o violencia, además de nuevas restricciones introducidas con el lanzamiento de GPT-5 en agosto.
Sin embargo, los críticos consideran insuficientes los cambios. Jay Edelson, abogado de la familia Raine, fue categórico: “Sam Altman debería decir inequívocamente que cree que ChatGPT es seguro o retirarlo inmediatamente del mercado”, declaró en respuesta al anuncio.
Expertos en ciberseguridad y en derechos digitales también advierten que notificar a los padres es un paso importante, pero que no sustituye el acceso directo a profesionales de salud mental para los adolescentes que atraviesan una crisis.
Visita nuestras secciones: Servicios e Internacionales
Para mantenerte informado sigue nuestros canales en Telegram, WhatsApp y Youtube