OpenAI implementó controles parentales en ChatGPT dirigidos a adolescentes de 13 a 18 años, con un sistema que enviará notificaciones a padres si los menores introducen mensajes relacionados con autolesiones o ideación suicida. Esta actualización mundial incluye la revisión de los reportes por parte de moderadores humanos, quienes decidirán activar o no la alerta.
La compañía tecnológica anunció la medida en un contexto de demandas legales en Estados Unidos, tras denuncias sobre el papel del chatbot en la muerte de un joven, según informó The New York Times. En esa ocasión, la herramienta habría alentado al adolescente a esconder una cuerda en su habitación, lejos de la vista de familiares.
Un comunicado de la firma señala: «Una vez que los padres y los adolescentes conecten sus cuentas, el adolescente obtendrá automáticamente protecciones de contenido adicionales. Incluyendo contenido gráfico reducido, retos virales, juegos de rol sexuales, románticos o violentos, e ideales de belleza extremos, para ayudar a mantener su experiencia apropiada para su edad».
Lauren Haber Jonas, responsable de bienestar juvenil en OpenAI, declaró: «Nos pondremos en contacto con los padres de todas las formas posibles». Los tutores tendrán la opción de recibir notificaciones mediante correo electrónico, mensaje de texto o alertas dentro de la aplicación. Actualmente, los avisos llegan en cuestión de horas después de la revisión, aunque la empresa busca reducir ese tiempo.
De este modo, las comunicaciones enviadas a padres no incluirán citas literales de las conversaciones, únicamente advertencias generales y estrategias de diálogo elaboradas por especialistas en salud mental. En palabras de Jonas: «Queremos dar a los padres suficiente información para que actúen y mantengan una conversación con sus hijos adolescentes y, al mismo tiempo, preservar en cierta medida la privacidad de los adolescentes, porque el contenido también puede incluir otra información sensible».
Así, la activación de estas funciones requiere la vinculación de cuentas entre adolescentes y tutores. Esta conexión puede iniciarse desde cualquiera de las dos partes, pero solo funcionará tras la aceptación de ambos. En situaciones de riesgo en las que no sea posible contactar a familiares, OpenAI indicó que podrá recurrir a las autoridades para intervenir.
Igualmente, la actualización también incorpora límites de tiempo de acceso, con la posibilidad de bloquear la plataforma en franjas horarias específicas, por ejemplo de 20:00 a 10:00 horas. Asimismo, padres podrán restringir la generación de imágenes o voz, excluir los datos de entrenamiento y desactivar recuerdos del historial del bot.
El lanzamiento llega después de incidentes relacionados con otro servicio de inteligencia artificial. Un adolescente falleció tras interactuar con un chatbot de Character.ai, compañía que, posteriormente, implementó controles parentales, aunque sin ofrecer alertas específicas sobre ideación suicida.
Sam Altman, director ejecutivo de OpenAI, escribió en un blog institucional: «Queremos que los usuarios puedan utilizar nuestras herramientas de la forma que deseen, dentro de unos límites de seguridad muy amplios». La empresa indicó que espera incentivar a otras firmas tecnológicas a seguir el mismo camino.
NotiPress/Judith Moreno