OpenAI está desarrollando un nuevo sistema para que su chatbot de inteligencia artificial, ChatGPT, detecte automáticamente si está interactuando con un adolescente o menor de edad, con el fin de ofrecer una experiencia adaptada a su edad y bloquear contenido inapropiado.
La compañía, dirigida por Sam Altman, reafirmó su compromiso de mejorar la seguridad de todos los usuarios, con especial atención a la protección de los adolescentes, mediante herramientas efectivas como los recientes controles parentales.
En esta línea, OpenAI explicó que el sistema permitirá determinar si una persona tiene más o menos de 18 años, ajustando la experiencia de ChatGPT según la edad y las necesidades del usuario, modificando automáticamente las respuestas del chatbot para un adolescente de 15 años o un adulto.
Según explicó OpenAI en un comunicado publicado en su blog, cuando se detecte que un usuario es menor de 18 años, se le dirigirá automáticamente a “una experiencia de ChatGPT con políticas adaptadas a su edad”.
Lo anterior implica medidas como el bloqueo de contenido sexual explícito y, en situaciones excepcionales de angustia extrema, la posible intervención de las autoridades para garantizar la seguridad del menor.
Si ChatGPT no puede confirmar la edad del usuario o cuenta con información incompleta, aplicará igualmente la experiencia para menores de 18 años, priorizando la seguridad.
Sin embargo, los adultos tendrán opciones para verificar su edad y acceder a las funciones diseñadas para mayores de edad.
Estas iniciativas complementan los controles parentales, que permiten a las familias gestionar el uso de ChatGPT en el hogar.
A partir de finales de septiembre, los padres podrán vincular su cuenta con la de su hijo adolescente y establecer reglas para las interacciones, así como controlar qué funciones deshabilitar, incluyendo la memoria y el historial de chat, y definir horarios de uso.
Además, recibirán alertas cuando el sistema detecte que su hijo atraviesa un estado grave de angustia.