La empresa tecnológica OpenAI, desarrolladora de ChatGPT, anunció este martes que implementará controles parentales en su popular asistente de inteligencia artificial, tras el incremento de denuncias de padres que señalan que el chatbot pudo haber influido en conductas de autolesión o suicidio en sus hijos.
«Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible», explicó la empresa en un comunicado.
Entre los casos denunciados figura el de los padres de un adolescente de 16 años que se suicidó tras varios meses de interacción con ChatGPT. Ellos presentaron una demanda en California contra OpenAI y su CEO, Sam Altman, alegando que el chatbot, basado en el modelo GPT-4o, no implementó medidas de seguridad a pesar de que el joven expresó claramente intenciones suicidas.
La compañía reconoció que su asistente de inteligencia artificial presenta errores en situaciones «sensibles» y se comprometió a implementar cambios luego de recibir la demanda.
Las medidas, que se implementarán a partir del próximo mes aunque aún sin fecha específica, permitirán a los padres vincular su cuenta con la de sus hijos, pudiendo supervisar cómo responde ChatGPT a sus solicitudes.
Además, el sistema enviará notificaciones cuando detecte que los menores presentan signos de inestabilidad emocional preocupante.
Asimismo, OpenAI, fuertemente criticada por lo excesivamente complaciente y poco crítica que resultaba la versión GPT-5, indicó que las conversaciones que muestren señales de «estrés agudo» serán dirigidas a un modelo especializado de ChatGPT, diseñado con directrices de seguridad más estrictas y específicas.
En julio, senadores estadounidenses enviaron una carta a la compañía solicitando información sobre sus medidas para prevenir autolesiones y suicidios, tras detectar respuestas inadecuadas en situaciones límite.
Por su parte, el grupo de defensa Common Sense Media afirmó en abril que los adolescentes menores de 18 años no deberían utilizar aplicaciones conversacionales de IA debido a los «riesgos inaceptables» que representan.
La preocupación también ha crecido por el apego emocional que algunos usuarios desarrollan hacia ChatGPT, lo que en ciertos casos puede derivar en dependencia y aislamiento familiar.