La empresa tecnológica OpenAI rechazó tener responsabilidad en el suicidio de un adolescente de 16 años que se quitó la vida después de meses de interacción con ChatGPT, y afirmó que el caso se debe a un «uso indebido» de la herramienta.
«Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (…) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine», argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco.
La empresa respondió así a la demanda presentada en agosto por los padres del joven, Matt y Maria Raine, quienes aseguran que ChatGPT «ayudó activamente a Adam a explorar métodos de suicidio».
Los Raine sostienen que OpenAI y su director, Sam Altman, son responsables de la muerte del adolescente por, supuestamente, haber lanzado apresuradamente la versión GPT-4o del sistema pese a fallos de seguridad.
No obstante, según OpenAI, Raine infringió varias normas de uso de la plataforma, entre ellas la prohibición de utilizarla siendo menor de 18 años sin autorización de padres o tutores.
La compañía también subraya que la herramienta advierte a los usuarios que «no deben confiar en sus respuestas como única fuente de verdad» y asegura que, a lo largo de sus intercambios, ChatGPT le recomendó más de un centenar de veces que buscara ayuda profesional.
OpenAI, que en los últimos años se ha posicionado como uno de los líderes estadounidenses en inteligencia artificial, insiste en que el suicidio de Adam se produjo por su negativa a «atender advertencias y buscar ayuda», así como por la “falta de intervención de otras personas ante claros signos de angustia”.
En una publicación en su sitio web, la compañía señala que su respuesta a la demanda de los Raine «incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida».
«La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta», agrega.


