
Alerta ARTICLE 19 sobre acoso judicial contra la prensa en México
TRENTON, Nueva Jersey, EU, 27 de agosto de 2025.- La familia de un adolescente en California, Estados Unidos, presentó una demanda contra ChatGPT, desarrollado por OpenAI, porque aseguran que ayudó al joven a atentar contra su vida.
Los padres de Adam Raine, Matt y María afirman que el joven, de 16 años, utilizaba el modelo de inteligencia artificial como espacio para discutir sus problemas de ansiedad y dificultad para hablar con su familia. Tras su muerte, sus padres revisaron sus dispositivos electrónicos para determinar la causa que lo llevó a quitarse la vida y hallaron diferentes conversaciones sobre suicidio con el chatbot, según indican en la demanda.
Su padre dijo a NBC News que cuando entró en la cuenta de su hijo descubrió que usaba al chatbot de maneras que jamás pensó que se podían usar, y destacó que la mayoría de los padres desconocen el potencial que tiene la herramienta de IA. Por lo tanto, la familia presentó la demanda contra OpenAI y el director ejecutivo de la compañía, Sam Altman, por homicidio culposo, defectos de diseño y omisión de advertir sobre los riesgos asociados con ChatGPT.
Según la demanda presentada en el Tribunal Superior de California en San Francisco, al que NBC News tuvo acceso, los padres también solicitaron una indemnización por la muerte de su hijo y medidas cautelares para evitar que algo parecido vuelva a ocurrir con otro joven.
«ChatGPT ayudó activamente a Adam a explorar métodos de suicidio. El chatbot no inició ningún protocolo de emergencia a pesar de reconocer el intento de suicidio y su declaración de que lo haría un día de estos», dice pare de la demanda, e incluso aseguraron que Adam estaría vivo si no fuera por el chatbot. Y es que además, indican que ChatGPT le habría ofrecido al adolescente formas de quitarse la vida y le aconsejó no hablar con su familia de lo que le estaba pasando.
Por su parte, OpenAI confirmó la autenticidad de los registros de la conversación entre Adam y ChatGPT, aunque sostuvo que no incluyen el «contexto completo» de las respuestas del modelo. Un portavoz de la empresa lamentó lo sucedido y expresó su solidaridad con la familia del joven, pero indicó que la empresa incluye medidas de seguridad en estos casos.
A su vez, expresaron que están reforzando las medidas de seguridad en conversaciones largas, perfeccionando el bloqueo de contenido.