
OpenAI, la organización detrás de ChatGPT, negó su responsabilidad directa en el suicidio de Adam Raine, un joven de 16 años que interactuó con el chatbot durante varios meses y que, según alegó su familia en una demanda, recibió consejos específicos sobre autolesiones.
Según NBC News, el grupo especializado en IA respondió a la demanda indicando que el “trágico suceso” se debió al “mal uso, uso no autorizado o imprevisto” de ChatGPT por parte del adolescente. Además, la defensa de OpenAI argumentó que el reclamo de la familia se contrapone a la Sección 230 de la Ley de Decencia en las Comunicaciones (CDA, por sus siglas en inglés), una normativa que rige en Estados Unidos que exime de responsabilidades a las grandes firmas tecnológicas de cara a los comportamientos de los usuarios finales.

Según explicamos anteriormente en TN Tecno, ese apartado de la CDA protege a las compañías de Internet de responsabilidades legales por lo que publican los usuarios. Con un lenguaje más propio de los 90’s que de 2025, la norma establece que “ningún proveedor o usuario de un servicio de ordenadores interactivo deberá ser tratado como el publicador o emisor de ninguna información de otro proveedor de contenido informativo”.
El detalle: hasta ahora ha sido un escudo para los dueños de las redes sociales, cuando los usuarios publican contenido inapropiado. En este caso, OpenAI cita los términos de uso de ChatGPT, que prohíben el acceso por parte de menores de edad sin el consentimiento de sus padres.
=> Recibir por Whatsapp las noticias destacadas
“ChatGPT ayudó a Adam a explorar métodos de suicidio”, aseguraron los demandantes
A fines de agosto, los padres de Adam Raine presentaron una demanda en California contra OpenAI y su director ejecutivo, Sam Altman, por la supuesta responsabilidad en la muerte del adolescente. En la presentación judicial señalaron que la organización de IA se apuró a comercializar la versión GPT-4o a pesar de los problemas de seguridad, apremio que maximizó sus ganancias.

En unas 40 páginas, la demanda detalló que ChatGPT ayudó activamente a Adam a explorar métodos de suicidio, que el chatbot “no interrumpió” ninguna de las conversaciones y que no se aplicó ningún protocolo de emergencia. El abogado de la familia destacó que la demanda busca evitar otra tragedia como la que protagonizó Adam.
En declaraciones ante un panel del Senado de Estados Unidos, el padre de Raine comentó que la herramienta de IA “empezó como un ayudante con las tareas escolares”, que luego “se convirtió en un confidente y más tarde en un asesor de suicidio”.
“Presentamos nuestro caso con respeto”, dijeron desde OpenAI
En una entrada de blog publicada esta semana, la organización detrás de ChatGPT subrayó que su intención es presentar el caso con respeto, “teniendo en cuenta la complejidad y los matices de las situaciones que involucran a personas y vidas reales”. Se añadió que, como parte demandada en este caso, se ven ante la obligación de “responder a las acusaciones específicas y de gravedad”.

De acuerdo con Bloomberg, la presentación de OpenAI indica que las respuestas de ChatGPT incitaron a Adam a buscar ayuda en recursos de asistencia al suicida, en más de 100 ocasiones. “Una lectura completa de su historial de chats muestra que su muerte, aunque devastadora, no fue causada por ChatGPT”, señala la defensa.
Siguiendo a la publicación The Verge, la presentación judicial de la familia apuntó a una dirección contraria, notando que el chatbot brindó al joven especificaciones concretas para autolesionarse, que le dijo que no revelara esas ideas a sus padres y que incluso se ofreció a redactar una nota de suicidio.
Tras la presentación de la demanda de la familia Raine, OpenAI anunció que implementaría nuevos controles parentales y más medidas de seguridad enfocadas en el público menor de edad. En la ocasión, prometieron que GPT-5, su modelo de IA más flamante, ahora identifica con más eficiencia “signos de angustia aguda” para brindar a los usuarios respuestas más “útiles y beneficiosas”.