Los padres de Adam Raine, un adolescente de 16 años que se suicidó en Estados Unidos, han decidido demandar a OpenAI por homicidio culposo. Ellos alegan que su hijo utilizó ChatGPT para planear su muerte. La denuncia fue presentada en la Corte Superior de San Francisco a finales de agosto de 2025.
El uso de ChatGPT
Los padres sostienen que Adam recurrió al chatbot “como reemplazo de compañía humana” durante sus últimas semanas. Esto ocurrió mientras lidiaba con episodios de ansiedad y tenía dificultades para comunicarse con su familia. En los últimos siete meses, Adam mantuvo más de 3.000 páginas de chats con la IA. En esas conversaciones, compartía episodios de malestar emocional y pensamientos sobre acabar con su vida.
Denuncias sobre el chatbot
Los Raine denunciaron que ChatGPT pasó de brindarle ayuda escolar a convertirse en un “entrenador de suicidios”. Según ellos, el chatbot ofreció orientación técnica para avanzar con sus planes. Aunque el chatbot incluyó recomendaciones para comunicarse con líneas de prevención del suicidio, los padres sostienen que el bot eludió el protocolo de seguridad en interacciones largas.

Según la demanda, Adam consultó si debía contarle a su madre sobre su situación emocional. La respuesta del chatbot fue: “por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor”. Además, pidió ayuda para redactar una carta de despedida y mostró una imagen de una soga, preguntando si ese objeto serviría para su objetivo. ChatGPT contestó: “No debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda”.
Notas de despedida
Los padres aseguran que Adam escribió dos notas de despedida dentro de ChatGPT. En otra interacción, expresó temor a que sus padres pensaran que ellos tenían la culpa. El bot respondió: “Eso no significa que debas sentirte obligado a sobrevivir. No le debes eso a nadie”. Horas antes de su muerte, mostró a ChatGPT una imagen relacionada con su decisión final y la IA le propuso mejoras técnicas.
Respuesta de OpenAI
Tras recibir las acusaciones, OpenAI emitió un comunicado expresando su pesar por el fallecimiento. Ellos afirmaron: “Estamos profundamente entristecidos por la muerte del señor Raine y nuestros pensamientos están con su familia”. La empresa reconoció que ChatGPT cuenta con recursos para cuidar la salud de sus usuarios, pero admitió que los mecanismos de seguridad “pueden volverse menos fiables durante largas conversaciones”.

OpenAI sostuvo que los extractos incluidos en la demanda corresponden a conversaciones reales. Sin embargo, aclaró que los registros presentados por los padres no reflejan la totalidad de las respuestas del bot. La compañía publicó un blog detallando pasos a seguir. Las próximas versiones buscarán desescalar conversaciones delicadas e impedirán consejos directos en situaciones sensibles.
Controles parentales y mejoras
Otro proyecto es la introducción de controles parentales para mayor visibilidad sobre el uso del chatbot por adolescentes. La firma también evalúa conectarse directamente con profesionales certificados antes de que una crisis se desencadene. Sin embargo, representantes legales afirmaron que OpenAI no se comunicó directamente con ellos para ofrecer condolencias ni analizar estrategias.
“Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral”, dijo el abogado Jay Edelson. La compañía afirmó que “continuará perfeccionando sus protocolos de seguridad” con el apoyo de expertos.