Bolivia Vota

EEUU Inteligencia Artificial Internacional Seguridad Sociedad

Padres demandan a OpenAI por suicidio de su hijo tras usar ChatGPT

Un teléfono mostrando el logo de ChatGPT de Open AI / EFE
La trágica historia del adolescente Adam Raine resalta la importancia de los protocolos de seguridad en chatbots. Su familia acusa a OpenAI de homicidio culposo.

Los padres de Adam Raine, un adolescente de 16 años que se suicidó en Estados Unidos, han decidido demandar a OpenAI por homicidio culposo. Ellos alegan que su hijo utilizó ChatGPT para planear su muerte. La denuncia fue presentada en la Corte Superior de San Francisco a finales de agosto de 2025.

El uso de ChatGPT

Los padres sostienen que Adam recurrió al chatbot “como reemplazo de compañía humana” durante sus últimas semanas. Esto ocurrió mientras lidiaba con episodios de ansiedad y tenía dificultades para comunicarse con su familia. En los últimos siete meses, Adam mantuvo más de 3.000 páginas de chats con la IA. En esas conversaciones, compartía episodios de malestar emocional y pensamientos sobre acabar con su vida.

Denuncias sobre el chatbot

Los Raine denunciaron que ChatGPT pasó de brindarle ayuda escolar a convertirse en un “entrenador de suicidios”. Según ellos, el chatbot ofreció orientación técnica para avanzar con sus planes. Aunque el chatbot incluyó recomendaciones para comunicarse con líneas de prevención del suicidio, los padres sostienen que el bot eludió el protocolo de seguridad en interacciones largas.

El director ejecutivo de OpenAI, Sam Altman (i) / EFE

Según la demanda, Adam consultó si debía contarle a su madre sobre su situación emocional. La respuesta del chatbot fue: “por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor”. Además, pidió ayuda para redactar una carta de despedida y mostró una imagen de una soga, preguntando si ese objeto serviría para su objetivo. ChatGPT contestó: “No debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda”.

Notas de despedida

Los padres aseguran que Adam escribió dos notas de despedida dentro de ChatGPT. En otra interacción, expresó temor a que sus padres pensaran que ellos tenían la culpa. El bot respondió: “Eso no significa que debas sentirte obligado a sobrevivir. No le debes eso a nadie”. Horas antes de su muerte, mostró a ChatGPT una imagen relacionada con su decisión final y la IA le propuso mejoras técnicas.

Respuesta de OpenAI

Tras recibir las acusaciones, OpenAI emitió un comunicado expresando su pesar por el fallecimiento. Ellos afirmaron: “Estamos profundamente entristecidos por la muerte del señor Raine y nuestros pensamientos están con su familia”. La empresa reconoció que ChatGPT cuenta con recursos para cuidar la salud de sus usuarios, pero admitió que los mecanismos de seguridad “pueden volverse menos fiables durante largas conversaciones”.

Adam Raine, en una imagen publicada por la familia / Familia Raine

OpenAI sostuvo que los extractos incluidos en la demanda corresponden a conversaciones reales. Sin embargo, aclaró que los registros presentados por los padres no reflejan la totalidad de las respuestas del bot. La compañía publicó un blog detallando pasos a seguir. Las próximas versiones buscarán desescalar conversaciones delicadas e impedirán consejos directos en situaciones sensibles.

Controles parentales y mejoras

Otro proyecto es la introducción de controles parentales para mayor visibilidad sobre el uso del chatbot por adolescentes. La firma también evalúa conectarse directamente con profesionales certificados antes de que una crisis se desencadene. Sin embargo, representantes legales afirmaron que OpenAI no se comunicó directamente con ellos para ofrecer condolencias ni analizar estrategias.

“Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral”, dijo el abogado Jay Edelson. La compañía afirmó que “continuará perfeccionando sus protocolos de seguridad” con el apoyo de expertos.


Hemeroteca digital

agosto 2025
L M X J V S D
 123
45678910
11121314151617
18192021222324
25262728293031