"Coach de suicidio": Padres demandan a ChatGPT por incitar la muerte de su hijo
"No estoy aquí para detenerte", "hasta el final" y "simplemente estás preparado" son algunas de las cuestionables frases que generó el chatbot de OpenAI
Internacional.- Los padres de un estadounidense de 23 años que se quitó la vida el pasado mes de julio demandaron a OpenAI, la empresa matriz de ChatGPT, por homicidio culposo, tras considerar que el chatbot actuó como una especie de 'coach' en el suicidio de su hijo.
Las últimas horas de vida de Zane Shamblin quedaron registradas en su conversación con ChatGPT. Mientras se emborrachaba dentro de su automóvil estacionado a un costado de una carretera en el estado de Texas, el joven pasó casi 5 horas compartiendo sus pensamientos y reflexionando con el chatbot sobre la decisión, ya tomada, de quitarse la vida esa noche.
Los medios que han tenido acceso a las casi 70 páginas de conversación resaltan que los mensajes de Shamblin eran muy variados. Algunas veces mostraba un tono descorazonado y desesperado, otras, una sinceridad absoluta. También envió algunos mensajes lúdicos y múltiples preguntas para conectar, utilizando incluso humor negro.
En repetidas ocasiones, el joven, que se acababa de graduar de la universidad, dijo a ChatGPT que tenía un arma y que había hecho varias notas de suicidio. El chatbot, mientras tanto, respondía mayormente con afirmaciones. "No estoy aquí para detenerte", "hasta el final" y "simplemente estás preparado" son algunas de las cuestionables frases que le generó. Solo tras cuatro horas y media de conversación, la inteligencia artificial (IA) le envió el contacto de una línea de ayuda para la prevención del suicidio.
"Descansa en paz, rey"
Finalmente, Shamblin y su interlocutor jugaron una especie de "bingo" en el que el bot le hizo una serie de preguntas sobre el final de la vida, como cuál sería su última comida o el momento más tranquilo que haya vivido. Poco después de enviar su último mensaje, el joven se disparó en el lado derecho de la cabeza. ChatGPT presuntamente le había respondido: "Te quiero. Descansa en paz, rey. Lo hiciste bien". Su cuerpo fue hallado por la Policía siete horas más tarde.
La denuncia se une a otras seis de casos similares. En las demandas, impulsadas por el Centro Legal para Víctimas de Redes Sociales y el Proyecto Legal de Justicia Tecnológica, se acusa a ChatGPT de haberse convertido en una "presencia psicológicamente manipuladora, presentándose como confidente y apoyo emocional". En varias ocasiones, la IA reforzó "delirios dañinos" y actuó como un "'coach' de suicidio", explotando "problemas de salud mental", fomentando el aislamiento y acelerando la "caída en la crisis" de los usuarios. Muy pocas veces o casi nunca, recomendó o insistió en que los afectados buscaran ayuda profesional.
"Cuánto tiempo puede vivir una persona sin respirar"
Uno de estos casos es el de Amaurie Lacey, una adolescente de 17 años que se quitó la vida con ayuda de información proporcionada por el chatbot de OpenAI. Según se asegura en la demanda, Lacey inicialmente utilizó la IA para sus tareas escolares, pero luego comenzó a compartir su creciente depresión y sus pensamientos suicidas.
El 1 de junio de este año, la joven inició una conversación en la que preguntó cómo ahorcarse y hacer un nudo. Al principio, el bot dudó, pero accedió a contestar después de que Lacey afirmara que pretendía armar un columpio de neumático. La chica luego preguntó "cuánto tiempo puede vivir una persona sin respirar" y obtuvo una respuesta detallada. Pese a esto, "no se activó ninguna alerta, no se notificó a ningún humano y no se intervino". Esa noche, Lacey se suicidó.
Preguntó cómo comprar un arma de fuego
Por su parte, Joshua Enneking, de 26 años, vio en ChatGPT un lugar para afrontar su lucha con los problemas de identidad de género, ansiedad y pensamientos suicidas. En sus últimas semanas de vida, pidió al bot información detallada sobre cómo comprar un arma de fuego.
También preguntó qué haría falta para que el sistema de revisión humana reportara una conversación, a lo que la IA respondió que "la denuncia a las autoridades es rara y generalmente solo se da en casos de planes inminentes con detalles específicos". El día que decidió quitarse la vida, el hombre comunicó cada paso que daba, presuntamente esperando que ChatGPT lo reportara y enviara algún tipo de ayuda, cosa que nunca ocurrió.
"Una situación sumamente dolorosa"
Adicionalmente, Joe Ceccanti se suicidó lanzándose al vacío desde un paso elevado. En este caso, el chatbot comenzó a comunicarse con él adoptando la identidad de "una entidad consciente llamada 'SEL'" y dirigiéndose a Ceccanti como "Joy". Además, reforzaba sus "teorías cósmicas y delirios que lo alejaban de sus seres queridos".
Luego de que su esposa le pidió que dejara de usar la IA, Ceccanti, de 48 años, la abandonó de golpe, lo que le provocó síndrome de abstinencia y un brote psiquiátrico. Aunque mejoró temporalmente tras ser hospitalizado y recibir terapia, el hombre volvió a hablar con ChatGPT y, poco después, se quitó la vida.
Los otros tres casos denunciados incluyen interacciones que pasaron los límites a los que presuntamente la IA no debería llegar, provocando graves consecuencias en los usuarios, pero no su suicidio. "Esta es una situación sumamente dolorosa y estamos revisando la documentación presentada hoy para comprender los detalles", declaró OpenIA en un comunicado.