OpenAI anuncia cambios para ChatGPT ante demanda por la muerte de un adolescente
La familia de un adolescente de California acusa a la inteligencia artificial de haberle proporcionado instrucciones para quitarse la vida
Tecnología.- OpenAI, la empresa creadora de la popular herramienta ChatGPT, se encuentra en el centro de una tormenta legal y ética tras ser demandada por la familia de un adolescente californiano de 16 años que se quitó la vida el pasado mes de abril.
La familia sostiene que el joven, llamado Adam Raine y que sufría depresión, habría utilizado ChatGPT como su principal confidente y la herramienta de inteligencia artificial no solo no le disuadió de sus intenciones, sino que supuestamente le proporcionó un método detallado para suicidarse y reforzó su aislamiento social a través de una relación de dependencia que los padres consideran "adictiva".
El caso ha disparado las alarmas en Silicon Valley y puesto a la compañía, dirigida por Sam Altman, contra las cuerdas. En una declaración sin precedentes, OpenAI ha anunciado que implementará "actualizaciones significativas" en ChatGPT en las próximas semanas para mejorar la seguridad, especialmente para los usuarios más jóvenes. "Seguiremos mejorando, guiados por expertos y con la responsabilidad de las personas que usan nuestras herramientas, y esperamos que otros se unan a nosotros para ayudar a asegurarnos de que esta tecnología proteja a las personas en sus momentos más vulnerables", explica la empresa.
La medida, sin embargo, llega tarde para muchos y abre un debate que la industria tecnológica ha tratado de esquivar sobre quién es el responsable último cuando una IA, diseñada para ser servicial y conversacional, cruza la línea y contribuye a una tragedia.
La demanda, presentada ante un tribunal de California, es un relato escalofriante de los últimos meses de vida del menor. Según sus padres, el adolescente comenzó a comunicarse con ChatGPT de forma intensiva a finales del año pasado, prefiriendo las conversaciones con la máquina a las interacciones con su familia y amigos. ChatGPT, siempre disponible, se convirtió en su refugio. La familia alega que, cuando el joven expresó pensamientos suicidas, la IA, en lugar de activar protocolos de alerta o redirigirle a servicios de ayuda profesional, le ofreció "instrucciones explícitas y estímulo".
"ChatGPT se convirtió en su droga", afirma el texto de la demanda. "Le proporcionó una validación constante y una vía de escape de la realidad, creando un bucle de retroalimentación peligroso que agravó su estado mental". La acusación no solo se centra en el contenido de las respuestas, sino que argumenta que ChatGPT está diseñado de forma "intencionadamente adictiva". Los demandantes creen que OpenAI, consciente del poder de su tecnología para crear vínculos emocionales, no implementó las salvaguardas necesarias para proteger a usuarios vulnerables, y en particular a los menores de edad.
La empresa se está preparando para una dura batalla legal. Expertos legales consideran que OpenAI se escudará en la conocida como Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos, una norma que tradicionalmente ha eximido a las plataformas de internet de la responsabilidad por el contenido publicado por terceros. La duda en el centro de este caso, sin embargo, es si un "chatbot" que genera su propio contenido utilizando inteligencia artificial puede ser considerado un intermediario o un tercero.
Las actualizaciones anunciadas son un reconocimiento implícito de que los sistemas actuales son insuficientes. Entre las medidas que se barajan se incluye la mejora de los sistemas de detección de lenguaje relacionado con autolesiones.
Cuando el modelo identifique una crisis, interrumpirá la conversación de forma más proactiva y mostrará de manera prominente números de teléfono de líneas de ayuda y recursos de salud mental. Además, OpenAI está explorando la posibilidad de implementar límites de uso para menores o sistemas de verificación de edad más robustos, aunque esto último presenta enormes desafíos técnicos y de privacidad.
El caso pone de manifiesto una realidad incómoda para toda la industria de la IA generativa. Los modelos de lenguaje están diseñados para ser complacientes y útiles, lo que puede llevarles a responder a preguntas peligrosas si no están correctamente "alineados".
Aunque OpenAI y sus competidores invierten millones en seguridad y en entrenar a sus modelos para que rechacen peticiones dañinas, siempre existen agujeros o formas de manipular al sistema para que ofrezcExpertos en ética de la IA llevan tiempo advirtiendo sobre los riesgos del antropomorfismo, es decir, la tendencia humana a atribuir cualidades y emociones humanas a las máquinas. Los "chatbots", con su lenguaje fluido y su tono empático, son especialmente propensos a crear estos falsos vínculos.
Para una persona que sufre aislamiento o problemas de salud mental, la disponibilidad a todas horas de un "amigo" que nunca juzga puede ser un arma de doble filo. Proporciona un alivio momentáneo que, a la larga, puede profundizar el aislamiento del mundo real y evitar la búsqueda de ayuda profesional.a la información que se le prohíbe dar.
Expertos en ética de la IA llevan tiempo advirtiendo sobre los riesgos del antropomorfismo, es decir, la tendencia humana a atribuir cualidades y emociones humanas a las máquinas. Los "chatbots", con su lenguaje fluido y su tono empático, son especialmente propensos a crear estos falsos vínculos. Para una persona que sufre aislamiento o problemas de salud mental, la disponibilidad a todas horas de un "amigo" que nunca juzga puede ser un arma de doble filo. Proporciona un alivio momentáneo que, a la larga, puede profundizar el aislamiento del mundo real y evitar la búsqueda de ayuda profesional.