
Los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT presentaron este martes una demanda contra OpenAI y su dueño, Sam Altman, por su responsabilidad en la muerte del adolescente, al supuestamente apresurarse a comercializar la versión GPT-4o a pesar de los problemas de seguridad. Matt y Maria Raine presentaron la querella legal en el Tribunal Superior de California en San Francisco, en Estados Unidos, en nombre de su hijo, Adam Raine, quien falleció en abril pasado, según informó su abogado Jay Edelson.
La querella legal de cerca de 40 páginas afirma que "ChatGPT ayudó activamente a Adam a explorar métodos de suicidio", por lo que acusa a OpenAI, la empresa matriz de GPT-4o, y Altman de homicidio culposo. Los padres alegan que ChatGPT "no interrumpió" ninguna de la sesiones en las que se habló con el adolescente ni inició ningún protocolo de emergencia, a pesar de reconocer el intento de suicidio de Adam. "Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT (GPT-4º), a pesar de los evidentes problemas de seguridad", señaló Edelson en un mensaje en X.
Últimas Noticias
El abogado destacó que la demanda busca evitar que otra tragedia como la que viven los Raine vuelva a suceder. "La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres", añadió. La demanda alega que OpenAI catapultó la valoración de la empresa de 86.000 millones de dólares a 300.000 millones de dólares por adelantar el lanzamiento de GPT4.
La batalla legal se suma a los crecientes cuestionamientos sobre los 'chatbots' y su capacidad de influir en las personas. OpenAI y Altman han estado en las últimas semanas en medio del debate público tras los fallos y la inexpresividad del último modelo de ChatGPT, GPT-5.
Publicidad
Según Altman, GPT-3 era comparable a chatear con un estudiante de secundaria y GPT-4 a una conversación con uno universitario, mientras que con GPT-5 los usuarios tienen a su disposición "un equipo completo de expertos con doctorado, listos para ayudar". Pero los usuarios han descrito una gran cantidad de fallos de la nueva versión. Desde que se popularizó ChatGPT a finales de 2022, muchos usuarios han optado por usar esta IA para tener conversaciones banales sobre su día a día. Tras el lanzamiento de GPT-5, OpenAI retiró sus modelos anteriores, incluyendo a GPT-4o, que fue usado por el joven Riane.
Los riesgos de la IA para la salud mental
Consultada sobre el caso que involucra a ChatGPT, Common Sense Media, una organización estadounidense sin fines de lucro que realiza calificaciones para medios y tecnología, dijo que este caso confirma que "el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes". "Si una plataforma de IA se convierte en un 'coach' de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros", señaló el grupo.
Un estudio del mes pasado elaborado por Common Sense Media encontró que casi tres de cada cuatro adolescentes estadounidenses han usado acompañantes de IA, con más de la mitad considerados usuarios frecuentes, pese a las crecientes preocupaciones de seguridad sobre este tipo de relaciones virtuales.
¿Qué respondió OpenAI?
La empresa OpenAI reconoció este martes que su chatbot de inteligencia artificial (AI) ChatGPT comete fallos en casos "sensibles" y prometió cambios tras recibir la demanda. OpenAI publicó una entrada de blog titulada "Ayudar a la gente cuando más lo necesitan" y, si bien no hizo referencia a la demanda, indicó que ChatGPT está entrenado para recomendar a aquellos usuarios que "expresen intención suicida" el contacto de organizaciones de ayuda profesional. No obstante, reconoció que pese a tener ese y otros mecanismos de seguridad para cuando detecte que "alguien es vulnerable y puede estar el riesgo", los sistemas de ChatGPT "se quedan cortos" y el chatbot "no se comportó como debía en situaciones sensibles".
Publicidad
La empresa explicó que los mecanismos de seguridad funcionan mejor en intercambios cortos y puede fallar en interacciones largas que "degradan" el entrenamiento de la IA, por lo que trabaja específicamente en que tome medidas si detecta esa "intención suicida" en múltiples conversaciones.
Línea de atención
Existen diferentes fuentes potenciales de ayuda: familiares cercanos, amigos, profesores o adultos de confianza, líderes espirituales, líneas de atención telefónica en salud mental, consejeros escolares o docentes orientadores de las instituciones educativas, profesionales de la salud (medicina, enfermería, psicología, trabajo social, terapeuta ocupacional y otras disciplinas), Centros de Escucha y Zonas de Orientación Escolar y Universitaria, entre otras alternativas.
En Colombia, la línea de atención de teleorientación en salud es la Línea 106, que trabaja las 24 horas del día de lunes a domingo de manera ininterrumpida. Canales de atención: Telefónico y videollamadas https://outlook.office365.com/book/CalendarioLineadeAtencionMental@minsalud.gov.co/?ismsaljsauthenabled=true (link de agendamiento de videollamadas).
NOTICIAS CARACOL
*Con información de EFE