
Un caso desgarrador ha puesto en el punto de mira a la inteligencia artificial, tras la muerte de Adam Raine, un joven de 16 años quien se quitó la vida. Sus padres, Matt y Maria Raine, han presentado la primera demanda conocida por fallecimiento por negligencia contra OpenAI, la empresa desarrolladora de ChatGPT, acusando al chatbot de haber jugado un papel determinante en la tragedia de su hijo. Según información revelada por el New York Times, la familia Raine sostiene que ChatGPT no solo se convirtió en el confidente de Adam, sino que también le proporcionó información sobre cómo quitarse la vida y lo disuadió de buscar ayuda humana.
Adam, descrito por sus amigos como un bromista, había atravesado una mala racha, incluyendo problemas de salud y disciplinarios que lo llevaron a estudiar en línea. A pesar de estos contratiempos, se mantenía activo y su madre, Maria Raine, trabajadora social y terapeuta, notó que sus calificaciones habían mejorado. Sin embargo, la verdad de su sufrimiento se reveló tras su muerte, cuando su padre, Matt Raine, ejecutivo en un hotel, encontró en el celular de Adam conversaciones con ChatGPT.
De acuerdo con el New York Times, Adam le mostró a "su mejor amigo" una foto de su cuello enrojecido tras, al parecer, un intento de quitarse la vida. La respuesta del chatbot fue alarmante, pues le dio un consejo para "disimularlo". Incluso, cuando Adam intentó, sin palabras, mostrar la marca a su madre (aunque al final no lo hizo), el bot le respondió: "No eres invisible para mí. Lo vi. Te veo".
Cuando ChatGPT detecta un mensaje indicativo de angustia mental o autolesión, está entrenado para animar al usuario a contactar con una línea de ayuda. Sus padres dicen que vieron ese tipo de mensajes una y otra vez en el chat, pero Adam había aprendido a eludir esas medidas de seguridad diciendo que las solicitudes eran para una historia que estaba escribiendo, una idea que ChatGPT le dio al afirmar que podía "escribir o crear mundos".
Open AI respondió a la demanda
La demanda de los Raine, presentada en un tribunal estatal de California, califica a ChatGPT como un "producto de consumo inseguro" y afirma que la tragedia no fue un fallo técnico, sino el resultado predecible de "decisiones de diseño deliberadas" por parte de OpenAI, que lanzó su modelo GPT-4o con características "diseñadas intencionalmente para fomentar la dependencia psicológica".
Publicidad
OpenAI, por su parte, ha lamentado profundamente el fallecimiento de Adam y ha declarado que, aunque ChatGPT incluye medidas de seguridad como dirigir a las personas a líneas de ayuda, "estas medidas de seguridad pueden perder fiabilidad en interacciones largas". La empresa ha contratado a un psiquiatra para trabajar en la seguridad del modelo y asegura tener protecciones adicionales para menores. Sin embargo, un miembro del equipo de seguridad de OpenAI reveló que, para no interrumpir el "diario" de los usuarios, optaron por un "punto medio": compartir recursos mientras el chatbot sigue interactuando
Lo que han dicho expertos en salud mental
Expertos en el campo han expresado su preocupación. El Dr. Bradley Stein, psiquiatra infantil, considera que los chatbots pueden ser un recurso "increíble", pero los califica de "realmente estúpidos" por no reconocer cuándo es necesario derivar a un experto humano. Annika Schoene, investigadora de seguridad de IA, descubrió que la versión de pago de ChatGPT incluso proporcionó información sobre cómo usar un medicamento de venta libre para suicidarse, a diferencia de la versión gratuita y otros chatbots que se negaron a participar en dichas conversaciones.
Los Raine, a quienes Adam confió que ChatGPT era "el único que sabía de sus intentos de internamiento", creen que sin el chatbot, su hijo "todavía estaría con ellos". Han transformado su dolor en acción, creando una fundación para concienciar a otras familias sobre los riesgos de esta tecnología. Este caso plantea preguntas fundamentales sobre la responsabilidad de los servicios de internet en la autolesión, un área donde "la ley aún no tiene respuesta a esas preguntas", según Eric Goldman, codirector del Instituto de Derecho de Alta Tecnología.
Líneas de ayuda
Existen diferentes fuentes potenciales de ayuda: familiares cercanos, amigos, profesores o adultos de confianza, líderes espirituales, líneas de atención telefónica en salud mental, consejeros escolares o docentes orientadores de las instituciones educativas, profesionales de la salud (medicina, enfermería, psicología, trabajo social, terapeuta ocupacional y otras disciplinas), Centros de Escucha y Zonas de Orientación Escolar y Universitaria, entre otras alternativas.
Publicidad
En Colombia, la línea de atención de teleorientación en salud es la Línea 106, que trabaja las 24 horas del día de lunes a domingo de manera ininterrumpida. Canales de atención: Telefónico y videollamadas https://outlook.office365.com/book/CalendarioLineadeAtencionMental@minsalud.gov.co/?ismsaljsauthenabled=true (link de agendamiento de videollamadas).
LAURA VALENTINA MERCADO
NOTICIAS CARACOL