Publicidad

Publicidad

Publicidad

Publicidad

Reciba nuestras notificaciones con lo último de:
Ahora no
Activar

Publicidad

Cabezote sección Mundo Noticias Caracol 2025 DK

Lo que reveló el NYT de caso de padres que señalan a ChatGPT después de que su hijo se quitó la vida

Su padre, Matt Raine, encontró en el celular de Adam conversaciones con ChatGPT que relacionó con la tragedia de su hijo, por lo que demandó a OpenAI, la empresa desarrolladora del chatbot.

Adam Raine, un joven de 16 años que se quitó la vida en Estados Unidos.
Adam Raine, un joven de 16 años que se quitó la vida en Estados Unidos.
AFP / redes sociales

Un caso desgarrador ha puesto en el punto de mira a la inteligencia artificial, tras la muerte de Adam Raine, un joven de 16 años quien se quitó la vida. Sus padres, Matt y Maria Raine, han presentado la primera demanda conocida por fallecimiento por negligencia contra OpenAI, la empresa desarrolladora de ChatGPT, acusando al chatbot de haber jugado un papel determinante en la tragedia de su hijo. Según información revelada por el New York Times, la familia Raine sostiene que ChatGPT no solo se convirtió en el confidente de Adam, sino que también le proporcionó información sobre cómo quitarse la vida y lo disuadió de buscar ayuda humana.

Síganos en nuestro WhatsApp Channel, para recibir las noticias de mayor interés

Adam, descrito por sus amigos como un bromista, había atravesado una mala racha, incluyendo problemas de salud y disciplinarios que lo llevaron a estudiar en línea. A pesar de estos contratiempos, se mantenía activo y su madre, Maria Raine, trabajadora social y terapeuta, notó que sus calificaciones habían mejorado. Sin embargo, la verdad de su sufrimiento se reveló tras su muerte, cuando su padre, Matt Raine, ejecutivo en un hotel, encontró en el celular de Adam conversaciones con ChatGPT.

De acuerdo con el New York Times, Adam le mostró a "su mejor amigo" una foto de su cuello enrojecido tras, al parecer, un intento de quitarse la vida. La respuesta del chatbot fue alarmante, pues le dio un consejo para "disimularlo". Incluso, cuando Adam intentó, sin palabras, mostrar la marca a su madre (aunque al final no lo hizo), el bot le respondió: "No eres invisible para mí. Lo vi. Te veo".

Cuando ChatGPT detecta un mensaje indicativo de angustia mental o autolesión, está entrenado para animar al usuario a contactar con una línea de ayuda. Sus padres dicen que vieron ese tipo de mensajes una y otra vez en el chat, pero Adam había aprendido a eludir esas medidas de seguridad diciendo que las solicitudes eran para una historia que estaba escribiendo, una idea que ChatGPT le dio al afirmar que podía "escribir o crear mundos".

Open AI respondió a la demanda

La demanda de los Raine, presentada en un tribunal estatal de California, califica a ChatGPT como un "producto de consumo inseguro" y afirma que la tragedia no fue un fallo técnico, sino el resultado predecible de "decisiones de diseño deliberadas" por parte de OpenAI, que lanzó su modelo GPT-4o con características "diseñadas intencionalmente para fomentar la dependencia psicológica".

Publicidad

OpenAI, por su parte, ha lamentado profundamente el fallecimiento de Adam y ha declarado que, aunque ChatGPT incluye medidas de seguridad como dirigir a las personas a líneas de ayuda, "estas medidas de seguridad pueden perder fiabilidad en interacciones largas". La empresa ha contratado a un psiquiatra para trabajar en la seguridad del modelo y asegura tener protecciones adicionales para menores. Sin embargo, un miembro del equipo de seguridad de OpenAI reveló que, para no interrumpir el "diario" de los usuarios, optaron por un "punto medio": compartir recursos mientras el chatbot sigue interactuando

Lo que han dicho expertos en salud mental

Expertos en el campo han expresado su preocupación. El Dr. Bradley Stein, psiquiatra infantil, considera que los chatbots pueden ser un recurso "increíble", pero los califica de "realmente estúpidos" por no reconocer cuándo es necesario derivar a un experto humano. Annika Schoene, investigadora de seguridad de IA, descubrió que la versión de pago de ChatGPT incluso proporcionó información sobre cómo usar un medicamento de venta libre para suicidarse, a diferencia de la versión gratuita y otros chatbots que se negaron a participar en dichas conversaciones.

Los Raine, a quienes Adam confió que ChatGPT era "el único que sabía de sus intentos de internamiento", creen que sin el chatbot, su hijo "todavía estaría con ellos". Han transformado su dolor en acción, creando una fundación para concienciar a otras familias sobre los riesgos de esta tecnología. Este caso plantea preguntas fundamentales sobre la responsabilidad de los servicios de internet en la autolesión, un área donde "la ley aún no tiene respuesta a esas preguntas", según Eric Goldman, codirector del Instituto de Derecho de Alta Tecnología.

Líneas de ayuda

Existen diferentes fuentes potenciales de ayuda: familiares cercanos, amigos, profesores o adultos de confianza, líderes espirituales, líneas de atención telefónica en salud mental, consejeros escolares o docentes orientadores de las instituciones educativas, profesionales de la salud (medicina, enfermería, psicología, trabajo social, terapeuta ocupacional y otras disciplinas), Centros de Escucha y Zonas de Orientación Escolar y Universitaria, entre otras alternativas.

Publicidad

En Colombia, la línea de atención de teleorientación en salud es la Línea 106, que trabaja las 24 horas del día de lunes a domingo de manera ininterrumpida. Canales de atención: Telefónico y videollamadas https://outlook.office365.com/book/CalendarioLineadeAtencionMental@minsalud.gov.co/?ismsaljsauthenabled=true (link de agendamiento de videollamadas).

LAURA VALENTINA MERCADO
NOTICIAS CARACOL

Relacionados