Publicidad
Publicidad
Publicidad
Publicidad
Recientemente, los arquitectos de la Inteligencia Artificial (IA) han sido reconocidos como "personajes del año" por la revista Time, lo que refleja el impacto que esta tecnología ha tenido en el último año. Su capacidad para facilitar y automatizar tareas que antes eran muy demandantes ha sido un cambio fundamental para la humanidad.
A pesar de sus avances, la IA todavía enfrenta varios desafíos que podrían representar riesgos para las personas. Entre estos, se destacan temas como la seguridad de los datos, la ética, los derechos de autor y, particularmente, los efectos en la salud mental.
De acuerdo con un informe de Noticias Caracol, se ha encontrado que ChatGPT, por ejemplo, almacena información relacionada con la salud mental durante muchas de sus interacciones. Según la Organización Mundial de la Salud (OMS), 1 de cada 6 personas en el mundo sufre de soledad, un sentimiento que impulsa a muchos a buscar apoyo emocional. Muchas personas recurren a plataformas de inteligencia emocional como ChatGPT, Gemini, Copilot, Deepseek, entre otras, para sentirse escuchados y comprendidos.
Si bien la inteligencia artificial puede ser útil para ofrecer herramientas de apoyo emocional, no está exenta de riesgos. Camila Builes, periodista de Noticias Caracol, conversó con Ignacio Mayorga, un joven que utiliza la IA en sus días más difíciles. Ignacio, diagnosticado con ansiedad y depresión, comenta que, "mis familiares no entienden muy bien de qué van mis neurosis. El chat digamos que no es comprensivo, pero parece serlo y con eso es suficiente".
En Colombia, seis de cada diez personas confían en la IA para obtener consultas relacionadas con la salud. Usan plataformas como ChatGPT para obtener consejos sobre prevención, condiciones médicas y hasta para recibir apoyo en salud mental. Sin embargo, el uso indiscriminado de la IA plantea serios riesgos para el bienestar mental.
De acuerdo con Hernando Santamaría, director del doctorado en Neurociencia de la PUJ, las personas encuentran en estos chats un espacio de “alta protección”. “Una máquina que te conoce, te valida, refrenda tus opiniones, las refuerza y te da una sensación de confianza, porque está entrenada para eso”, explica.
A pesar de la seguridad con la que la inteligencia artificial se expresa, hay varios aspectos a considerar:
El uso de la IA ha evolucionado, pues ya no solo se busca generar contenido, sino que muchos usuarios buscan en ella compañía, un espacio donde desahogarse sin juicio. Este vínculo, sin embargo, tiene implicaciones peligrosas:
Es crucial que las personas con predisposición o diagnóstico de enfermedades mentales, como depresión, ansiedad o psicosis, tengan especial cuidado al interactuar con plataformas de IA. La recomendación general es utilizar la inteligencia artificial como una herramienta complementaria, no como un reemplazo de la terapia profesional. Siempre se debe contrastar la información proporcionada por la IA con la orientación de expertos en salud mental.
Publicidad
La solución no radica en prohibir el uso de la tecnología, sino en entender que estas herramientas no tienen la capacidad de reemplazar a un profesional de la salud. El uso regulado de la IA, junto con la interacción humana directa, puede ser una forma efectiva de protegerse y preservar el bienestar mental.
HEIDY ALEJANDRA CARREÑO BELTRAN
NOTICIAS CARACOL