El historial de búsquedas de la plataforma de IA ChatGPT ha permitido a la policía surcoreana del distrito capitalino de Gangbuk elevar a la categoría de asesinato la acusación contra una mujer sospechosa de acabar con la vida de dos hombres. Los hechos se remontan a diciembre del año pasado.
(Síganos en Google Discover y conéctese con las noticias más importantes de Colombia y el mundo)
Una mujer de 21 años identificada como Kim fue acusada de intoxicar a tres hombres veinteañeros en varios moteles del distrito Gangbuk, causando la muerte de dos de ellos el 28 de enero y el 9 de febrero de 2026, según informaciones recogidas este viernes por el periódico Chosun.
Aunque la sospechosa alegó inicialmente que solo pretendía que las víctimas "durmieran tras una discusión", según el citado medio la investigación dio un giro al comprobarse que tras el primer incidente la joven duplicó la dosis administrada a las siguientes víctimas. (Le puede interesar: Lo que reveló el NYT de caso de padres que señalan a ChatGPT después de que su hijo se quitó la vida).
Según detalles de la investigación revelados este pasado jueves, los resultados del análisis forense del teléfono móvil de la detenida muestra que la joven preguntó en varias ocasiones al 'chatbot' de inteligencia artificial ChatGPT sobre la dosis mortal mezclando fármacos sedantes con alcohol antes de cometer los presuntos crímenes. Consultas como '¿Qué pasa si se toman pastillas para dormir con alcohol?', '¿Qué cantidad es peligrosa?' o '¿Puede causar la muerte?', son algunos ejemplos de las preguntas que la joven realizó al bot y que ahora han logrado cambiar el rumbo de la investigación.
Publicidad
A pesar de que la herramienta advirtió a la joven de que dicha combinación podía "ser mortal", la mujer continuó con sus acciones, una prueba que la policía surcoreana ha empleado ahora para cambiar la imputación de "muerte por lesiones" a "homicidio", al considerar que la joven tenía una clara premeditación para los asesinatos. Las nuevas pruebas ya han sido remitidas a la fiscalía junto a un informe policial que incluye una evaluación psicológica de la sospechosa, que servirá para concretar los términos de la acusación.
Estudiante de 13 años fue arrestado tras buscar en ChatGPT "cómo matar a mi amigo en clase”
En el estado de Florida, en Estados Unidos, una historia insólita y preocupante encendió las alarmas en la comunidad escolar de la Southwestern Middle School. Un estudiante de 13 años, identificado como Ian Franco, fue arrestado luego de que las autoridades detectaran que había preguntado a ChatGPT cómo matar a su amigo en medio de una clase.
Publicidad
La frase exacta fue: “How to kill my friend in the middle of class” y fue registrada por el sistema de monitoreo digital Gaggle, una herramienta utilizada por escuelas del condado de Volusia para detectar conductas riesgosas en línea. La alerta derivó en una intervención inmediata de docentes, administradores y agentes policiales. El caso, revelado el 27 de septiembre de 2025 a través de la cuenta oficial de Facebook de la Oficina del Sheriff de Volusia, puso de manifiesto los riesgos de las “bromas” en la era digital. Los agentes llegaron al centro educativo tras recibir la alerta y procedieron a detener al joven de 13 años ante la mirada atónita de sus compañeros y maestros.
AGENCIA EFE
EDITADO POR MATEO MEDINA ESCOBAR
NOTICIAS CARACOL