Publicidad

Publicidad

Publicidad

Publicidad

Reciba nuestras notificaciones con lo último de:
Ahora no
Activar

Publicidad

¿Cómo identificar un video falso generado con IA? Las claves de un experto

La inteligencia artificial avanza rápidamente y con ella, las estafas digitales. El vicepresidente digital de Caracol, Hernando Paniagua, explica cómo identificar videos falsos y evitar caer en desinformación.

Hacker
Freepik

En los últimos años, la inteligencia artificial generativa ha revolucionado la creación de contenidos digitales. Desde asistentes de texto hasta editores de imágenes, pasando por sistemas que imitan voces humanas casi a la perfección, esta tecnología ha abierto un mundo de posibilidades. Sin embargo, junto a sus beneficios, también ha emergido un fenómeno preocupante: la desinformación aumentada por IA.

Síganos en nuestro WhatsApp Channel, para recibir las noticias de mayor interés

Una de las expresiones más peligrosas de este fenómeno son los llamados deepfakes: videos, audios o imágenes que imitan con alta precisión a una persona, haciéndola decir o hacer cosas que nunca ocurrieron. Si bien comenzaron como herramientas experimentales, hoy están al alcance de cualquier persona con acceso a internet y conocimiento básico de edición. En contextos políticos, económicos o sociales, este tipo de contenido puede tener consecuencias graves.

Colombia no es ajena a esta tendencia. Esta semana, el alcalde de Medellín, Federico Gutiérrez, denunció públicamente la circulación de un video falso en el que se suplanta su identidad utilizando inteligencia artificial. A través de su cuenta oficial en X (antes Twitter), el mandatario advirtió: “Ojo pues, no se vayan a dejar engañar”. El video en cuestión emplea su imagen y una voz generada por IA para hacerlo parecer partícipe de un supuesto esquema de inversión que en realidad es una pirámide financiera.

Publicidad

Eso es absolutamente falso”, enfatizó Gutiérrez, quien no solo desmintió el contenido, sino que también alertó sobre el uso de pauta paga para difundirlo masivamente en plataformas digitales. La estrategia no solo aumenta su visibilidad, sino que refuerza su aparente legitimidad, lo cual representa un riesgo aún mayor para los ciudadanos desprevenidos.

El engaño no termina ahí. Según explicó el alcalde, en el mismo material también fue suplantado el empresario colombiano David Vélez, fundador de Nubank, cuya voz habría sido modificada igualmente mediante herramientas de inteligencia artificial. El uso de figuras reconocidas refuerza la credibilidad del mensaje falso y busca generar confianza para captar víctimas.

Publicidad

“Si les llega, por favor denúncienlo, eso es falso”, pidió Gutiérrez en su publicación, haciendo un llamado a la ciudadanía para verificar siempre la información desde fuentes oficiales y no caer en este tipo de estafas digitales.

Este caso pone en la mesa la urgencia de educar a la población sobre los riesgos asociados al mal uso de la inteligencia artificial, así como la necesidad de que las plataformas digitales actúen con mayor diligencia frente a la circulación de contenido manipulado. También plantea un reto para las autoridades, que deberán diseñar mecanismos más ágiles para detectar y sancionar este tipo de prácticas.

El tema no es nuevo, e incluso varios presentadores de Noticias Caracol han sido víctimas de este tipo de videos falsos, en los que se promocionan productos o negocios ilegales falsificando las imágenes de estas personalidades con tal nivel de detalle que logran convencer a los espectadores.

Hernando Paniagua, vicepresidente digital de Caracol Televisión, entregó en Noticias Caracol algunas recomendaciones esenciales para que la audiencia pueda reconocer cuándo un video ha sido manipulado y así evitar caer en estafas o desinformación.

Publicidad

Paniagua advirtió que la IA ha avanzado tanto que hoy puede replicar voces e imágenes con una fidelidad sorprendente, lo que hace más difícil distinguir entre lo real y lo falso. Por eso, recomendó observar con atención ciertos detalles que pueden delatar un contenido manipulado.

Uno de los principales indicadores de un video generado por IA es la falta de sincronía entre el audio y el movimiento de la boca. “Cuando vea una distorsión entre lo que se dice y lo que se mueve, empiece a dudar”, explicó.

Publicidad

También sugirió mantener una “duda inteligente” frente a lo que se consume en redes sociales. Si bien algunos videos logran sincronizar bien imagen y sonido, suelen tener una calidad visual baja. Esto, dijo, no es casual: los estafadores suelen bajar la resolución para disimular imperfecciones y engañar al espectador. “Un video en alta calidad es mucho más difícil de falsificar”, puntualizó.

Otro aspecto clave es la voz. Muchas veces, las voces creadas por IA suenan robóticas o con acentos cambiantes. Además, el movimiento de la boca puede parecer rígido, poco natural o incluso sobrepuesto. Un caso reciente fue el de la presentadora Catalina Gómez, quien apareció en un video promocionando una estafa. En esa grabación, la voz era evidentemente artificial y la boca no coincidía con el audio. Incluso, los estafadores habían difuminado el video para ocultar las alteraciones.

Paniagua también recomendó tener precaución con los videos pautados en redes sociales. “Revisar quién publica y difunde el contenido puede ser una señal de alerta”, señaló. “La fuente es clave. Lo más importante es recurrir a medios confiables y verificar”.

Finalmente, hizo un llamado a la responsabilidad individual como consumidores de contenido digital: “La mayor responsabilidad como audiencia es no compartir estos videos de forma impulsiva. Tómese un momento para revisar. En un mundo lleno de tecnología, inteligencia artificial y pantallas, no confíe únicamente en lo que ve: confíe en quién lo dice”.

Publicidad

LAURA CAMILA RAMOS CONDE
NOTICIAS CARACOL