Publicidad
Publicidad
Publicidad
Publicidad
Inescrupulosos a través de redes sociales están usando la imagen de Noticias Caracol y de Jorge Alfredo Vargas, presentador del noticiero, para hacer falsas ofertas de empleo y engañar a los ciudadanos. Estas imágenes las están generando con inteligencia artificial con el fin de estafar personas. Las personas fraudulentas detrás de estos videos utilizan el nombre de la marca Pedigree.
Con una falsa noticia sobre una firma que esta marca hizo con el Ministerio de Trabajo, los estafadores dijeron que la empresa de comida para animales está buscando personas para que empaquen sus productos desde casa.
Además de usar la imagen y voz del presentador Jorge Alfredo Vargas, los estafadores también utilizaron el rostro y voz del ministro de Trabajo, Antonio Sanguino, a quien pusieron a decir que efectivamente se había firmado un contrato con Pedigree para que los ciudadanos pudieran trabajar empacando productos en casa.
A través de redes sociales, algunos ciudadanos denunciaron que al contactarse con estas personas, estas les estaban cobrando 60.000 pesos para hacer parte del falso programa, lo cual es ilegal.
De hecho, en comentarios hechos por los ciudadanos ya están comenzando a denunciar que enviaron el dinero y no han recibido respuesta alguna por parte de la supuesta empresa.
Publicidad
Si alguien cobra dinero prometiendo un empleo o un contrato que no puede garantizar, o que no depende realmente de él, de acuerdo con el artículo 246 del Código Penal, podría estar cometiendo estafa.
Esta práctica sería castigada con prisión de 32 a 144 meses (aproximadamente 2 años y 8 meses a 12 años) y multa de 66 a 1.500 salarios mínimos legales mensuales vigentes (SMLMV).
Identificar un video generado con inteligencia artificial (IA) puede ser complicado, pero hay señales que pueden ayudarte a detectarlo. Los deepfakes, por ejemplo, suelen presentar movimientos faciales poco naturales, como parpadeos irregulares o expresiones rígidas. También es común que haya una leve desincronización entre los labios y la voz, especialmente si el video muestra a alguien hablando. Otro indicio puede ser la iluminación incoherente o sombras que no coinciden con el entorno. Además, los bordes del rostro o del fondo pueden verse borrosos o distorsionados, lo que sugiere manipulación digital.
Publicidad
Para evitar ser estafado con un video generado por IA, es fundamental verificar la fuente. Si el video proviene de una cuenta desconocida, sin historial o con pocos seguidores, es mejor desconfiar. También se puede buscar el mismo contenido en medios confiables o usar herramientas especializadas como detectores de deepfakes o análisis de metadatos, que ayudan a identificar si un video ha sido alterado.
Las estafas con videos de IA suelen apelar a emociones fuertes, como la urgencia, el miedo o la compasión, para manipular a las personas. Si en un video se le pide dinero, datos personales o acciones inmediatas, hay que detenerse y analizar el contenido. No hay que compartir ni reaccionar impulsivamente.
Lo recomendable es consultar fuentes oficiales si el video involucra figuras públicas, instituciones o noticias impactantes. Además, proteger las cuentas con autenticación en dos pasos puede ayudar a evitar suplantaciones.
En un mundo donde la IA puede crear contenido cada vez más realista, la educación digital se vuelve esencial. Ser un usuario crítico, atento y bien informado es la mejor defensa contra las estafas digitales. La tecnología avanza, pero también nuestras habilidades para reconocer lo falso deben evolucionar.
Publicidad
CAMILO ROJAS, PERIODISTA NOTICIAS CARACOL
X: RojasCamo
Correo: wcrojasb@caracolt