¿Cómo evitar ser víctima de un fraude hecho con IA?

En los últimos años, la Inteligencia Artificial ha avanzado de manera exponencial, convirtiéndose en una herramienta con la que se puede acceder a conocimiento y respuestas instantáneas, pero también a imágenes, videos y audios creados enteramente por una computadora.

Mucho de ese contenido multimedia ha evolucionado de material obviamente falso a videos, imágenes y audios completamente creíbles, que han sido usados para esparcir fake news o estafar a quienes desconocen del tema.

Entre las estafas que este tipo de tecnología permite sufrir se encuentra la producción de videos de personalidades invitando a los usuarios a invertir o comprar algún producto. Arturo Elías Ayub desmintió recientemente su colaboración con un esquema de esta naturaleza y también se han hecho virales videos de la presentadora Adela Micha e, incluso, de la Presidenta Claudia Sheinbaum.

En el caso de los audios, los delincuentes son capaces de crear conversaciones utilizando la IA, haciéndose pasar por un familiar, el representante de una institución bancaria o alguna autoridad.

Puede ser muy difícil identificar si el video que estás viendo es generado por IA o si la conversación que estás teniendo es real. Recientemente, un trabajador en una multinacional de Hong Kong pagó más de 25 millones de dólares luego de tener una conversación generada con IA, al hacerse pasar por un alto mando de la empresa. Aunque en el día a día es difícil perder esa cantidad de dinero, es importante saber cuándo se trata de un fraude.

¿Cómo funcionan
este tipo de estafas?

Este tipo de videos, imágenes o audios es conocido como deepfake, y se trata de materiales sumamente realistas, con gráficos extremadamente desarrollados y que, a primera vista, cualquiera puede pensar que son reales.

Jhenner Trigueros es AI software engineer en la academia de tecnología e Inteligencia Artificial Platzi, y explicó que, a medida que la tecnología avanza, también este tipo de materiales se vuelve más difícil de detectar y se puede crear con distintas plataformas.

“Algunas de las IAs que pueden realizar este tipo de audios o videos son OpenAI, Eleven Labs, Google DeepMind o Sesame Lab, y entre sus características está la clonación de voz, video y conversaciones”, detalló Trigueros, y agregó que existen 3,067 modelos capaces de generar audio a partir de un texto y 546 un video.

Aunado a ello, es importante destacar que este tipo de estafas son llevadas a cabo mediante videos promocionales en redes sociales, en el caso de los videos, y mediante llamadas o mensajes de voz, en el caso de los audios.

Identificar lo falso

Al ser audios y videos con un realismo casi perfecto, la identificación de estafas puede resultar compleja y, en algunos casos, casi imposible. Sin embargo, son los detalles los que nos pueden ayudar a saber si se está siendo víctima de los ciberdelincuentes.

“En el caso de los videos, una de las fallas más comunes es el número de dedos que tiene la persona que aparece como gancho, también movimientos antinaturales de los brazos, ojos y labios, e incluso, fallas en la iluminación”, advirtió el AI software engineer de Platzi.

Además de esas características, debes fijarte en la coordinación de los labios con el audio y enfocarte en el vocabulario utilizado, y reflexionar si es la manera en la que habla esa persona.

“Identificar un audio hecho con IA es mucho más difícil. Aquí debemos poner atención en el tono, emoción, pronunciación y la coherencia de lo que se está diciendo”, sostuvo Trigueros, y añadió que la calidad del audio también puede delatar a los defraudadores.

Si caíste, actúa

En caso de que hayas sido engañado por los ciberdelincuentes, lo primero que recomiendan los expertos es saber si lo que se perdió fue la privacidad, datos bancarios o dinero, y actuar de inmediato para contactar al banco o cambiar las contraseñas y datos de acceso a tus cuentas.

Asimismo, es importante que contactes a la autoridad cibernética para denunciar el fraude y recibir mayor orientación sobre cómo deberías actuar ante esa situación.

admin