Aumentan los deepfakes de voz de celebridades

Bitdefender ha publicado una investigación sobre el rápido crecimiento de los deepfakes de voz de celebridades en las plataformas de redes sociales más populares, como Facebook e Instagram, con el fin de estafar a los usuarios.

Los deepfakes utilizan audio generado por IA (de voces de personas famosas) y lo superponen a videos ya existentes. Los ciberdelincuentes utilizan la tecnología de clonación de voz para replicar el tono de voz de celebridades como Jeniffer Aniston, Oprah, Elon Musk, Tiger Woods y Mr. Beast, entre otros, para respaldar concursos falsos, juegos de azar y oportunidades de inversión.

Conclusiones del estudio
  • Las estafas de clonación de voz analizadas se dirigieron al menos a 1 millón de usuarios en Estados Unidos y Europa, incluida España. Un anuncio en particular llegó a 100.000 usuarios.
  • Las campañas se centran en concursos falsos, juegos de azar y oportunidades de inversión.
  • Los anuncios fraudulentos a través de deepfakes de voz se encuentran en las siguientes plataformas de Meta: Facebook, Instagram, Audience Network y Messenger.
  • Muchas de las campañas están vinculadas a sitios web clonados por delincuentes de medios de comunicación como The New York Times, Digi24 y Dyson para tener mayor credibilidad.
  • Los grupos demográficos más afectados son los usuarios de entre 18 y 65 años.
  • Como en la mayoría de las estafas online, el objetivo principal es robar dinero, credenciales e información personal.

Bitdefender aconseja a los usuarios que desconfíen de las ofertas que utilizan el respaldo de personas famosas que son demasiado buenas para ser verdad (porque probablemente no lo sean). Este tipo de estafas está evolucionando muy rápidamente y cada vez es más difícil de detectar a medida que la IA mejora.

TE PUEDE GUSTAR

Denodo, líder en gestión de datos, ha estado presente en el Foro ICEX 2024 en Madrid de la mano de Ángel Viña, CEO de

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio