Publicado 05/10/2024 03:02

MÉXICO.- Donald Trump, Elon Musk y Taylor Swift lideran la lista de celebridades más suplantadas en deepfakes durante 2024

Latam.-Portaltic.-Donald Trump, Elon Musk y Taylor Swift son los famosos más 'deepfakeados' en 2024
Latam.-Portaltic.-Donald Trump, Elon Musk y Taylor Swift son los famosos más 'deepfakeados' en 2024 - KAPWING

MÉXICO, 5 Oct (EUROPA PRESS)

Donald Trump, Elon Musk y Taylor Swift encabezan la lista de personalidades públicas más afectadas por los 'deepfakes' en 2024, una tendencia alarmante que utiliza la inteligencia artificial para alterar voz e imagen, según revela una investigación de la plataforma Kapwing. Esta práctica, que ha ganado popularidad en internet y redes sociales, representa un riesgo significativo para la democracia y la confianza pública.

Los 'deepfakes' son videos alterados mediante avanzadas técnicas de aprendizaje profundo e IA, capaces de generar imágenes falsas que simulan ser reales. Esta tecnología, anteriormente limitada a los desarrolladores, ahora está al alcance de todos gracias a progresos en clonación de voz y sincronización de labios de código abierto. La clonación de voz, por ejemplo, precisa apenas de una muestra de 10 a 15 segundos para generar un modelo capaz de replicar la voz de cualquier persona a partir de texto.

En 2024, Donald Trump fue el más 'deepfakeado' con 12.384 solicitudes, seguido por Elon Musk con 9.544 y Taylor Swift con 8.202, según datos recopilados por Kapwing en un popular canal de Discord dedicado a la creación de videos con IA. Otras personalidades notables también han sido blanco de estos videos manipulados, incluidos el presidente Joe Biden, actores como Tom Cruise, Dwayne Johnson y Will Smith, deportistas como Cristiano Ronaldo, Leo Messi y Michael Jordan, junto con artistas y tecnólogos como Beyoncé y Mark Zuckerberg, respectivamente.

A pesar de que muchos 'deepfakes' se crean para el entretenimiento, su realismo puede confundir y engañar a los espectadores, fomentando la difusión de noticias falsas y proporcionando a los cibercriminales una herramienta poderosa para la estafa. Kapwing sugiere prestar especial atención al audio y al video para detectar estas falsificaciones, observando inconsistencias en el movimiento de los labios, gestos corporales antinaturales y un tono de voz monótono que puede indicar la manipulación por IA.

"Las conclusiones de nuestro estudio muestran claramente que los 'deepfakes' de video ya son algo habitual, al igual que las herramientas que pueden utilizarse para hacerlos. Es necesario que estas herramientas estén disponibles de forma segura", afirmó Eric Lu, cofundador de Kapwing. La plataforma espera que otros proveedores también aclaren cuándo se altera el contenido y tomen medidas para garantizar la seguridad.