Intercambio de rostros: El impacto de los deepfakes en la verificación de la identidad tiene en alerta a los expertos

Deepfakes
Sin comentarios Facebook Twitter Flipboard E-mail

El avance de técnicas de generación de imágenes y sonidos mediante modelos de inteligencia artificial -los deepfakes- ha impulsado un aumento del 704% en los ataques de intercambio de rostros reportados del primer semestre al segundo semestre de 2023.

Ese fenómeno viene acompañado de un aumento, en el mismo periodo, del 672% del primer semestre de 2023 al segundo semestre de 2023 en el uso de deepfakes que se implementan junto con la suplantación de metadatos, y un aumento del 353 % en el número de actores de amenazas que utilizan emuladores, una forma de ataque de inyección de video.

Todas estas conclusiones estan recogidas en el  Reporte de Inteligencia de Amenazas iProov 2024: El impacto de la IA generativa en la verificación remota de la identidad.


El informe examina el panorama de amenazas de verificación de identidad remota, proporcionando información de primera mano sobre la anatomía de un ataque de inyección digital y exponiendo las metodologías, las tendencias de las amenazas y los impactos de los actores malintencionados.

'Intercambio de caras'

Face swap

El reporte, que se elabora utilizando datos y análisis de expertos del Centro de Operaciones de Seguridad de iProov (iSOC- iProov’s Security Operations Center), revela cómo actores criminales están utilizando herramientas avanzadas de IA, como intercambios de caras convincentes junto con emuladores y otras metodologías de manipulación de metadatos (herramientas tradicionales de ciberataque), para crear vectores de amenazas nuevos y ampliamente no mapeados.

Los intercambios faciales se crean utilizando herramientas de IA generativa y presentan un gran desafío para los sistemas de verificación de identidad debido a su capacidad para manipular rasgos clave de la imagen o los videos.

Un intercambio de caras se puede generar fácilmente mediante software estándar y se aprovecha alimentando la salida manipulada o sintética a una cámara virtual. A diferencia del ojo humano, los sistemas biométricos avanzados pueden ser resistentes a este tipo de ataques.

Sin embargo, en 2023, los actores maliciosos aprovecharon una laguna en algunos sistemas mediante el uso de herramientas cibernéticas, como emuladores, para ocultar la existencia de cámaras virtuales, lo que complicó la detección de los proveedores de soluciones biométricas. Esto creó la tormenta perfecta con los atacantes haciendo de los intercambios de caras y los emuladores sus herramientas preferidas para perpetrar el fraude de identidad.

A lo largo de 2022 y 2023, los niveles de ataques indiscriminados oscilaron entre 50.000 y 100.000 veces al mes. También hubo un aumento considerable en el número de actores y una mejora en la sofisticación de las herramientas utilizadas.

También se observó un crecimiento significativo en el número de grupos que participan en el intercambio de información relacionada con ataques contra sistemas biométricos y de identificación humana remota o "identificación por video", lo que evidencia el enfoque colaborativo que ahora están adoptando los actores de amenazas. De los grupos identificados por los analistas de iProov, casi la mitad (47%) se crearon en 2023.

Inicio