Según un informe de iProov sobre el impacto de la IA generativa en la verificación de identidad remota, los hackers están usando videos deepfake junto a emuladores de cámaras para eludir la seguridad biométrica. Este método aumentó un 353% entre la primera y segunda mitad de 2023.
Como las herramientas de Inteligencia Artificial generativa evolucionan y su disponibilidad cada vez se hace más accesible, es esperable que las amenazan también aumenten. Después de todo, algunos pueden aprovecharse y usarlas para hackear, violar la privacidad del otro, entre otras cosas. Para hacer eso, y más que nada también para evitar la seguridad biométrica, muchos están usando la combinación de videos deepfake y emuladores de cámaras, un método que aumentó un 353% entre la primera y la segunda mitad de 2023, según reveló un informe de iProov.
En una investigación sobre el impacto de la IA generativa en la verificación de identidad remota, iProov (proveedor líder de soluciones de identidad biométrica basadas en la ciencia) reveló cómo los malos actores utilizan herramientas avanzadas de IA, como deepfakes, emuladores y otras herramientas de manipulación de metadatos, para crear nuevas amenazas. El informe se elaboró con datos y análisis del Centro de Operaciones de Seguridad de iProov (iSOC).
“La IA generativa ha proporcionado un gran impulso a los niveles de productividad de los actores de amenazas: estas herramientas son de costo relativamente bajo, de fácil acceso y pueden usarse para crear medios sintetizados altamente convincentes, como intercambios de rostros u otras formas de deepfakes que pueden engañar fácilmente al ojo del ser humano, así como soluciones biométricas menos avanzadas. Esto sólo sirve para aumentar la necesidad de una verificación de identidad remota altamente segura”, afirmó Andrew Newell, director científico de iProov.
Si bien los intercambios faciales con herramientas de IA generativa son un desafío para los sistemas de verificación de identidad, los sistemas biométricos avanzados pueden identificarlos para evitar este tipo de ataques. Sin embargo, en 2023, algunos actores maliciosos comenzaron a usar herramientas cibernéticas, como emuladores, para mostrar su propia cámara virtual falsa con el video deepfake y así eludir las soluciones biométricas.
Esta laguna de seguridad parece que la encontraron varios. Según el informe de iProov, los ataques de inyección contra la web móvil aumentaron un 255% entre el primer y el segundo semestre de 2023. Pero eso no es todo. La cosa empeora cuando nos fijamos solo en los ataques que usan deepfake: entre el primer y el segundo semestre de 2023 hubo un aumento del 704%. Otra cosa que sufrió un gran aumento fue el uso de medios deepfake combinados con la suplantación de metadatos, que subió un 672% entre el primer y segundo semestre del año pasado.
Por último, el informe de iProov también afirma que los piratas informáticos intercambian información para mejorar y eludir los sistemas biométricos y de identificación humana remota o identificación por video. Es más, lo analistas observaron un crecimiento significativo en el número de grupos que participan en estos ataques. De los grupos identificados por el iSOC, el 47% se crearon en 2023.