Solo el 24% de los usuarios puede detectar un 'deepfake': ¿cómo pueden protegerse los bancos?

Captura De Pantalla 2023 05 10 A La S 10 06 55
Sin comentarios Facebook Twitter Flipboard E-mail

Los deepfakes son archivos de video, imagen o voz, manipulados mediante un software de inteligencia artificial para representar a un individuo diciendo o haciendo algo que no dijo o hizo. Como parecen reales, se han convertido en uno de los recientes métodos de ataque empleado por los delincuentes para obtener acceso no autorizado a las aplicaciones bancarias.

Los sistemas de banca en línea en América Latina han experimentado un marcado crecimiento en los últimos años, en gran parte impulsado por la pandemia, que llevó a millones de usuarios a comenzar a utilizar los servicios financieros en línea. Pero a medida que crece el uso de las plataformas digitales bancarias también lo hacen las actividades delictivas que buscan eludir los sistemas de seguridad y cometer fraudes en línea.

Para combatir este aumento de transacciones fraudulentas, muchos bancos latinoamericanos están adoptando la verificación biométrica remota como un método seguro para facilitar la práctica de 'conozca a su cliente' (KYC), lo que les permite identificar a los clientes desconocidos en el proceso de incorporación y autenticar las transacciones.

“La mayoría de la tecnología biométrica facial incorpora algún tipo de prueba de vida para autenticar a los clientes. Esta prueba utiliza tecnología biométrica para determinar si el individuo que se presenta es un ser humano real y detectar un deepfake si se reprodujo en un dispositivo y se mostró a la cámara”. -- Daniel Molina, VP de iProov América Latina.

Los humanos son ineficaces contra la IA

Los ataques de inyección digital son difíciles de detectar y altamente escalables, lo que los hace atractivos para los estafadores. Además, están siendo compartidos y probados desde varias partes del mundo, ya sea por la propia organización criminal o a través de una economía de delincuencia que los ofrece, por increíble que parezca, como servicio.

De acuerdo con un estudio realizado por Iproov sobre la creciente amenaza de los medios sintéticos (formato de contenido digital creado o modificado mediante algoritmos, especialmente mediante inteligencia artificial) muchas de las soluciones presentes en el mercado no ofrecen defensa contra los ataques deepfake inyectados digitalmente. Una biometría única que asegure tanto la prueba de vida como que el usuario es una persona real, verificada en tiempo real, es esencial en la estrategia de defensa de los bancos contra las falsificaciones profundas.

Pero quizás el hallazgo más preocupante es cuán ineficaces resultan ser las personas a la hora de detectar falsificaciones profundas. Aunque el 57% de los usuarios en el mundo cree que puede detectar con éxito un deepfake, la investigación muestra que solo el 24% lo hace de manera efectiva.

De acuerdo con datos de la consultora McKinsey, que recientemente identificó a Latinoamérica como ‟líder de crecimiento global en el sector bancario”, se estima que actualmente el 20% de los ingresos en línea de la región se pierde debido al fraude.

Comentarios cerrados
Inicio