Bankenbetrug mit KI
31.03.2026

El fraude bancario con IA aumenta rápidamente

3 min de lectura

Lo esencial en breve (LEB): Casi la mitad de todos los intentos de fraude en el sector financiero ya están impulsados por inteligencia artificial. Los bancos y proveedores de servicios financieros deben adaptar sus estrategias defensivas para mantenerse al ritmo del rápido avance de los métodos de ataque basados en IA.


Casi la mitad de todos los intentos de fraude en el sector financiero ya están impulsados por inteligencia artificial, según revela un nuevo estudio. Por ello, los bancos deben idear nuevas medidas para proteger mejor las cuentas de sus clientas y clientes.

 

Los estafadores tienen cada vez más como objetivo a las clientas y clientes de bancos y fintechs, según un análisis del Fondo Monetario Internacional (FMI). De acuerdo con este informe, una quinta parte de todos los incidentes cibernéticos notificados en las últimas dos décadas afectó al sector financiero. Las pérdidas globales sufridas por las entidades desde 2020 ascienden, según el Informe sobre la Estabilidad Financiera Mundial, a 2,5 mil millones de dólares estadounidenses.

 

En particular, han aumentado considerablemente los ataques a cuentas bancarias respaldados por inteligencia artificial. Según el proveedor Signicat y t3n, estos ya representan el 42,5 % de todos los intentos de fraude detectados en el ámbito financiero y de pagos. Se estima que aproximadamente el 29 % de estos intentos ya han tenido éxito. En los últimos tres años, el número de este tipo de fraudes ha crecido especialmente, con un incremento del 80 %.

 

Los deepfakes están hoy muy de moda

Si antes el robo de identidad ocupaba el primer lugar, ya no forma parte de las tres principales estafas en el sector financiero, según revela además el informe de Signicat. Hoy en día, los estafadores intentan más bien tomar el control de cuentas ya existentes en lugar de crear otras nuevas, apuntando tanto a cuentas de particulares como de empresas. Para ello, recurren cada vez más a ataques basados en inteligencia artificial (IA), como deepfakes, identidades sintéticas y campañas de phishing. Según el informe, los deepfakes y las técnicas de ingeniería social están sustituyendo progresivamente a las «simples» falsificaciones documentales.

 

Aquí existen diferencias entre países. En Alemania, la falsificación de documentos de identidad sigue siendo un problema grave para las entidades financieras, mientras que en Noruega los deepfakes son claramente más frecuentes. Hasta ahora, solo alrededor de una de cada cinco empresas financieras (22 por ciento) ha implementado medidas propias de protección basadas en IA. Tres cuartas partes de los encuestados planean aumentar sus presupuestos para combatir el fraude impulsado por inteligencia artificial.

 

Se exige una mayor corresponsabilidad de las entidades financieras

Los responsables de seguridad coinciden en que la inteligencia artificial (IA) constituye un importante motor del fraude de identidad y que más personas que nunca están siendo víctimas de este delito. Sin embargo, solo alrededor de una de cada tres personas es consciente de que la IA ya se utiliza para falsificar documentos de identidad, crear identidades deepfake o generar deepfakes de voz.

 

En este contexto, los responsables confían, entre otras medidas, en contraseñas más robustas, aunque estas no ofrecen una protección fiable contra el fraude de identidad impulsado por IA. También es muy extendida la creencia de que las entrevistas personales o el contacto directo con los clientes protegen contra el abuso. No obstante, estos métodos resultan extremadamente costosos y, por tanto, no son viables como mecanismos de seguridad para bancos y empresas fintech en operaciones masivas. Muchas entidades financieras ya han reconocido que la IA representa una amenaza: más de tres cuartas partes disponen ya de equipos especializados dedicados a combatir el fraude de identidad asistido por IA.

 

Además, estas instituciones están invirtiendo en tecnología específica o prevén contar con presupuestos más elevados para ciberdefensa en el futuro. Casi una cuarta parte ya ha adoptado medidas concretas. Según una encuesta del proveedor de servicios de seguridad BioCatch, tres cuartas partes de las entidades financieras ya utilizan IA para hacer frente a ataques. El 87 % confirmó que las herramientas basadas en IA han mejorado su capacidad de respuesta ante posibles amenazas.

 

Sin embargo, las entidades se consideran solo parcialmente responsables de indemnizar a sus clientes por los daños sufridos y suelen justificarse argumentando un uso negligente de las credenciales de acceso por parte de estos. Así lo refleja también un informe de la Autoridad Bancaria Europea (EBA, por sus siglas en inglés), según el cual los consumidores aún deben asumir el 79 % de las pérdidas derivadas de estos fraudes. Por ello, las organizaciones de defensa del consumidor exigen mejoras a nivel europeo.

INDICADOR
42,5 por ciento
de todos los intentos de fraude detectados en el sector financiero y de pagos
INDICADOR
29 por ciento
de estos intentos ya habrían tenido éxito
INDICADOR
80 por ciento
han aumentado notablemente. Hoy en día, los deepfakes son muy frecuentes

«Los estafadores tienen cada vez más como objetivo a los clientes de bancos y empresas fintech, según revela un análisis del Fondo Monetario Internacional (FMI).»

Preguntas frecuentes

¿Cómo utilizan los estafadores la IA?

Vídeos deepfake para fraudes con suplantación de directivos (CEO fraud), correos electrónicos de phishing generados por IA, tomas automatizadas de cuentas mediante credential stuffing e identidades sintéticas para fraudes crediticios. La calidad de estos ataques está aumentando drásticamente.

¿Cómo pueden protegerse los bancos?

Mediante sistemas propios de IA para la detección de anomalías, autenticación basada en el comportamiento, monitorización en tiempo real de transacciones y una estrecha colaboración dentro del sector bancario para intercambiar información sobre amenazas.

¿Están en riesgo los clientes particulares?

Sí, especialmente por llamadas deepfake y correos de phishing de alta calidad que resultan casi indistinguibles de comunicaciones reales del banco. La autenticación de dos factores y una actitud prudentemente desconfiada ante contactos inesperados constituyen la mejor protección.

 

Fuente de la imagen de portada: Pexels / Pixabay.

También disponible en

Una revista de evernine media GmbH