Bankenbetrug mit KI
15.11.2024

KI-gestützter Bankenbetrug nimmt

3 Min. Lesezeit

Wichtig in Kürze (WIK): Fast die Haelfte aller Betrugsversuche im Finanzsektor sind bereits KI-gesteuert. Banken und Finanzdienstleister müssen ihre Abwehrstrategien anpassen, um mit der rasanten Entwicklung KI-gestuetzter Angriffsmethoden Schritt zu halten.


Fast die Hälfte aller Betrugsversuche im Finanzsektor sind schon KI-gesteuert, wie eine neue Studie zeigt. Banken müssen sich daher etwas einfallen lassen, um die Konten ihrer Kund:innen besser zu schützen.

 

Betrüger:innen haben es immer mehr auf die Kund:innen von Banken und Fintechs abgesehen, wie eine Auswertung des Internationalen Währungsfonds (IWF) zeigt. Demnach betraf ein Fünftel aller gemeldeten Cybervorfälle in den zurückliegenden zwei Jahrzehnten den Finanzsektor. Die weltweiten Verluste der Institute seit 2020 haben sich laut dem Global Financial Stability Report auf 2,5 Milliarden US-Dollar summiert.

 

Sehr stark gestiegen sind demnach durch KI gestützte Angriffe auf Bankkonten. Diese machen dem Dienstleister Signicat und t3n zufolge mittlerweile schon 42,5 Prozent aller aufgedeckten Betrugsversuche im Finanz- und Zahlungsverkehr aus. Schätzungsweise 29 Prozent dieser Versuche sollen auch schon zum Erfolg geführt haben. Die Zahl dieser Betrugsmaschen sei in den vergangenen drei Jahren um 80 Prozent besonders stark gestiegen.

 

Deepfakes heute sehr en vogue

War früher Identitätsdiebstahl ganz oben, gehört dieser nicht mehr zu den drei Top-Betrugsmaschen, im Finanzsektor, wie der Signicat-Report weiter zeigt. Heute versuchen die Betrüger:innen eher, bereits genutzte Konten zu kapern, als neue zu erstellen, womit sie sowohl auf Konten von Privatpersonen als auch von Unternehmen zielen.So greifen sie KI-gestützt vermehrt über Deepfakes, synthetische Identitäten und Phishing-Kampagnen an. Deepfake und Social-Engineering treten dabei vermehrt anstelle von „einfachen“ Dokumentenfälschungen, heißt es in dem Report weiter.

 

Hier gibt es von Land zu Land Unterschiede. In Deutschland ist Ausweisfälschung immer noch ein großes Problem für die Geldinstitute, in Norwegen sind es deutlich häufiger Deepfakes.Bisher hätte nur etwa jedes fünfte Finanzunternehmen (22 Prozent) selbst KI-Schutzmaßnahmen ergriffen. Drei Viertel der Befragten planen Budgeterhöhungen, um KI-gesteuerten Betrug zu bekämpfen.

 

Mehr Mitverantwortung der Finanzinstitute gefordert

Sicherheitsverantwortliche stimmen zwar darin überein, dass KI eine wichtige Triebkraft für Identitätsbetrug ist und mehr Menschen als zuvor Opfer davon werden. Jedoch habe nur etwa jede/r Dritte auf dem Schirm, dass KI bereits zum Fälschen von Identifikationsnachweisen, für den Aufbau von Deepfake-Identitäten oder Voice-Deepfakes genutzt werden kann.

 

Dabei setzten die Verantwortlichen unter anderem auf stärkere Passwörter, obwohl diese keinen zuverlässigen Schutz gegen KI-gesteuerten Identitätsbetrug darstellen. Weit verbreitet ist auch die Meinung, dass persönliche Interviews oder Kundenkontakte Schutz vor Missbrauch bieten. Diese sind aber sehr aufwendig und scheiden daher als Sicherheitsmechanismus für Banken und Fintechs im Massengeschäft eher aus.Dass KI eine Bedrohung darstellt, haben viele Finanzunternehmen mittlerweile erkannt. Mehr als drei Viertel von ihnen verfügen bereits über Spezialteams, die sich mit KI-gestütztem Identitätsbetrug befassen.

 

Zudem rüsten sie auch entsprechend technologisch auf und oder rechnen damit, dass sie künftig ein höheres Budget für die Cyberabwehr zur Verfügung haben werden. Knapp ein Viertel hat schon konkrete Maßnahmen ergriffen.Laut einer Umfrage des Sicherheitsdienstleisters Biocatch nutzen drei Viertel der Finanzinstitute schon selbst KI, um Angriffen zu begegnen. 87 Prozent konnten bestätigen, dass KI-Tools die Reaktionsfähigkeit auf potenziale Bedrohungen erhöht haben.

 

Allerdings sehen sich die Institute nur teilweise in der Pflicht, für entstandene Schäden bei Kund:innen aufzukommen und reden sie sich oft auf fahrlässigen Umgang mit deren Zugangsdaten heraus. Das zeigt auch ein Report der Europäischen Bankenaufsicht (EBA), wonach die Verbraucher:innen immer noch für 79 Prozent der ihnen entstandenen Schäden geradestehen müssen. Verbraucherschützer fordern daher Nachbesserungen auf europäischer Ebene. 

KENNZAHL
42,5 Prozent
aller aufgedeckten Betrugsversuche im Finanz- und Zahlungsv
KENNZAHL
29 Prozent
dieser Versuche sollen auch schon zum Erfolg geführt haben
KENNZAHL
80 Prozent
besonders stark gestiegen. Deepfakes heute sehr en vo

„Betrüger:innen haben es immer mehr auf die Kund:innen von Banken und Fintechs abgesehen, wie eine Auswertung des Internationalen Währungsfonds (IWF) zeigt.“

Häufig gestellte Fragen

Wie nutzen Betrueger KI?

Deepfake-Videos für CEO-Fraud, KI-generierte Phishing-Mails, automatisierte Kontoübernahmen durch Credential Stuffing und synthetische Identitaeten für Kreditbetrug. Die Qualität der Angriffe steigt dramatisch.

Wie können Banken sich schützen?

Durch eigene KI-Systeme für Anomalie-Erkennung, verhaltensbasierte Authentifizierung, Echtzeit-Transaktionsmonitoring und enge Zusammenarbeit im Bankensektor beim Austausch von Bedrohungsinformationen.

Sind Privatkunden gefaehrdet?

Ja, besonders durch Deepfake-Anrufe und hochwertige Phishing-Mails, die von echten Banknachrichten kaum zu unterscheiden sind. Zwei-Faktor-Authentifizierung und gesundes Misstrauen bei unerwarteten Kontaktaufnahmen sind der beste Schutz.

 

Lesetipps der Redaktion

Mehr aus dem MBF Media Netzwerk

cloudmagazin | SecurityToday | Digital Chiefs

Quelle Titelbild: Pexels / Pixabay.

Auch verfügbar in

Ein Magazin der evernine media GmbH