KI-gestützter Bankenbetrug nimmt stark zu
Fast die Hälfte aller Betrugsversuche im Finanzsektor sind schon KI-gesteuert, wie eine neue Studie zeigt. Banken müssen sich daher etwas einfallen lassen, um die Konten ihrer Kund:innen besser zu schützen.
Betrüger:innen haben es immer mehr auf die Kund:innen von Banken und Fintechs abgesehen, wie eine Auswertung des Internationalen Währungsfonds (IWF) zeigt. Demnach betraf ein Fünftel aller gemeldeten Cybervorfälle in den zurückliegenden zwei Jahrzehnten den Finanzsektor. Die weltweiten Verluste der Institute seit 2020 haben sich laut dem Global Financial Stability Report auf 2,5 Milliarden US-Dollar summiert.
Sehr stark gestiegen sind demnach durch KI gestützte Angriffe auf Bankkonten. Diese machen dem Dienstleister Signicat und t3n zufolge mittlerweile schon 42,5 Prozent aller aufgedeckten Betrugsversuche im Finanz- und Zahlungsverkehr aus. Schätzungsweise 29 Prozent dieser Versuche sollen auch schon zum Erfolg geführt haben. Die Zahl dieser Betrugsmaschen sei in den vergangenen drei Jahren um 80 Prozent besonders stark gestiegen.
Deepfakes heute sehr en vogue
War früher Identitätsdiebstahl ganz oben, gehört dieser nicht mehr zu den drei Top-Betrugsmaschen, im Finanzsektor, wie der Signicat-Report weiter zeigt. Heute versuchen die Betrüger:innen eher, bereits genutzte Konten zu kapern, als neue zu erstellen, womit sie sowohl auf Konten von Privatpersonen als auch von Unternehmen zielen.
So greifen sie KI-gestützt vermehrt über Deepfakes, synthetische Identitäten und Phishing-Kampagnen an. Deepfake und Social-Engineering treten dabei vermehrt anstelle von „einfachen“ Dokumentenfälschungen, heißt es in dem Report weiter.
Hier gibt es von Land zu Land Unterschiede. In Deutschland ist Ausweisfälschung immer noch ein großes Problem für die Geldinstitute, in Norwegen sind es deutlich häufiger Deepfakes.

Bisher hätte nur etwa jedes fünfte Finanzunternehmen (22 Prozent) selbst KI-Schutzmaßnahmen ergriffen. Drei Viertel der Befragten planen Budgeterhöhungen, um KI-gesteuerten Betrug zu bekämpfen.
Mehr Mitverantwortung der Finanzinstitute gefordert
Sicherheitsverantwortliche stimmen zwar darin überein, dass KI eine wichtige Triebkraft für Identitätsbetrug ist und mehr Menschen als zuvor Opfer davon werden. Jedoch habe nur etwa jede/r Dritte auf dem Schirm, dass KI bereits zum Fälschen von Identifikationsnachweisen, für den Aufbau von Deepfake-Identitäten oder Voice-Deepfakes genutzt werden kann.
Dabei setzten die Verantwortlichen unter anderem auf stärkere Passwörter, obwohl diese keinen zuverlässigen Schutz gegen KI-gesteuerten Identitätsbetrug darstellen. Weit verbreitet ist auch die Meinung, dass persönliche Interviews oder Kundenkontakte Schutz vor Missbrauch bieten. Diese sind aber sehr aufwendig und scheiden daher als Sicherheitsmechanismus für Banken und Fintechs im Massengeschäft eher aus.
Dass KI eine Bedrohung darstellt, haben viele Finanzunternehmen mittlerweile erkannt. Mehr als drei Viertel von ihnen verfügen bereits über Spezialteams, die sich mit KI-gestütztem Identitätsbetrug befassen.
Zudem rüsten sie auch entsprechend technologisch auf und oder rechnen damit, dass sie künftig ein höheres Budget für die Cyberabwehr zur Verfügung haben werden. Knapp ein Viertel hat schon konkrete Maßnahmen ergriffen.

Laut einer Umfrage des Sicherheitsdienstleisters Biocatch nutzen drei Viertel der Finanzinstitute schon selbst KI, um Angriffen zu begegnen. 87 Prozent konnten bestätigen, dass KI-Tools die Reaktionsfähigkeit auf potenziale Bedrohungen erhöht haben.
Allerdings sehen sich die Institute nur teilweise in der Pflicht, für entstandene Schäden bei Kund:innen aufzukommen und reden sie sich oft auf fahrlässigen Umgang mit deren Zugangsdaten heraus. Das zeigt auch ein Report der Europäischen Bankenaufsicht (EBA), wonach die Verbraucher:innen immer noch für 79 Prozent der ihnen entstandenen Schäden geradestehen müssen. Verbraucherschützer fordern daher Nachbesserungen auf europäischer Ebene.
Quelle Titelbild: Pexels / Pixabay.