Skip to main content

08.05.2024 | Cyber-Sicherheit | Im Fokus | Online-Artikel

Intelligente Technologie macht Finanzkriminelle agiler

verfasst von: Angelika Breinich-Schilly

3 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Künstliche Intelligenz kommt auf beiden Seiten der Finanzkriminalität zum Einsatz: Täter nutzen sie zur Geldwäsche oder für Betrügereien. Banken decken mit KI illegale Transaktionen auf. Doch ihnen sind die Kriminellen oft einen Schritt voraus. 

Die Aufdeckung und Verfolgung krimineller Transaktionen sorgen für enorme Kosten bei Finanzdienstleistern. Nur gut jedes vierte Unternehmen (28 Prozent) hat im Jahr 2023 laut einer internationalen Umfrage weniger als fünf Millionen US-Dollar in die Bekämpfung von Geldwäsche und Betrug investiert. Etwa jedes sechste Finanzinstitut gab im vergangenen Jahr 25 Millionen US-Dollar oder mehr für den Kampf gegen Cyber-Kriminelle aus. 

Und oft reicht das nicht, wie der Report "2024 AI, Fraud, and Financial Crime Survey" des IT-Sicherheitsspezialisten Biocatch bestätigt. Fast 70 Prozent der rund 600 befragten Geldwäsche- und Compliance-Experten aus elf Ländern geben an, dass die Angreifer Künstliche Intelligenz geschickter einsetzen als Banken ihrerseits bei der Bekämpfung der Attacken. Und auch für 2024 erwarten die meisten Teilnehmenden keine Besserung.

KI personalisiert den Betrug

"Künstliche Intelligenz optimiert jeden erdenklichen Betrug", kommentiert Tom Peacock, Director of Global Fraud Intelligence bei Biocatch, die Ergebnisse der im April veröffentlichten Studie. "Sie lokalisiert Sprache und Eigennamen perfekt, sodass für jedes Opfer personalisierte Betrugsversuche entstehen - mit Bildern, Videos oder Audio-Inhalten." Das ermögliche grenzenlose Betrügereien und erfordere neue Strategien und Technologien der Finanzinstitute, um Kunden zu schützen.

91 Prozent der Befragten unter anderem aus den USA, Großbritannien, Deutschland, den Vereinigten Arabischen Emiraten und Australien geben an, dass ihr Unternehmen bei wichtigen Kunden die Sprachverifizierung bereits überdenkt. Denn 70 Prozent haben im vergangenen Jahr die Verwendung mittels KI geschaffener synthetischer Identitäten bei der Neukundenakquise identifiziert. 

Schäden durch synthetische Identitäten

Daten der US-Notenbank Federal Reserve aus dem Jahr 2019 belegen, das dort die Zahl der Betrügereien mittels dieser künstlichen Falschidentitäten bei der Kontoeröffnung am schnellsten steigt und bei den Finanzunternehmen jährlich für Milliardenkosten sorgen. Häufigste Grundlage in den USA für Kriminelle sind Personally Identifiable Information. Dabei handelt es sich um echte Daten, meist von Kindern, Senioren oder Wohnsitzlosen, die intelligente Tools mit synthetischen Informationen anreichern. Auch die Stimme ist in diesen Fällen häufig KI-generiert.

Dabei nutzt auch die Finanzindustrie größtenteils Künstliche Intelligenz im Kampf gegen Geldwäsche und Betrug. Bei 87 Prozent der Unternehmen hat die Technologie die Reaktionsgeschwindigkeit auf potenzielle Bedrohungen bereits verbessert. 

Betrug vor der ersten Transaktion vereiteln

"Ein Monitoring ist jedoch immer reaktiv. Im Augenblick einer Transaktion ist die Bank gegenüber potenziellen Kriminellen im Rückstand", bringt es Wiebe Fokma, Director Global Advisory bei Biocatch, in der Zeitschrift "Bankmagazin" auf den Punkt. "Daher sollten Finanzinstitute bereits den Prozess der Kontoeröffnung ins Visier nehmen und so die Zeit bis zur ersten Transaktion nutzen, um Betrugsversuche zu vereiteln." 

Allerdings seien die Kriminellen auch darauf vorbereitet. "Sie pflegen ihre Konten und lassen sie 'reifen'. Denn je älter ein Konto ist, desto vertrauenswürdiger wirkt es auf die Bank." Das gelte auch für Geldwäscher, die den Deep-Learning-Algorithmus nutzen. Dieser ermögliche echt wirkende Dialoge. "Sie generieren mithilfe von KI-Bots Gespräche, die scheinbar legitime Geschäftsaktivitäten zum Gegenstand haben, aber in Wirklichkeit den Transfer von Geldern verschleiern sollen", so Fokma. 

Auffällige Verhaltensmuster mit KI erkennen

Finanzunternehmen benötigten daher technische Lösungen, die menschliches Verhalten mithilfe von KI und ML detailliert analysieren können. Diese erkennen nicht nur verdächtige Texte und Sprachmuster, sondern auch Verhaltensweisen wie beispielsweise das ungewöhnlich routinierte Abarbeiten von Schritten bei der Kontoeröffnung. "Denn in der Regel kennen sich Kriminelle mit den Prozessen im Bankwesen besser aus als 'echte' Kunden", so der Experte. 

Durch den Einsatz von KI zur detaillierten Untersuchung des menschlichen Verhaltens sei es so möglich, im Zeitraum von der Kontoeröffnung bis zur ersten Transaktion kriminelle Konten zu identifizieren und auf diese Weise Geldwäschetransaktionen zu verhindern. 

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren