Die rapide Verbreitung von Deepfakes und vergleichbaren KI-gestützten Manipulationen konfrontiert insbesondere die Finanzbranche mit völlig neuen Gefahren. Herkömmliche Kontrollmechanismen greifen zunehmend ins Leere, sobald Täuschungen durch hochentwickelte Algorithmen erzeugt werden.
Deepfakes sind durch generative Verfahren veränderte oder erzeugte Medieninhalte – seien es Videos, Audiospuren, Bilder oder Texte. Grundlage bilden Deep-Learning-Modelle wie Generative Adversarial Networks, die Ergebnisse liefern, die selbst für Fachleute oder automatische Prüfsysteme kaum noch vom Original zu unterscheiden sind. Täter nutzen diese Technik zum Stimmenklonen, zur Manipulation von Gesichtern oder für täuschend echte Dokumentenfälschungen. Auch KI-Chatbots können so programmiert werden, dass sie Social-Engineering-Angriffe in Echtzeit perfektionieren.
Die Risiken sind keineswegs theoretisch. Ein besonders aufsehenerregender Fall ereignete sich Anfang 2024 in Hongkong: Eine Mitarbeiterin überwies 25 Millionen US-Dollar, nachdem sie per Videokonferenz vermeintliche Anweisungen ihres CFO und anderer Führungskräfte erhalten hatte. Die Teilnehmer waren in Wahrheit Deepfake-Avatare, die Aussehen und Stimme täuschend echt nachahmten. Klassische Sicherheitsmechanismen wie Rückruf, Plausibilitätskontrolle oder Vier-Augen-Prinzip versagten vollständig. Schon 2019 fiel ein britischer Manager einem gefälschten Anruf zum Opfer, bei dem die Stimme seines Vorgesetzten nachgebildet war – er leitete 220.000 Euro weiter. Auch Privatpersonen sind betroffen: Betrugsmuster wie der „Enkeltrick“ werden durch synthetische Stimmen noch überzeugender. Studien zeigen, dass die meisten Menschen echte und künstlich erzeugte Stimmen nicht zuverlässig unterscheiden können.
Mit generativer Software lassen sich ganze Identitätspakete erstellen. Kriminelle produzieren gefälschte Ausweise, manipulierte Fotos oder vollständige synthetische Profile, die für Kontoeröffnungen oder Kreditaufnahmen genutzt werden. Selbst Live-Ident-Verfahren werden durch zuvor aufgenommene Videos oder animierte Avatare unterlaufen, wodurch Liveness-Prüfungen wirkungslos werden.
Auch etablierte Kontrollsysteme geraten an ihre Grenzen. Biometrische Verfahren wie Gesichtserkennung oder Stimmprofile lassen sich täuschen. Multifaktor-Authentifizierung verliert ihren Wert, wenn der eigentliche Nutzer durch Deepfake-Manipulation getäuscht wird. Selbst Rückrufprozesse können kompromittiert werden, sobald Angreifer auch den zweiten Kommunikationskanal imitieren. Systeme zur Erkennung verdächtiger Transaktionen sind angreifbar, wenn Täuschungen bewusst so gestaltet werden, dass sie unauffällig bleiben.
Die Abwehr erfordert einen vielschichtigen Ansatz. Technisch sind verbesserte Liveness-Detection-Verfahren notwendig – etwa Aufgaben, die spontane Reaktionen erfordern, oder die Analyse von Mikroexpressionen, die sich in Replay-Videos nicht reproduzieren lassen. KI-basierte Prüfprogramme, die Artefakte in Audio- und Videodateien erkennen, können zusätzliche Sicherheit bieten, auch wenn sie keine vollständige Verlässlichkeit gewährleisten. Authentifizierungsprozesse sollten um Codewörter, physische Faktoren wie Token oder Push-Bestätigungen und schwer imitierbare Kommunikationskanäle ergänzt werden.
Organisatorisch müssen Zahlungsrichtlinien an die neue Bedrohungslage angepasst werden. Ungewöhnliche Anweisungen per Telefon oder Video dürfen nicht mehr ohne zusätzliche Verifizierung umgesetzt werden. Das Vier-Augen-Prinzip ist auf Authentifizierungsvorgänge auszudehnen. Notfallprotokolle müssen klar vorgeben, wie im Verdachtsfall gehandelt wird und welche Eskalationswege bestehen. Eine offene Fehler- und Meldekultur ist notwendig, damit Mitarbeiter Auffälligkeiten frühzeitig melden können.
Besonders wichtig ist die Schulung der Beschäftigten. Sie müssen lernen, dass optische oder akustische Echtheit kein hinreichendes Sicherheitsmerkmal mehr ist. In Trainings mit simulierten Angriffen sollen sie ein „gesundes Misstrauen“ entwickeln. Hinweise wie ungewöhnliche Verzögerungen bei der Videoübertragung, unnatürliche Sprachmelodien oder fehlendes Detailwissen des Gegenübers müssen bewusst wahrgenommen und als Warnsignale verstanden werden.
Auf Unternehmensebene braucht es klare Strukturen im Umgang mit KI-Risiken. Dazu zählen interne Richtlinien, regelmäßige Evaluierungen technischer Entwicklungen und gegebenenfalls die Einrichtung eines speziellen KI-Risk-Committees oder die Erweiterung des Mandats des Chief Information Security Officers. Regulatorische Vorgaben wie der EU-KI-Act oder Leitlinien von Finanzaufsichtsbehörden müssen systematisch berücksichtigt werden.
International sind bereits erste Ansätze erkennbar. In den USA veröffentlichte FinCEN 2024 spezielle Warnhinweise zu Deepfake-Betrug. In der EU schreibt der KI-Act Transparenzpflichten für KI-generierte Inhalte vor, deren Durchsetzung jedoch schwierig bleibt, da Kriminelle naturgemäß keine Kennzeichnung beachten. Effektiver Schutz wird deshalb nur durch die Kombination rechtlicher Rahmenbedingungen, technischer Innovationen und organisatorischer Wachsamkeit erreicht.
Deepfakes verändern die Regeln im Bereich der Betrugsbekämpfung grundlegend. Unternehmen sind gezwungen, ihre Systeme zur Fraud Detection vollständig neu auszurichten – mit einem Mix aus technologischen Instrumenten, organisatorischen Anpassungen, geschultem Personal und klarer Governance. Wer diese Entwicklung ignoriert, läuft Gefahr, in kürzester Zeit Opfer von Angriffen zu werden, die Verluste in Millionenhöhe verursachen.