Audio-Deepfakes – zunehmende KI-Verfügbarkeit lässt Betrugsversuche rasant ansteigen

Vor wenigen Tagen ist ein neuer Report erschienen, der den rasanten Anstieg von Deepfake-Betrugsversuchen in den Blick nimmt. Um mehr als 1.300 Prozent haben Deepfake-Betrugsversuche im vergangenen Jahr zugenommen. 2023 hatten Unternehmen im Schnitt noch lediglich einen Angriff pro Monat zu verkraften gehabt. Im vergangenen Jahr waren es nun schon sieben – pro Tag. Tendenz steigend.

Einen hohen Anteil an diesen Deepfake-Betrugsversuchen haben synthetische Sprachanrufe. Um 475 Prozent haben betrügerische Sprachanrufe auf Versicherungsunternehmen, um 149 Prozent solche auf Finanzunternehmen im vergangenen Jahr zugenommen. Am stärksten ist nach wie vor der Einzelhandel betroffen. Im Schnitt traf es dessen Kontaktzentren fünfmal häufiger als die von Versicherungsunternehmen und Banken. Jeder 127. Anruf ist hier mittlerweile synthetisch generiert.

Die Qualität der Audio-Deepfakes hat dabei, dank der wachsenden Verfügbarkeit und zunehmenden Fähigkeiten von KI-Tools und -Modellen, deutlich zugelegt. Die Zeiten, in denen elektronisch klingende Stimmen am Telefon monoton einen zuvor schriftlich fixierten Text vortrugen, nähern sich ihrem Ende. Die KI-gestützten Tools, die Angreifern mittlerweile zur Verfügung stehen, ermöglichen überzeugende automatisierte Massen-Betrugsversuche. Selbst Emotionen, wie etwa Freude, Wut oder Traurigkeit, können durch Anpassung von Tonhöhe, Kadenz, Tonfall und Lautstärke, überzeugend simuliert werden. In Echtzeit können Angreifer Live-Gespräche mit ihnen Opfern zu führen – ausgestattet mit der Stimme einer ihrem Opfer bekannten Person.

Mittlerweile sind diese Tools für jedermann leicht zugänglich, so dass auch ungeschulte Angreifer ausgeklügelte Social Engineering-Betrugsversuche durchführen können. Allein im Jahr 2024 wurden bei der Open-Source-KI-Plattform Hugging-Face mehr als 2.400 TTS-Modelle und über 1.800 Text-to-Audio-Modelle gehostet. Offiziell dienen diese Tools legitimen Anwendungsfällen. Inoffiziell können sie aber sehr wohl von Betrügern für ihre Angriffe missbraucht werden.

Mit Blick auf das Jahr 2025 prognostiziert der Report, dass die Zahl der Deepfake-Sprachanrufe auch weiterhin stark anwachsen wird – voraussichtlich noch einmal um 155 Prozent. Auch für den Einzelhandel geht der Report nochmals von einer Verdoppelung aus. Jeder 56. Anruf in den Kontaktzentren wird dann synthetisch sein. Mit erheblichen Folgen. Auf 38 Milliarden Euro wird die globale Schadenssumme geschätzt.

Unternehmen aller Branchen werden sich gegen die neue, wachsende Bedrohung besser schützen müssen. Mit der Stärkung ihrer Authentifizierungsprotokolle, der Implementierung von Echtzeit-Risikoanalysen und: dem Ausbau der kontinuierlichen Schulungen der eigenen Mitarbeiter in Punkto Sicherheitsbewusstsein.

Die gesamte Belegschaft muss in die Lage versetzt werden, noch die subtilsten Anzeichen von Social Engineering, von Phishing und Spear Phishing zu erkennen – bevor es zu spät ist. Egal, ob es sich nun um Text- oder Sprachnachrichten handelt.

Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4

Effektiv helfen kann hier ein modernes Human-Risk-Management. Dessen Phishing-Trainings, -Schulungen und -Tests lassen sich, KI sei Dank, mittlerweile personalisieren und automatisiert – kontinuierlich – zum Einsatz bringen. Moderne Anti-Phishing-E-Mail-Technologien kombinieren KI mit Crowdsourcing, um neueste Zero Day-Bedrohungen aufzuspüren und zu neutralisieren. Mit solchen und ähnlichen Systemen ist es Unternehmen möglich, ihre Human Risks zurückzufahren und ihre Mitarbeiter zu ihrer besten Verteidigung im Kampf gegen Cyberbedrohungen zu machen.

Von Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4