Ungeahntes Gefahrenpotenzial durch Deepfakes

David Wollmann, Executive Consultant bei NTT Security, präsentiert beim Vortrag Replacing Reality auf der ISW 2018 ein Fake-Video mit Donald Trump.  (Quelle: NTT Security)
David Wollmann, Executive Consultant bei NTT Security, präsentiert beim Vortrag Replacing Reality auf der ISW 2018 ein Fake-Video mit Donald Trump. (Quelle: NTT Security)

Künftig ermöglichen Deepfakes Cyber-Angriffsszenarien in einer ganz neuen Dimension, warnt NTT Security. Da bisher keine ausgereiften technischen Abwehrmechanismen zur Verfügung stehen, müssen Unternehmen größte Vorsicht walten lassen.

2017 tauchten erstmals in größerem Stil Deepfake-Videos auf; vor allem gefälschte Porno-Videos mit Hollywoodstars wie Scarlett Johansson und Emma Watson verbreiteten sich rasch im Internet. Große Bekanntheit erlangten zudem die zahlreichen Deepfakes mit Nicolas Cage, in dem der Oscar-Preisträger nahezu in jedem Hollywoodstreifen zu sehen war. Und auch Politiker wurden von Deepfakes nicht verschont, etwa Angela Merkel, die in einer Rede plötzlich die Gesichtszüge von Donald Trump annimmt.

Als Deepfakes, abgeleitet aus den Begriffen Deep-Learning und Fake, werden manipulierte Medieninhalte wie Bilder, Videos oder Audio-Files bezeichnet. Die dahinterstehenden Technologien wie künstliche Intelligenz und Machine-Learning-Algorithmen haben sich in letzter Zeit rasant weiterentwickelt, sodass aktuell vielfach kaum mehr Original von Fälschung zu unterscheiden ist.

„Die Deepfakes werden immer besser, und es wird damit immer schwerer, sie zu erkennen. Auch die Auswirkungen für Unternehmen werden deshalb nicht lange auf sich warten lassen. Das mögliche Angriffsszenario reicht von der Übernahme von Identitäten bis zur Erpressung von Unternehmen“, erklärt David Wollmann, Executive Consultant bei NTT Security, dem auf Sicherheit spezialisierten Unternehmen und „Security Center of Excellence“ der NTT Group.

NTT Security hält vor allem die folgenden drei Deepfake-basierten Angriffsmethoden für wahrscheinlich:

C-Level-Fraud: Es ist die prominenteste Methode. Damit versuchen Betrüger nicht mehr, einen Mitarbeiter einer Firma mit einer fingierten E-Mail davon zu überzeugen, Geld zu überweisen, sondern durch einen Anruf, bei dem der Anrufende sich genauso wie der CFO oder CEO anhört.

Erpressung von Unternehmen oder Einzelpersonen: Mit der Deepfake-Technologie können Gesichter und Stimmen in Mediendateien übertragen werden, die Personen dabei zeigen, wie sie fingierte Aussagen treffen. Beispielsweise könnte ein Video mit einem CEO erstellt werden, der bekannt gibt, dass ein Unternehmen alle Kundendaten verloren hat oder dass das Unternehmen kurz vor der Insolvenz steht. Mit der Drohung, das Video an Presseagenturen zu schicken oder es in sozialen Netzwerken zu posten, könnte ein Angreifer dann eine Firma erpressen.

Manipulation von Authentisierungsverfahren: Ebenso kann die Deepfake-Technologie genutzt werden, um kamerabasierte Authentisierungsmechanismen zu umgehen, etwa die Legitimationsprüfung über Postident.

Prinzipiell können aber alle Attacken, die darauf basieren, dass ein Angreifer sich virtuell als eine andere Person ausgibt – zum Beispiel am Telefon, per E-Mail oder Videobotschaft –, durch die Deepfake-Technologie erweitert und wesentlich schwerer erkennbar werden. Dadurch ist es durchaus denkbar, dass Deepfakes auch für Angriffe auf Privatpersonen genutzt werden, etwa für den Enkeltrick-Betrug.

NTT Security sieht die Gefahr, dass Deepfakes künftig – spätestens 2019 – deutlich an Bedeutung gewinnen werden, da die dabei eingesetzten Machine-Learning-Methoden weiter optimiert werden und auch die Realisierung von Deepfakes keine zeit- und kostenaufwendige Herausforderung mehr ist.

David Wollmann, Executive Consultant bei NTT Security, erklärt auf der ISW 2018, wie Deepfakes entstehen. (Quelle: NTT Security)
David Wollmann, Executive Consultant bei NTT Security, erklärt auf der ISW 2018, wie Deepfakes entstehen. (Quelle: NTT Security)

So können etwa Video-Deepfakes mit im Internet frei verfügbaren Tools wie der Software „FakeApp“ und überschaubaren technischen Kosten erstellt werden. Benötigt werden lediglich eine Webcam für rund 80 Euro, ein Greenscreen für rund 90 Euro und eine Grafikkarte für rund 1.000 Euro.

Auch ein Audio-Deepfake ist inzwischen einfach zu realisieren. In der Vergangenheit musste ein Modell noch anhand von Sprachdaten mit mindestens fünf Stunden Länge erstellt werden. Heute gibt es öffentlich verfügbare Tools, die das Synthetisieren von neuen Stimmen auf Basis eines vorhandenen Modells mit nur einer Minute an Audiomaterial ermöglichen.

„Die meisten Unternehmen kennen die Deepfake-Angriffsszenarien noch nicht, da es eine ganz neue, bisher ‚unter dem Radar’ befindliche Art der Attacke ist“, betont Wollmann. „Man kann lediglich ein Bewusstsein im Unternehmen schaffen, dass solche Angriffe möglich sind. Es bedeutet auch, sich von vertrauten Wahrheiten zu verabschieden. Bislang galt zum Beispiel am Telefon, dass sich am anderen Ende der Leitung auch diejenige Person befindet, der diese Stimme gehört. Nur wenn jemand weiß, dass dies unter Umständen nicht mehr zutrifft, kann er auch möglichen Angriffen aus dem Weg gehen.“

Momentan stehen zwar noch keine technischen Abwehrmechanismen zur Verfügung, an Programmen zur Erkennung von Deepfakes wird aber gearbeitet; teilweise stehen sie sogar schon kurz vor der Marktreife. NTT Security und Unternehmen der NTT Group kooperieren in diesem Bereich bereits mit Herstellern entsprechender Applikationen und werden in Kürze auch einsatzbereite Lösungen in ihr Produktangebot aufnehmen.

Schon heute aber unterstützt NTT Security Unternehmen mit umfangreichen Security-Awareness-Trainings und interaktiven Schulungen, die gerade auch die Themen Cybercrime-Risikopotenzial, CEO-Fraud, Management Hack und nicht zuletzt Deepfake-Gefahren adressieren.

#Netzpalaver #NTTSecurity