Klitschko-Deepfake wohl eher nur ein Shallowfake

Jelle Wieringa, Security Awareness Advocate bei KnowBe4

Neben den Bürgermeistern mehrerer europäischer Hauptstädte ist auch die regierende Bürgermeisterin von Berlin, Franziska Giffey, Opfer eines Fake-Anrufs geworden. Hierbei gab sich jemand als Vitali Klitschko, den Bürgermeister von Kiew, aus und erst nach etwa 15 Minuten wurde Giffey misstrauisch. Als die Verbindung kurz unterbrochen wurde, kontaktierte das Büro den ukrainischen Botschafter in Deutschland, der über die Behörden in Kiew bestätigte, dass es sich bei der Person in dem Videoanruf nicht um den echten Klitschko handelte.

Die Senatskanzlei selbst machte den ungewöhnlichen Vorgang noch am selben Tag öffentlich. Auf Twitter wurde erklärt, dass es sich wohl um ein sogenanntes Deepfake gehandelt hat – also um ein mittels künstlicher Intelligenz generierte Simulation des Politikers. Eine Untersuchung des Bildmaterials durch das Politikmagazins Kontraste weckt nun jedoch Zweifel daran, dass tatsächlich diese fortschrittliche Technologie zum Einsatz kam.

Grundsätzlich kann mit einer Software wie beispielsweise „DeepFaceLive“ heute jeder Nutzer, der über adäquate technische Ressourcen verfügt, ein überzeugendes Deepfake erstellen. Sie sind als eine echte und ernstzunehmende Bedrohung anzusehen, jedoch ist in diesem Fall nirgends eine Bestätigung für die Verwendung eines Deepfake zu finden. Tatsächlich wird auch für ein Deepfake eine Vorlage benötigt – am besten viel Videomaterial. In Echtzeit erzeugte Ergebnisse waren bislang wenig überzeugend, da früher oder später meist verräterische Bildfehler auftreten. Basierend auf existierenden Gesichtsaufnahmen werden Daten gesammelt, anhand derer ein Programm die Mimik und Gestik der Person lernen soll. Schließlich versucht die KI die Realität selbst zu simulieren und eigene Bilder zu erstellen, passend zu einem neuen Sprechertext. Es handelt sich dann nicht um eine einfache Kopie der Vorlage, sondern um eine anspruchsvolle Neukreation.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

PHA+PGlmcmFtZSBsb2FkaW5nPSJsYXp5IiB0aXRsZT0iSW50ZXJ2aWV3IHdpdGggS25vd2JlNCAtIFdoYXQgYXJlIGRlZXBmYWtlcyBhbmQgaG93IGNhbiBjb21wYW5pZXMgcHJvdGVjdCB0aGVtc2VsdmVzIGFnYWluc3QgdGhlbT8iIHNyYz0iaHR0cHM6Ly93d3cueW91dHViZS1ub2Nvb2tpZS5jb20vZW1iZWQvenFtQ2VxM3NFQUkiIHdpZHRoPSI2MDAiIGhlaWdodD0iMzUwIiBmcmFtZWJvcmRlcj0iMCIgYWxsb3dmdWxsc2NyZWVuPSJhbGxvd2Z1bGxzY3JlZW4iPjwvaWZyYW1lPg==

Mit dieser zusätzlichen Waffe im Arsenal, können Cyberkriminelle nun Privatpersonen, politische Entscheidungsträger und große Organisationen angreifen. Das Erstellen einer guten digitalen Simulation einer Person wird immer unkomplizierter und die Ergebnisse werden von Tag zu Tag besser. In Kombination mit anderen KI-Technologien können realistische Gespräche geführt werden, bei denen die meisten Menschen ohne tiefgreifende technische Kenntnisse getäuscht werden können. Aus diesen Gründen müssen alle Unternehmen dieses enorme Bedrohungspotenzial in ihren Sicherheitsstrategien berücksichtigen.

Bisher konnten keine definitiven Belege gefunden werden, die den Einsatz eines der Klitschko-Deepfakes ausschließen. Jedoch deutet das vorhandene Bildmaterial darauf hin, dass es sich eher um ein neues Arrangement von alten Interviewaufnahmen handeln könnte. Es scheint gut möglich, dass die in den ersten Minuten der Anrufe bei Videoanrufen üblichen Ruckler, kleinere Fehler bei diesem Kopiervorgang kaschiert haben. Der falsche Klitschko wäre dann zwar immer noch eine kriminelle Nachahmung – aber ein in technologischer Hinsicht weniger anspruchsvolles „Shallowfake“.

#KnowBe4