Was passiert, wenn das, was wir täglich sehen, nicht mehr der Realität entspricht? Daraus kann sich eine echte Gefahr entwickeln. Die kriminellen Möglichkeiten reichen von traditioneller Erpressung bis hin zur Wahlbeeinflussung durch die Veröffentlichung gefälschter Videos der Kandidaten, in denen sie vermeintlich Dinge tun oder sagen, die ihren Kampagnen schaden könnten. Die Manipulationen werden heutzutage in Echtzeit hergestellt, sodass selbst ein Videotelefonat unter gestohlener Identität geführt werden kann.
China hat eine neue Regierungspolitik veröffentlicht, welche durch KI gefälschte Nachrichten und irreführende Videos verhindern soll. Die neue Regel sieht vor, dass bei deren Veröffentlichung im Internet, gekennzeichnet werden soll, dass der betreffende Beitrag mit KI- oder VR-Technologie erstellt wurde. Geschieht dies nicht wird ein Strafverfahren eröffnet. Die Regelung tritt zum Neujahr 2020 in Kraft. Ihre Durchsetzung wird von der Cyberspace Administration of China übernommen.
Die chinesische Regierung zieht mit ähnlichen Gesetzen nach, die bereits in den USA zur Bekämpfung von Cyber-Kriminalität existieren. Im vergangenen Monat war Kalifornien der erste US-Bundesstaat, der die Verwendung von Deepfakes in der Werbung für politische Kampagnen unter Strafe stellte. Das Gesetz, AB 730 genannt und von Gouverneur Gavin Newsom unterzeichnet, macht es zum Verbrechen, Audio-, Bild- oder Videodaten zu veröffentlichen, die einen falschen beziehungsweise schädlichen Eindruck von den Worten oder Handlungen eines Politikers vermitteln. Die Norm gilt für Kandidaten innerhalb von 60 Tagen nach einer Wahl und soll bis 2023 auslaufen, sofern sie nicht ausdrücklich verlängert wird.
In Deutschland existiert kein grundlegendes Gesetz, welches Deepfakes reguliert. Tatsächlich sind aber zwei Gesetzestexte zum Thema heranzuziehen. Zum einen verletzt die Verwendung von Gesichtern das Recht am eigenen Bild, welches im Kunsturheberrechtsgesetz geregelt ist. Demnach sind Bilder von Personen nicht ohne deren Einwilligung zu verwenden. Ergänzend regelt das Grundgesetz das Persönlichkeitsrecht, da die öffentliche Diffamierung dem Ruf der Betroffenen schaden könnte.
Deepfakes sind eine Gefahr
Es handelt sich um eine fortschrittliche Form der Täuschungstechnologie. Künstliche Intelligenz (KI) wird genutzt, um Videomaterial beziehungsweise Audiospuren zu modifizieren, sodass sie etwas darstellen, was tatsächlich nicht passiert ist. Oftmals werden vorhandene Medien, Clips und Ton verwendet, um die KI vorab zu trainieren. Sie erstellt dann ein virtuelles Modell des zu ändernden Elements. Dadurch wird das Medium manipuliert und wirkt täuschend echt. Beispielsweise werden Stimmmuster erkannt und über die Aussage einer anderen Person gelegt, sodass es klingt, als käme diese von der zu schädigenden Person. Auch ist es möglich, das Gesicht dieses Menschen in ein Video zu schneiden. Dann sieht es aus, als wäre jedes Wort von ihm.
Twitter gab in diesem Monat bekannt, dass es Deepfake-Richtlinien ausgearbeitet hat, infolge einer Reihe von hochkarätigen Vorfällen – darunter ein irreführend bearbeitetes Video von House Speaker Nancy Pelosi – die die Anfälligkeit der Unternehmensplattform für Fehlinformationen dieser Art betonen. Facebook, das ebenfalls der Kritik ausgesetzt ist, die Verbreitung des Pelosi-Videos nicht zu stoppen, hat mit der Entwicklung von Technologien zur Erkennung von Deepfakes begonnen, sich jedoch insbesondere geweigert, solche Videos im Einklang mit seiner Redepolitik zu entfernen.
Unternehmen nutzen diese Art der Täuschung oft im Bereich der Unterhaltung oder im Marketing. David Beckham beherrscht beispielsweise in der Kampagne „Malaria Must Die“ neun Sprachen, welche er vermutlich im normalen Leben nicht spricht.
Doch auch Firmen können hierdurch Schaden erleiden, wie der jüngste Fall rund um Facebook-Gründer Mark Zuckerberg aufzeigt. Hier erklärt er, wie ein Mann die Kontrolle über Milliarden gestohlene Daten hat und der Plattformnutzer betrogen wird. Zweifelsohne ist dieses Video amüsant, es zeigt aber auch, welche Gefahr von der Technik ausgeht.
Solch eine Technologie kann für Betrüger sehr hilfreich sein. Beispielsweise könnte der Anruf einer Führungskraft simuliert werden, welche die Buchhaltung zu einer Überweisung auffordert. Im Glauben, die Person sei real, sind Nachfragen zur Autorisierung unwahrscheinlich. Das hat zur Folge, dass sich viele Abläufe beispielsweise für die Freigabe von Zahlungen in Zukunft grundlegend ändern müssen, um Menschen vor Fehlern zu schützen.
Gegenmaßnahmen eingeleitet
Nach dem aktuellen Stand der Technik ist es möglich Hinweise auf die Fälschung zu erkennen, wenn Videos oder Audiospuren manipuliert werden. Oftmals kann dies mit bloßem Auge nicht erkannt werden. Dann sind Programme notwendig, die Pixelmuster um die geänderten Teile der Bilder herum betrachten sowie Modifizierungen der ursprünglichen Sequenz ausfindig machen und markieren. Die durch die KI produzierte Sprachspur verursacht häufig minimale Fehler, welche vom menschlichen Gehirn nicht verarbeitet und dadurch übersehen werden. Diese zu erkennen ist der Schlüssel, um Audio-Fakes im Vergleich zu echten Sprachmustern aufzudecken.
Von Jelle Wieringa, Security Awareness Advocate bei KnowBe4
#Netzpalaver #KnowBe4