Die Bayerische Staatsregierung forderte Mitte Mai, dass die Persönlichkeitsrechte besser vor Deepfakes geschützt werden sollten. Das Bundesland schlägt einen Paragrafen zum Persönlichkeitsschutz im Strafgesetzbuch (StGB) vor. Dieser soll sich speziell mit Deepfakes auseinandersetzen. Eine vom Ministerrat beschlossene Gesetzesinitiative wurde am 17. Mai in den Bundesrat eingebracht.
Diese Entwicklung wurde vor allem aufgrund einer Welle von Deepfakes ins Leben gerufen, die Persönlichkeitsrechte von Frauen und Mädchen im Internet verletzt. Deepfakes haben jedoch auch eine politische Komponente, wenn Desinformationen verbreitet werden. Doch nicht nur in diesen Fällen, sondern auch bei Betrug wird auf das Mittel zurückgegriffen. Cyberkriminelle verfolgen handfeste kommerzielle Interessen, um Menschen und Unternehmen mit Deepfakes zu erpressen, in eine Investmentfalle zu locken oder aber zu einer Notfallspende ähnlich dem Enkeltrick zu verleiten.
Bevor entsprechende Gesetze wie das der Bayerischen Staatsregierung angestoßene, beschlossen und umgesetzt werden, geht es für Verbraucher vor allem darum, Deepfakes selbst zu erkennen. Auch wenn die Fälschungen immer besser werden und es bald unmöglich sein wird, ein gefälschtes von einem echten Video zu unterscheiden, gibt es doch einige Anhaltspunkte. Wichtig ist die Unterscheidung zwischen Gesichtsumwandlungen (die das Gesicht einer Person auf das Gesicht einer anderen Person legen) und vollständig synthetisch erzeugten Videosequenzen, wobei letztere inzwischen kommerziell erhältlich sind und sich in den letzten sechs Monaten erheblich verbessert haben.
Gesichtsumwandlungen sind manchmal leichter zu erkennen. Vor allem an den Rändern eines Gesichts. Ein Hinweis ist, dass das Alter des Gesichts anders aussieht als das des restlichen Kopfes. Auch die Schatten der Augenbrauen können falsch sein. Deepfakes haben manchmal Probleme damit, die natürliche Physik einer Szene nachzubilden. Ähnliches gilt für Lichtverhältnisse, beispielsweise lässt sich erkennen, ob die Überblendung natürlich wirkt. Diese Indikatoren sind jedoch bei den häufiger zum Einsatz kommenden vollsynthetisierten Videos weniger zuverlässig.
Verbraucher können trotzdem auf die richtige Körpersprache achten. Augenbewegungen sollten beispielsweise Aussagen und Argumente unterstützen. Wiederholen sie sich oft, anstatt das gesprochene Wort zu unterstützen? Es ist sehr unwahrscheinlich, dass in einer echten Kommunikation gleichbleibende und sich wiederholende Augen- oder Augenbrauenbewegungen auftreten. Ein weiteres Beispiel sind die Lippenbewegungen. Die Lippen werden normalerweise mit dem gesprochenen Wort synchronisiert. In beiden Fällen können Abweichungen Rückschlüsse auf die Echtheit eines Videos zulassen.
Ein weiterer wichtiger Indikator ist die Stimme selbst, insbesondere bei Stimmen von bekannten Persönlichkeiten des öffentlichen Lebens. Anomalien in deren Stimmen sind am leichtesten zu erkennen. Plötzliche Veränderungen in der Tonhöhe, im Rhythmus und in der Aussprache sind ebenfalls Anzeichen für eine computergenerierte Stimme. Bei Audiodateien ist das weniger leicht herauszuhören und weniger häufig. Ein Hinweis, dass es sich um eine Fälschung handelt, ist auch eine übermäßig präzise Aussprache. Niemand spricht konsequent wie ein Nachrichtensprecher, d. h. übermäßig geschliffen und akribisch.
Aktuell scheinen diese Tipps und Hinweise auf Unregelmäßigkeiten oder zu viel Regelmäßigkeit zu achten noch zu funktionieren. Es ist allerdings dazu zu raten, sich in nächster Zeit nicht allein darauf zu verlassen. Am wichtigsten bleibt, kritisches Denken und ein emotionales Bewusstsein zu entwickeln, um Manipulationsversuche abzuwehren. Die weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes bleibt unerlässlich. Schlussendlich ist es ein Wettrüsten, das wir alle zum Nutzen von Wirtschaft und Gesellschaft genau verfolgen müssen.
#KnowBe4