Neuralmatch – Apples Pläne zu Child-Sexual-Abuse-Material sind umstritten

Thomas Reed, Experte für Apple-Sicherheit bei Malwarebytes

Seit Matthew Green Apples Pläne bekannt gemacht und auch gleich kritisiert hat, Fotos vor dem Upload in die iCloud auf kinderpornografische Inhalte (Child-Sexual-Abuse-Material, kurz CSAM) zu untersuchen, wird dieser Schritt weltweit heiß diskutiert. Bei einem derart sensiblen Thema ist es schwierig, zu einer ausgewogenen Position zu gelangen. Thomas Reed, Experte für Apple-Sicherheit bei Malwarebytes, hat die entscheidenden Aspekte auf den Punkt gebracht und neigt dazu, Apple einen Vertrauensvorschuss zu geben:

„Zunächst ist es wichtig, dass Apple, anders als es sich anhört, nicht alle Fotos in der iCloud durchwühlen wird. Das gesamte Scannen nach CSAM-Material erfolgt auf dem Gerät selbst, durch einen KI-Algorithmus. Dieses System mit der Bezeichnung ´neuralMatch´ wird zwei Funktionen erfüllen.

Die erste besteht darin, einen Hash von allen Fotos auf dem Gerät zu erstellen, bevor sie in iCloud hochgeladen werden. (Ein „Hash“ ist ein berechneter Wert, der eine eindeutige Darstellung einer Datei sein sollte, der aber nicht umgekehrt werden kann, um eine Kopie der Datei selbst zu erhalten). Dieser Hash-Wert wird mit einer Datenbank von Hash-Werten bekannter CSAM-Materialien auf dem Gerät verglichen. Das Ergebnis wird kryptografisch aufgezeichnet und zusammen mit dem Foto in der iCloud gespeichert. Überschreitet der Nutzer eine bestimmte Mindestanzahl an Fotos, die mit bekannten CSAM-Hashes übereinstimmen, kann Apple auf diese Fotos zugreifen und das iCloud-Konto wird geschlossen.

Die zweite Funktion besteht darin, Kinder unter 13 Jahren vor dem Senden oder Empfangen von CSAM-Bildern zu schützen. Apples KI versucht zu erkennen, ob über iMessage gesendete oder empfangene Bilder einen solchen Inhalt haben. In solchen Fällen wird das Kind gewarnt, und wenn es sich entscheidet, den Inhalt trotzdem anzusehen oder zu versenden, werden seine Eltern benachrichtigt. Bei Kindern zwischen 13 und 18 Jahren wird die gleiche Warnung angezeigt, aber die Eltern werden offenbar nicht benachrichtigt. Voraussetzung dafür ist, dass die Apple-ID des Kindes über ein Familienkonto verwaltet wird.

 

Probleme für Kinder und ihre Eltern

Dies birgt eine Menge potenzieller Probleme. Es kann sich um eine schwerwiegende Verletzung der Privatsphäre eines Kindes handeln. Zudem beruht die Funktion auf einer Annahme, die möglicherweise nicht stimmt: Dass die Beziehung eines Kindes zu seinen Eltern „gesund“ ist. Dies ist nicht immer der Fall. Eltern oder Erziehungsberechtigte könnten an der Erstellung von CSAM-Inhalten beteiligt sein. Außerdem könnte ein Elternteil eine Warnung über ein rechtmäßiges Foto sehen, das fälschlicherweise als CSAM-Inhalt identifiziert wurde, und dem Kind aufgrund der falschen Informationen Schaden zufügen (Ja, die Eltern hätten die Möglichkeit, das Foto zu sehen, aber es ist möglich, dass sie sich dagegen entscheiden, weil sie nicht wollen, dass ein solches Bild von ihrem Kind in ihrem Kopf entsteht).

Zu bedenken ist auch, dass dies für den Empfang eines Bildes gilt, nicht nur für das Senden eines Bildes. Man stelle sich den Ärger vor, den ein Tyrann oder Betrüger durch das Versenden von CSAM-Material verursachen könnte, oder den Schaden, der angerichtet werden könnte, wenn ein Kind ein CSAM-Bild erhält und es anschaut, ohne zu verstehen, warum es blockiert wird oder welche Konsequenzen es hat!

Und schließlich, wie Eva Galperin von der EFF auf Twitter betonte, besteht auch die Gefahr, dass diese gut gemeinte Funktion „eine Menge queerer Kinder bei ihren homophoben Eltern outet“.

 

 

Fehlalarme

Obwohl die Wahrscheinlichkeit gering ist, dass der Vergleich eines Hash mit einer Datei zu einem Fehlalarm (False Positive), kann dieser Fall sicher eintreten. Apple behauptet, dass die Wahrscheinlichkeit von Fehlalarmen bei eins zu einer Billion liegen soll, aber es bleibt abzuwarten, ob das in der Praxis zutrifft.

Apple bietet ein Einspruchsverfahren für Fälle an, in denen ein Konto zu Unrecht aufgrund von Fehlalarmen geschlossen wurde. Jeder, der schon einmal mit Überprüfungen und Einsprüchen bei Apple zu tun hatte, weiß jedoch, dass diese nicht immer positiv ausfallen und auch nicht immer zügig durchgeführt werden. Manchmal sind sie erfolgreich, manchmal nicht. Die Zeit wird zeigen, wie groß dieses Problem ist.

 

Schutz der Privatsphäre?

Für ein Unternehmen, das ständig über den Schutz der Privatsphäre seiner Nutzer spricht, scheint dies eine Abkehr vom bisherigen Ansatz darzustellen. Doch Apple hat sich offensichtlich viele Gedanken gemacht und betont, dass nichts davon auf seinen Servern passiert. Apple erklärt, dass die gesamte Verarbeitung auf dem Smartphone stattfindet und das Unternehmen die Bilder nicht sieht (es sei denn, es wird festgestellt, dass ein Missbrauch vorliegt).

Und natürlich ist CSAM ein großes Problem. Niemand – außer Pädophilen – möchte verhindern, dass die Produktion von und der Handel mit CSAM unterbunden wird. Viele werden Apple für diese Maßnahme loben.

Das heißt aber nicht, dass es keine Probleme gibt. Viele sehen dies als einen ersten Schritt auf einer schiefen Ebene. Die Blockierung von CSAM ist eine gute Sache, aber es gibt nichts, was verhindern könnte, dass die von Apple entwickelten Werkzeuge für andere Zwecke verwendet werden. Man nehme zum Beispiel an, die US-Regierung übe Druck auf Apple aus, damit es beginnt, terrorismusbezogene Inhalte zu erkennen. Wie würde das genau aussehen, wenn Apple sich dazu entschließen würde – oder dazu gezwungen wäre -, dies zu tun? Was würde passieren, wenn das iCloud-Konto einer gesetzestreuen Person aufgrund von Fehlalarmen bei ihren Fotos als in terroristische Aktivitäten verwickelt eingestuft würde? Und wie wäre es mit der Verfolgung weniger drastischer Verbrechen, wie etwa Drogenkonsum?

Es gibt weitaus mehr Beispiele, denn es gibt viele Dinge, von denen die Regierungen der Welt – einschließlich der US-Regierung – wollen, dass Apple sie verfolgt. Obwohl ich dazu neige, Apple Vertrauen zu schenken, kann es sein, dass dies nicht ganz in Apples Machtbereich liegt. Apple ist ein US-amerikanisches Unternehmen, und es ist möglich, dass künftige US-Gesetze Apple dazu zwingen, Dinge zu tun, die die Unternehmensführung nicht will.

Wir haben auch schon erlebt, dass Apple sich den Wünschen von Regierungen gebeugt hat. So hat Apple zum Beispiel Forderungen der chinesischen Regierung nachgegeben, die der Philosophie von Apple zuwiderlaufen. Obwohl Zyniker dies als Beweis dafür ansehen, dass Apple mehr an den Gewinnen aus dem großen chinesischen Markt interessiert ist (und sie haben nicht ganz Unrecht), steckt mehr dahinter. Der größte Teil der Apple-Produktion findet in China statt, und das Unternehmen würde in große Schwierigkeiten geraten, wenn China beschließen würde, Apple die Möglichkeit zu nehmen, dort Geschäfte abzuschließen. Das bedeutet, dass China ein Druckmittel hat, mit dem es Apple dazu bringen kann, sich seinen Wünschen zu beugen, zumindest innerhalb Chinas.

 

Warum tut Apple das?

Ich bin sicher, dass es zu diesem Thema eine Menge Diskussionen und Spekulationen geben wird. Ein Teil von Apples Motivation ist zweifelsohne der Wunsch, Kinder zu schützen und die Verbreitung von CSAM zu verhindern. Zum Teil mag es auch Marketing sein.

Für mich läuft das Ganze jedoch auf einen politischen Schachzug hinaus. Apple ist ein fantastischer Verfechter der Verschlüsselung und des Schutzes der Privatsphäre und ging sogar so weit, die Forderungen des FBI abzulehnen, Zugang zum iPhone eines mutmaßlichen Terroristen zu erhalten.

Es ist eine übliche Forderung der Strafverfolgungsbehörden an Technologieunternehmen, ihnen „Hintertüren“ zu öffnen. Im Wesentlichen handelt es sich dabei um eine Art privaten Zugang zu den Daten der Nutzer, der theoretisch nur für die Strafverfolgungsbehörden zugänglich ist. Das Problem mit solchen Hintertüren ist, dass sie in der Regel nicht geheim bleiben. Hacker können sie finden und sich Zugang verschaffen, oder abtrünnige Regierungsbeamte können ihren Zugang missbrauchen oder sogar verkaufen. So etwas wie eine sichere Hintertür gibt es nicht.

Die Weigerung von Apple, Hintertüren für den Zugriff von Behörden zu schaffen, hat viele verärgert, die glauben, dass Apple die Strafverfolgungsbehörden an der Erfüllung ihrer Aufgaben hindert. Gerne nutzen Verfechter von Hintertüren das Argument „Aber denken Sie an die Kinder“. CSAM wird häufig als Grund angeführt, warum der Zugang zu Messaging, Dateispeicherung usw. notwendig ist. Das ist eigentlich ein ziemlich cleveres Argument, da es (fälschlicherweise) den Anschein erweckt, als sei die Ablehnung von Hintertüren auch ein Argument für die Unterstützung von Pädophilen.

Indem Apple konkrete Maßnahmen gegen CSAM ergriffen hat, hat es diesem Argument effektiv die Angriffsfläche entzogen. Politiker können Apple letztlich nicht mehr beschuldigen, Pädophile zu schützen, um Hintertüren zu fordern.

 

Fazit

Letztendlich ist dies ein Thema, das zu vielen Kontroversen und Meinungsverschiedenheiten führen wird. Einige befürworten das Vorgehen von Apple, andere lehnen es vehement ab. Apple scheint hier das Richtige tun zu wollen und sich sehr darum bemüht zu haben, die Privatsphäre so gut wie möglich zu schützen, aber es gibt einige berechtigte Gründe die Frage zu stellen, ob diese neue Funktion eine gute Idee ist.

Diese Gründe sollten nicht mit der Unterstützung oder Ablehnung der CSAM verwechselt werden, die wir alle für eine sehr schlechte Sache halten. Es gibt viel Diskussionsbedarf zu diesem Thema, aber CSAM ist ein sehr emotionales Thema, und wir sollten alle versuchen zu verhindern, dass dies unsere Bewertung der potenziellen Probleme mit Apples Ansatz verfälscht.”

#Malwarebytes