Warum Apples CSAM Backdoor so gefährlich ist

Apple schafft mit seiner CSAM Technologie eine Backdoor, die potenziell alle Daten des Anwenders filtern und nach unerwünschtem Material durchsuchen kann. Unerwünscht ist was Apple festlegt oder was für Apple festgelegt wird. Das Ausmaß haben viele nicht begriffen.

Im ersten Artikel zu diesem Thema hier im Blog ging eher um den Vertrauensbruch allgemein und was Apple da angerichtet hat. Vielen scheint noch nicht klar zu sein, was Apple da getan hat und wohin das führen kann oder vermutlich sogar zwangsläufig wird.

Apple nimmt jetzt Kinderpornografie als Exempel, weil wir das alle schrecklich finden. Bei kaum einem anderen Thema setzt unsere Abwägung der Verhältnismäßigkeit so aus. Und machen wir uns keine Illusion, wir wägen immer ab. Kameraüberwachung an Gewalt-Hotspots mögen beispielsweise manche gutheißen. Eine hundertprozentige Kameraabdeckung des öffentlichen Raumes, um Leute zu überführen, die Zigaretten auf der Straße entsorgen, würde weniger Zustimmung erregen. Diese Abwägung blockt Apple mit seinem Exempel ab.

Dabei muss sich jeder klar machen, dass es keinen Kinderpornofilter gibt. Ein kinderpornografisches Bild oder Video ist technisch gesehen das Gleiche wie ein Urlaubsbild oder ein Hochzeitsvideo.

Die Bilder werden erkannt durch einen Hash-Wert. Solche Erkennungsmethoden waren in der Debatte um die Upload-Filter schon mal Thema. Apple nennt das Ganze NeuralHash. Das Konzept kann man hier nachlesen. Apple vergleicht die Hash-Werte dann mit Werten, die es ebenfalls mit NeuralHash erzeugt hat. Und zwar auf Basis von kinderpornografischem Material, das Apple von Kinderschutzorganisationen zur Verfügung gestellt wurde. Das ganze Marketing-Geblubber könnt ihr euch bei Apple durchlesen. Und wegen der ganzen Kritik hat Apple jetzt versprochen, dass das System erst ab einer bestimmten Anzahl an Bildern greift und Nutzer natürlich das Recht zur Stellungnahme hätten etc. pp.

Der springende Punkt ist: Mit dieser Technologie kann man bedingt durch das Prinzip nicht nur Kinderpornos erkennen. Weil Kinderpornos kein „besonderes“ Bild sind. Was ist, wenn Apple vielleicht Pornos allgemein nicht auf seinen (denn die Geräte der Nutzer sind es dann nicht mehr) haben möchte, oder Filme, die Gewalt oder Drogen verherrlichen. Oder was ist, wenn die herrschende Partei in China von Apple möchte, dass alle Nutzer gemeldet werden, die ein Bild des Dalai Lama auf ihrem Smartphone haben? Oder irgendeinen oppositionellen Clip, der gerade in sozialen Netzen kursierte und den die Zensurbehörde 5 Minuten zu spät auf die Liste gesetzt hat? Für die Milliardengewinne in China würde Apple alles tun, jedes Prinzip verraten und Menschen ausliefern – hat Apple in der Vergangenheit bereits bewiesen.

Apple hat mit dieser Funktion eine mächtige Backdoor auf seinen Geräten verankert. Die Begehrlichkeiten sind bestimmt schon geweckt.

Die größte Ironie ist: Da die iCloud nicht verschlüsselt ist, hätte Apple den CSAM Filter auch serverseitig implementieren können. Stattdessen verbaut man das lieber auf dem Gerät des Kunden. Ich bin kein Anhänger von Verschwörungserzählungen und nicht in Geheimdienst-Paranoia verfallen, wie manch andere in Datenschutz-Kreisen, aber es ist ziemlich klar, dass es hier nicht nur um Kinderpornos in der iCloud gehen kann.

Cruiz
Cruizhttps://curius.de
Moin, meine Name ist Gerrit und ich betreibe diesen Blog seit 2014. Der Schutz der digitalen Identität, die einen immer größeren Raum unseres Ichs einnimmt ist mir ein Herzensanliegen, das ich versuche tagtäglich im Spannungsfeld digitaler Teilhabe und Sicherheit umzusetzen. Die Tipps, Anleitungen, Kommentare und Gedanken hier entspringen den alltäglichen Erfahrungen.
  1. Mir wird Angst und Bange, hier wird die Grenze des Erträglichen überschritten. Es wird außerdem interessant sein zu sehen, wie die Nutzer darauf reagieren.

  2. Alles gut und schön. Aber was soll der Nutzer denn jetzt tun?
    Ich habe z.B. ein neues iPhone SE2. Hält bestimmt noch 4 Jahre. Das ist der Plan.
    Soll ich es jetzt geg. einen Androiden eintauschen? Ernsthaft? Wieder lineageOS verwenden? Wo dann die Kamera nicht funktioniert. Oder diese oder jene Funktion?
    Es ist zum K…en!
    Wir, der Nutzer, haben uns ausgeliefert. Nun erhalten wir die Quittung. Den meisten ist es egal. Hauptsache ich kann chatten.
    Ich für meinen Teil werde mich in Datensparsamkeit üben. Die iCloud nutze ich nicht. Noch nie gemacht. Dateien nur noch die nötigsten auf dieser Wanze.
    Tja, und dann Augen zu und durch.
    1 Milliarde Fliegen können sich ja nicht irren…

    • Aktuell kann man tatsächlich nicht viel tun. Man sollte es im Hinterkopf behalten und Alternativen immer wieder prüfen. Vielleicht kommt man irgendwann zu dem Schluss, dass die Alternativen inzwischen den eigenen Ansprüchen genügen.

Kommentieren Sie den Artikel

Ergänzungen dienen der Diskussion über die Inhalte des Artikels. Nachfragen, Anmerkungen und Ergänzungen sind dezidiert erwünscht. Ergänzungen werden vor der Veröffentlichung moderiert. Wir behalten uns vor Kommentare ohne inhaltlichen Bezug oder abseitige Diskussionen nicht zu veröffentlichen.

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Weitere Artikel