Scan der Fotos: Apple liefert Details nach, Datenschützer sind entsetzt

Hallo und herzlich willkommen zu einem neuen Beitrag auf meinem Blog,

Wir müssen noch einmal dieses unangenehme Thema aufgreifen, da es ein immenses Problem und in Deutschland mit einer Aktualität versehen ist, bei dem einen schlicht die Luft wegbleibt. Zunächst einmal der aktuelle Stand: Der iPhone-Konzern hat gleich ein ganzes Bundle bekannt gegeben, mit dem man das Verbreiten von kinderpornografischen Bildern unterbinden will – alleine das Einsetzen dafür ist explizit positiv zu bewerten.

Richtigstellung

Die Maßnahmen wurden von Apple am Donnerstag der Öffentlichkeit vorgestellt, hier von mir berichtet. Entgegen des gestrigen Berichts ging Apple allerdings nicht den weitreichenden Schritt, die lokale Camera Roll selbst dann zu scannen, wenn kein Cloud-Upload stattfinden soll. Dies wurde in meinem Artikel nicht deutlich genug hervorgehoben. Der Abgleich der Daten mit den Hashes findet unmittelbar vor dem Upload in die iCloud statt. Apple gleicht dabei mittels Algorithmen bekanntes, illegales Bildmaterial im Kamp gegen „CSAM“ (Child Sexual Abuse Material) bekanntes, illegales Bildmaterial mit Fotos in der iCloud Media Library ab. Der iPhone-Konzern stellt diesen Ablauf wie folgt dar:

Apples Workflow gegen CSAM laut technischer Dokumentation

In einer eigenen Dokumentation geht Apple durchaus sehr dediziert auf den Prozess an und verspricht dabei, dass die Privatsphäre weiterhin geschützt bleiben soll. So will das Unternehmen sicherstellen, dass die Bilder auf den Servern nicht permanent durchgescannt werden müssen.  Wenn Fotos in der Library mit Bildern aus der offiziellen Datenbank übereinstimmen, speichert das System die Ergebnisse in einem „Safety Voucher“. Als Technologie kommt das sogenannte „Threshold Sharing“ zum Einsatz, um sicherzustellen, dass sich die Ergebnisse nicht auslesen lassen, bevor eindeutige Schwellen überschritten sind.

Gewisser Vertrauensvorschuss notwendig

Apple verspricht, dass man keinerlei Informationen über die Bilder seiner Nutzer bekommt, die vom System als „nicht kritisch“ eingestuft werden – das dürfte im Fall der Fälle zu Konflikten führen, dazu später mehr. Zudem garantiert Apple, dass diese Thresholds extrem zuverlässig sind. Bei welchen Werten diese Thresholds angesetzt sind, wird indes vom Konzern nicht verraten. Man verweist lediglich auf die Fehlerquote, diese liegt bei Eins zu einer Billion. Das klingt viel, seit Jahren steht das iPhone aber bei der Anzahl der geschossenen Bilder unangefochten auf Platz Eins. Dementsprechend dürfte selbst die Marke von einer Billion Fotos schneller fallen, als man gemeinhin denkt.

Apple bleibt vage

Sollte das System Inhalte als eindeutig kinderpronografisches Material detektiert haben, kann sich Apple, basierend auf den gemeldeten Daten dazu entscheiden, den Account zu sperren und die Daten bzw. die Meldung an „National Center for Missing and Exploited Children“ zu erstatten. Apple verspricht, dass es bis zu einer Klassifizierung als „eindeutig“ einer Vielzahl an Indikatoren bedarf – die man aber nicht genauer skizziert.

Genau hier möchte ich einen Einschub wagen: Auch von mir gab es Bilder als kleiner Bub, wo ich in einer Windel im Garten rumlief oder nackt in den einen Kinderpool gesetzt wurde. Im Prinzip sind das zwar sensible Schnappschüsse, die Eltern aber eher als Moment der Erinnerung festhalten möchten – das neue System von Apple könnte hier aber bereits anschlagen und eine entsprechende Meldung erzeugen.

Foto-Filter soll Kinder vor expliziten Inhalten schützen

Deutlich unverfänglicher ist der Fotos-Filter für Kinder, wenn diese in einer Familienfreigabe mit eingebunden sind. Hier kann man einen separaten Schutz aktivieren, der explizites Bildmaterial beim Adressaten nur verschwommen angezeigt wird. Wer das Foto dennoch öffnen möchte, erhält eine Warnung, warum es sich um unerwünschte Bilder handelt und weswegen die Schutzfunktion eingriff. Soll dann immer noch Zugriff darauf stattfinden, verhindert iMessage dies nicht, weist aber darauf hin, dass eine Meldung an die Eltern erfolgt – „um sicherzustellen, dass alles in Ordnung ist“. Was ein sinnvoller Schutz gegen Mobbing vor allem bei jungen Mädchen sein kann, die Warnung erscheint auch, wenn ihrerseits explizite Bilder versendet werden.

Last but not least werden auch Siri und die Spotlight-Suche bei Verweisen auf die Websuche in diese Abwehrmaßnahmen mit eingebunden. Erkennt Siri, dass ein Nutzer Kindesmissbrauch melden will, gibt es eine direkte Hilfestellung, an welche Stellen man sich melden muss. Zudem werden Anfragen und Websuchen direkt abgefangen, die auf illegales Bildmaterial abzielen.

Kehrseite ist das hohe Missbrauchspotenzial

Wir sind uns alle einig, dass jeder Schritt der ergriffen wird, der Kinder vor sexueller und damit seelischer Ausbeutung und des daraus resultierenden Missbrauchs schützt, ein guter Schritt ist. Dennoch sind die Maßnahmen von Apple extrem kontrovers und werden auch genau kontrovers diskutiert. Grund ist das extrem hohe Missbrauchspotenzial, durch das staatliche Behörden in Versuchung geführt werden könnten. Heute wird das System zum Entdecken von kinderpornografischem Material genutzt und morgen könnten bestimmte ethnische Gruppen identifiziert werden.

In diese Kerbe schlägt zudem Edward Snowden, der in einem tweet dem Konzern vorwarf, das iPhone als Fahndungsinstrument für eine weltweite Massenüberwachung zu etablieren

Das sind sehr harte Worte und extrem drastisch, die das Ansinnen dahinter komplett konterkarieren, dennoch lässt sich diese Anschuldigung in Gänze nicht von der Hand weisen. Zumal hier ein weiteres Problem auftaucht.

Electric Frontier Foundation spricht gar von Hintertür

Die Eletcric Frontier Foundation hat sich ebenfalls mit diesem Sachverhalt auseinander gesetzt und dies etwas tiefergehender als Snowden. Die Pläne des kalifornischen Unternehmens öffneten eine Hintertür ins Privatleben der Nutzer, schreiben Indie McKinney und Erica Portnoy in einem Beitrag auf den Webseiten der Organisation. Grundsätzlich begrüßen sie, dass Apple das weltweite Problem mit kinderpornografischem Material angehen will, thematisiert aber auch den daraus resultierenden Konflikt. Apple sei zwar nicht das erste Tech-Unternehmen, was sich damit auseinandersetzt, jedoch das Erste, welches sich bisher so stark für die Privatsphäre seiner Nutzer einsetze. Der iPhone-Konzern erkläre zwar lang und breit, dass seine technische Umsetzung sowohl Sicherheit als auch Datenschutz gewährleiste. „Am Ende des Tages stellen die Maßnahmen dennoch eine Backdoor dar“, so die EFF.

Extrem hohe Gefahr des Missbrauchs

Die EFF schlägt in die gleiche Kerbe wie Snowden und erklärt, dass diese Massnahmen anderweitigem Missbrauch auf breiter Front sämtliche Türen und Toren öffnet. Jeder clientseitige Scan von User-Inhalten, egal ob es sich um Bilder oder Chat-Inhalte handelt, hebeln nach aktuellem Stand der Technik trotz aller guten Absichten de facto die Verschlüsselung aus.

Der Konzern selbst hätte zunächst die Möglichkeit, die hier angewandetn Algorithmen und Parameter des Maschinellen Lernens problemlos auf andere Bereiche wie E-Mails oder auf Apple Pay auszuweiten. Darüber hinaus könnten sich autokratische Regime äußerst aufgeschlossen für solche Technologien zeigen – Beispiele gibt es aktuell in erschreckender Hülle und Fülle. Egal ob es sich um Sportler in Belarus handelt, die das Regime kritisieren oder Menschen der LGBTQIA+-Community sowie Oppositionelle ins Visier genommen werden sollen. Die software Pegasus von NOS machte diesbezüglich gerade erst erschreckende Schlagzeilen.

Wie seht Ihr das? Sollten wir für das Wohl der Kinder den Schutz der Privatsphäre zumindest etwas absenken? Oder ist der Schutz der Privatsphäre das allerhöchste Gut, was es zu schützen gilt? Ich selbst will und kann kein Urteil darüber fällen, doch lasst uns darüber diskutieren.

Macht´s gut und bis zum nächsten Mal hier auf dem appletechnikblog, Euer Patrick a.k.a. Meister des Apfels

A731554B-C035-477E-B465-3D858E1AE352_1_201_a

Kaffeekasse

Spendiere mir einen Kaffee und unterstütze damit meinen Blog und mich bei der Arbeit

3,00 €

Kommentar verfassen

Betrieben von WordPress | Theme: Baskerville 2 von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: