Umstrittener Scan der Fotos: Apple äußert sich erneut und präzisiert die Funktion

Hallo und herzlich willkommen zu einem neuen Beitrag auf meinem Blog,

Das neue Sicherheitsfeature, mit dem iOS 15 Bilder nach kinderpornografischen Inhalten scannt, wurde am 05. August vorgestellt und steht seitdem mehr oder weniger im Dauerfeuer von Datenschützern, Sicherheitsexperten und verunsicherten Anwendern. Der Konzern hat wohl das Echo massiv unterschätzt und sich seitdem diverse Male dazu geäußert, seit Freitag gibt es einen neuen Artikel vom Konzern zu diesem Sachverhalt.

System basiert auf drei Säulen

Um zukünftig kinderpornografisches Material zu entdecken, baut der Konzern auf ein dreistufiges System, welches hier noch einmal kurz angerissen wird: Kindern soll es über die kommenden Betriebssysteme erschwert werden, Bilder mit nackter Haut zu senden und empfangen. Ist die Funktion aktiviert, wird das Bild nur verschwommen angezeigt. Klickt das Kind auf das Bild, bekommen die Eltern eine entsprechende Benachrichtigung.

Suchanfragen via Safari und Siri nach explizitem kinderpornografischem Material werden nicht nur mit einem entsprechenden Warnhinweis versehen, es gibt zudem automatisch die Kontaktdaten, um den Missbrauch an die dafür zuständigen Behörden zu melden.

Die dritte Funktion ist die mit Abstand umstrittenste Funktion, die Apple in diesem Maßnahmenpaket bereitgestellt hat: Konkret geht es um den Scan der Fotos nach kinderpornografischen Merkmalen. An dieser Stelle sei einmal eingeschoben, dass Facebook, Google, Microsoft und Co dies schon seit 10 Jahren machen. Streitpunkt ist jedoch, wo der Scan stattfindet. Der iPhone-Konzern entschied sich nämlich dazu, den Scan lokal auf dem Gerät des Anwenders durchlaufen zu lassen und zwar kurz bevor die Bilder in die iCloud hochgeladen werden.

Entdeckt das System, welches aus sogenannten Hashes beruht, entsprechendes Bildmaterial, wird dieses isloiert in einem Voucher auf die Server von Apple hochgeladen und wird dann vom Konzern selbst manuell nachgeprüft. Ist das Bild dann immer noch auffällig, meldet der Konzern dies an die dafür zuständigen Behörden.

Kurzfristig zusätzliches Risiko-Papier nachgeschoben

Das tagelange, mediale Dauerfeuer ist auch bei Apple nicht spurlos vorbeigegangen. Nach einem veröffentlichten FAQ, welches offensichtlich nicht alle offenen Fragen ausräumen konnte, gab Federighi dem Wall Street Journal ein eilig anberaumtes Interview:

Interview im WSJ

Doch selbst das reicht augenscheinlich nicht aus, denn es gibt nun eines neues PDF von Apple zu diesem Thema. In diesem Risiko-Papier geht der Konzern erneut auf zahlreiche Sicherheitsbedenken ein. Etwa die Möglichkeit, dass die Bild-Datenbank um beliebige andere Foto-Fingerabdrücker erweitert werden könnte (öffentliche Hash-Werte sollen dies unmöglich machen) bleibt aber Wortkarg, was die Hoheit über die Zusammenstellung der Bilddatenbank angeht.

Zudem äußert man sich zur Fehleranfälligkeit des Systems. Apple räumt ein, dass bei internen Trainings des System bei 100 Millionen gescannten Fotos 3 Falsch-Positive Treffer angezeigt wurden. Skaliert man diese Werte auf die derzeit knapp 1 Milliarde aktiv genutzten iOS-Geräte, ergibt sich so ein rechnerischer Wert von 30 fälschlich beanstandeten Fotos, die Apple dann händisch nachbearbeiten muss.

Was ist dennm Eure Meinung zu dieser Thematik? Findet Ihr die Bemühungen richtig? Welche alternativen Möglichkeiten bleiben dem Konzern, um kinderpornografische Inhalte frühzeitig zu entdecken und deren Verbreitung zu unterbinden? Schreibt mir Euer Feedback in die nachfolgenden Kommentare

Macht´s gut und bis zum nächsten Mal hier auf dem appletechnikblog, Euer Patrick a.k.a. Meister des Apfels

Ein Kommentar zu „Umstrittener Scan der Fotos: Apple äußert sich erneut und präzisiert die Funktion

Gib deinen ab

Kommentar verfassen

Betrieben von WordPress | Theme: Baskerville 2 von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: