Hallo und herzlich willkommen zu einem neuen Beitrag auf meinem Blog,
Für ein Unternehmen aus der Tech-Branche kann das Thema Datenschutz mitunter sehr schwierig und komplex werden, sich zuweilen sogar als Boomerang erweisen wenn man schwierige Entscheidungen diesbezüglich treffen muss.
Generell ist der Schutz seiner persönlichen Daten in meinen Augen ein Grundrecht und gehört in die UN-Charta mit aufgenommen doch so hoch hängen will es nicht. Vielmehr muss auch Apple sich der Frage stellen inwieweit es seinen eigene Ansprüchen im Bezug auf den Datenschutz gerecht werden wenn es sich sich um Daten von Kriminellen handelt, diese Daten sogar auf eine bestehende oder zukünftige Straftat schließen lassen?
Apple hat sich hierzu ganz klar und eindeutig positioniert und kann deshalb mal nicht so ohne Weiteres die eigene Position aufweichen oder die Parameter verschieben ohne an Glaubwürdigkeit zu verlieren.
Ganz so dramatisch ist es bei Apple in diesem Fall nicht, allerdings zeigt es den teilweise sehr schmalen Grat auf. So hat Cupertino zu Anfang Mai, nämlich am 09.05.2019, eine aktualisierte Fassung seiner Datenschutzrichtline online gestellt und geht dort konkret auf den Punkt “Wie wir personenbezogene Daten nutzen” wie folgt ein:
“Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen.”
In einer früheren Fassung hieß es lediglich, das Unternehmen könne die personenbezogenen Daten für Zwecke der Account- und Netzwerksicherheit verwenden, das umfasse auch den Schutz der Dienste zum Wohle aller Benutzer. Mit der neuen Datenschutzrichtlinie weitet der kalifornische Konzern also seine Rechte deutlich aus
Apple zieht nach
Wie in der aktualisierten Datenschutzrichtlinie ersichtlich geht es Apple vor allem darum, Fotos über Kinderpornographie aufzuspüren. Allen Anschein nach scannt Apple diese Fotos mithilfe seiner Software schon vor dem Upload nach verdächtigen Inhalten. Dazu kann Cupertiono zum Einen auf seine Gesichtserkennung setzen die beispielsweise beim iPhone Xr für die Portraitfotos zuständig ist. Mit iOS 13 und macOS 10.15 Catalina dürften die Ergebnisse noch zielgerichteter werden denn die dort eingesetzte KI macht einen gewaltigen Sprung nach vorne
Gegen einen Scan nach dem Upload spricht zudem die Tatsache, dass Apple zwar iCloud-Backups rekonstruieren aber nicht auf die verschlüsselten Daten zugreifen kann was also gegen eine Scan nach dem Upload spricht.
Microsoft geht mit der eigens entwickelten Software PhotoDNA einen anderen Weg die zudem von anderen Internet-Giganten wie Google und Facebook eingesetzt wird.
Ein guter Ansatz – doch was könnten die Folgen davon sein?
Zunächst einmal ist der Grundgedanke auf jeden Fall sehr lobenswert denn gerade Kinder sollten immer besonders von der Gesellschaft geschützt werden. Auf der anderen Seite zeigt das hier durchaus ein Dilemma auf.
Apple mag seine eigenen Ansprüche in puncto Datenschutz nicht verletzen doch was passiert wenn die KI ein verdächtiges Foto identifiziert hat? Und wie kann es zwischen einem Missbrauch oder einem normalen Bild, aufgenommen beim Planschen im Pool, unterscheiden?
Zumindest für Letzteres schein es eine Lösung zu geben: Dazu werden von beschlagnahmten, pädophilen Foto-Sammlungen Datenbanken erstellt. Anschließend wird jedes Fotos ausgewertet und ein individueller Hash-Wert erstellt, welcher sich nur auf den Inhalt des Bildes bezieht. Namensänderungen oder wie oft das Bild kopiert wurde et cetera haben darauf keinen Einfluss, es geht lediglich um die festgehaltene Szene.
Wenn jetzt jemand anderes irgendwo anders auf der Welt ebenso solche Fotos besitzt und versucht, diese irgendwo hochzuladen, fällt das beim Scan durch Programme wie PhotoDNA auf: diese erstellen erneut Hashes dieser Fotos und prüfen, ob irgendwas davon den Werten in der Datenbank entspricht. Ergibt dies einen Treffer ist klar: dieser Mensch besitzt/verbreitet strafbares Material, das bereits als solches eingestuft wurde.
Deshalb gehen für mich die Änderungen hinsichtlich der Datenschutzrichtlinie von Apple auch in Ordnung und ich sehe da auch keinen Konflikt mit bisherigen Aussagen und Anstrengungen hinsichtlich dem Schutz der Privatsphäre
Macht´s gut und bis zum nächsten Mal hier auf dem appletechnikblog, Euer Patrick
Kommentar verfassen