Apple kündigt neue Fotoidentifikation an, um Kindesmissbrauch schneller zur erkennen

Hallo und herzlich willkommen zu einem neuen Beitrag auf meinem Blog,

Dieses Thema ist mehr als Ernst und kein schöner Anlass: 2020 gab es bereits zwei schwere Fälle von Kinderprornografie. Der Fall von Metzelder ist kaum verblasst, da macht ein Richter aus Bayern neue Schlagzeilen, der besonders perfide war. Um seine kranke Sucht zu befriedigen, klaute er sogar sichergestelltes Beweismaterial aus Akten und der Asservatenkammer. Das Problem in der heutigen Zeit ist dabei die Digitalisierung. Diese Fotos lassen sich auf diesem Wege schnell verfielfältigen. Die Cloud-Anbieter benutzen seit Jahren bestimmt Mechanismen, um hier entsprechende Inhalte herauszufiltern und den zuständigen Strafverfolgungsbehörden zur Verfügung zu stellen.

Hashing-Algorithmen

Apple kündigt eine neue Fotoidentifikationsfunktionen ankündigen, die Hashing-Algorithmen verwenden, um den Inhalt von Fotos in den Fotobibliotheken der Benutzer mit bekannten Materialien zum Kindesmissbrauch, wie z.B. Kinderpornografie, abzugleichen.

Das System wird dabei unter Wahrung der Privatsphäre auf dem Gerät des Benutzers laufen und eine Art digitaler Fingerabdrücke implementieren, wenn dieser illegale Inhalte herunterlädt. Anschließend werden die bereits gespeicherten Fotos im Fotos-Ordner automatisch nach verdächtigen Inhalten abgeglichen. Sobald es eine Übereinstimmung gibt, werden diese Daten zur Überprüfung eines entsprechenden Apple-Mitarbeiter gemeldet.

Neu ist die Vorgehensweise der Hashing-Algorithmen: Verwendet Apple diese bisher beim Upload in die iCloud, soll die neue Version bereits auf dem Endgerät stattfinden. Positiver Nebeneffekt für alle rechtschaffenden User? Sie profitieren von einer verbesserten Suche.

Dem Sicherheitsexperten zufolge ist das System mit Hashing-Algorithmen bei der Einführungen etwas kompliziert. Diese sind nicht narrensichersind nicht absolut unfehlbar und können falsche Ergebnisse auftauchen lassen. Wenn Apple Regierungen erlaubt, die Fingerabdruck-Inhaltsdatenbank zu kontrollieren, dann könnten sie das System vielleicht verwenden, um Bilder von anderen Dingen als eindeutig illegalen Kinderinhalten zu erkennen. Die Regierung wäre so technisch in der Lage, politisch unliebsamen Strömungen auf empfindlich auf die Füße zu treten.

Bilder aktuell nicht Ende-zu-Ende-verschlüsselt

Hier muss ich vielleicht noch einmal für Klarheit sorgen. Die iCloud ist grundsätzlich verschlüsselt, aber es git Unterschiede. Die Fotos, die in die iCloud hochgeladen werden, sind während der Übertragung unverschlüsselt und werden erst beim Speichern auf den Servern von Apple verschlüsselt. Der dazu notwendige Schlüssel gehört ebenfalls Apple und der Konzern kann somit bei einer Anfrage/Vorladung der diversen Strafverfolgungsbehörden die hochgeladenen Fotos von iPhone-Nutzern einsehen.

Bevir hier alle aufschreien: Alle Fotocloud-Disnte von Dritten arbeiten exkat nach diesem Dienst, die Geschäftsbeziehungen in die USA unterhalten – Google Drive, Microsoft Cloud, Dropbox und Co.

Es ist möglich, dass Apple in Zukunft ähnliche Systeme einführen könnte, um Inhalte auf der Client-Seite zu scannen, die später Ende-zu-Ende verschlüsselt auf einem Server gespeichert würden. Viele Regierungen haben sich für ein solches System von E2E-Privatnachrichten-Apps wie iMessage und WhatsApp eingesetzt, da sie befürchten, dass die zunehmende Umstellung auf verschlüsselte Kommunikation es den Strafverfolgungsbehörden erschweren wird, Fälle von Kindesmissbrauch oder anderen Straftaten aufdecken und verfolgen zu können

Macht´s gut und bis zum nächsten Mal hier auf dem appletechnikblog, Euer Patrick a.k.a. Meister des Apfels

Kaffeekasse

Spendiere mir einen Kaffee und unterstütze damit meinen Blog und mich bei der Arbeit

3,00 €

Kommentar verfassen

Betrieben von WordPress | Theme: Baskerville 2 von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: