Erkennung von Nacktbildern in iMessage: iOS 15.2 mildert Warnungen ab

Hallo und herzlich willkommen zu einem neuen Beitrag auf meinem Blog,

Apple hat derzeit genügend Schwierigkeiten, sein sorgsam aufgebautes Image zu verteidigen und deshalb verwundert es umso mehr, dass man ohne große Not eine der kontroversesten Diskussionen der vergangenen Dekade aufmachte – die Rede ist vom Scannen der Fotos nach sexuell missbräuchlichen Fotos. Der Konzern hat dies abgemildert, wollte aber innerhalb iMessage an einer speziellen Triggerwarnung für Kinder mitsamt Notiffication für Eltern festhalten. Doch auch hier knickt der Konzern nun ein.

Drei Maßnahmen sollte es geben

Um die Verbreitung von kinderpornografischen Inhalten und sexuell missbräuchlichen Bildern zu unterbinden, leider ist das iPhone mitsamt iOS die mit Abstand „beliebteste“ Plattform dafür, hatte sich der iPhone-Konzern drei Säulen überlegt.

  • Suchanfragen mittels Siri

Nutzt man Siri für entsprechende Anfragen sowie Spotlight, sollten keine entsprechenden Treffer mehr angezeigt werden. Stattdessen plante Apple, ein großes Stoppschild anzuzeigen. Eine gute und sinnvolle Lösung, mit der die meisten Anwender mitgegangen wären

  • Scannen der Fotos

Zweitens wollte Apple einen Scan aller lokalen Fotos vornehmen, kurz vor dem Upload in die iCloud-Fotos-Mediathek, um die daraus erstellten Hash-Werte mit den hiesigen Datenbanken von FBI, Interpol, Europol und Co abzugleichen. Im Kern ebenfalls sinnvoll, doch bedeutet dies ab Werk eine einprogrammierte Sicherheitslücke. Dagegen liefen Expoerten und Anwender Sturm, zumal sich das System mit dem Hashwert vergleichsweise einfach aushebeln lässt und so Tür und Tor für Missbrauch öffnet.

  • Erkennung von zugeschickten Nacktbildern inklusive Warnung

Die dritte Säule sollte zugesandte Nacktbilder in iMessage erkennen und diese zunächst verblurrt anzeigen, wenn der Nutzer ein Kind ist und über eine entsprechend konfigurierte Apple ID für Kinder verfügt. Doch auch hier sorgte Apple für einen Stolperstein. Denn es war geplant, beim Öffnen des Bildes den Eltern automatisch eine Notification zukommen zu lassen, dass das Kind ein sensibles Bild öffnet.

Auf den ersten Blick nachvollziehbar, doch aus erzieherischer Sicht schwierig. Kinder können keine Geheimnisse bewahren und eben nicht den Umgang mit solchen Bildern eigenständig lernen. Der Unterschied zwischen einem Bikinibild seines ersten Urlaubsflirts und einem Dickpic ist dann dennoch deutlich größer.

Eltern werden nun doch nicht informiert

Dies hat Apple nun eingesehen, wie die aktuelle Beta 2 von iOS 15.2 zeigt: Apple rollt die Nacktbilder-Erkennung zwar aus, informiert aber nicht mehr die Erziehungsberechtigten in einer laufenden Familienfreigabe.

Was sagt Ihr dazu? Schreibt mir Euer Feedback in die nachfolgenden Kommentare

Macht´s gut und bis zum nächsten Mal hier auf dem appletechnikblog, Euer Patrick a.k.a. Meister des Apfels

Einmalig
Monatlich
Jährlich

Spendiere mir einen Kaffee und unterstütze damit meinen Blog und mich bei der Arbeit

Monatlich spenden

Jährlich spenden

Wähle einen Betrag aus

€5,00
€15,00
€100,00
€5,00
€15,00
€100,00
€5,00
€15,00
€100,00

Oder gib einen individuellen Betrag ein


Wir wissen deine Spende sehr zu schätzen.

Wir wissen deine Spende sehr zu schätzen.

Wir wissen deine Spende sehr zu schätzen.

SpendenMonatlich spendenJährlich spenden

Kommentar verfassen

Betrieben von WordPress | Theme: Baskerville 2 von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: