Apple könnte in Kürze eine wichtige Software-Ankündigung vornehmen.
Schon am morgigen Freitag soll es laut dem Kryptografen Matthew Green soweit sein: Dann will Apple einen neuen Hash-Algorithmus präsentieren, der gegen die Verbreitung von Kinderpornografie eingesetzt werden soll.
Anonymer Hash-Algorithmus geplant
Er wird auf iPhones installiert und funktioniert zunächst anonym: Basieren auf Bildinformationen sollen Apple-Geräte Foto-Bibliotheken von Nutzern durchsuchen. Erkennt die Software Hinweise auf kompromittierendes Material, soll ein Mensch dieses in einem zweiten Schritt prüfen.
Die Einführung solcher Algorithmen ist immer eine kritische Aktion. Denn wenn Apple etwa staatlichen Behörden Zugriff auf die Datenbanken der erfassten Fotos gibt und dabei andere Inhalte als Kinderpornografie zu sehen sind, könnte der Zugriff missbraucht werden.
Polizeizugriff auf Daten bereits möglich
Andererseits können Polizeibeamte bereits jetzt schon Apple dazu bringen, iCloud-Fotos und andere Daten zur Strafermittlung freizugeben. Wenn tatsächlich ein solcher Algorithmus mit einer passenden Implementierung kommt, müssen sich Nutzer keine Sorgen um eine (weitere) Einschränkung ihrer digitalen Privatsphäre machen.
Der Experte Green kritisiert die Aktion dennoch auf Twitter in einem langen Thread scharf, weil Apple auch andere Fotos scannen könnte. Hier der ganze Thread zum Nachlesen in Ruhe:
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021