Apple scannt seit einiger Zeit iCloud-Server nach Bildern von Kindesmissbrauch.
Anfang Januar wurde diese Praktik erstmals publik – iTopnews.de berichtete. Nun wurde auch genauer bekannt, wie Apple das Ziel der zuverlässigen Erkenntnis derartiger Inhalte technisch realisiert.
Bilder werden untereinander verglichen
Als Basis für die Suche wie jedes als illegales Bild mit einem sogenannten „Hash“ versehen, einer Art digitaler Signatur. Im Vergleich mit ihr werden dann andere Bilder anonym untersucht.
Wird eine Art digitale Grenze bei Übereinstimmungen übertroffen, werden die Bilder markiert und können polizeilichen Ermittlern gemeldet werden. Geschieht dies anderswo automatisch, werden bei Apple alle fragwürdigen Fotos noch einmal von einem Menschen geprüft.
Keine unbegründeten Anzeigen als Ziel
Anschließend werden die Behörden mit Namen, Adresse und Telefonnummern aus den iCloud-Daten des zugehörigen Accounts ausgestattet. Ziel ist es, sicher illegale Inhalte zu identifizieren, aber auch jedwedes technisches Versagen und folgende Fehlanzeigen zu vermeiden.