Apple scannt jetzt auch in Deutschland iMessage auf Nacktfotos.
Das Feature wurde letztes Jahr angekündigt und mit viel Kritik begleitet. Nicht wegen seiner Implementierung in iMessage, sondern weil Apple auch vorhatte, iCloud-Bibliotheken von Usern zu durchforsten.
Nicht nur wären dann alle User unter Generalverdacht geraten, es hätten auch Apple-Mitarbeiter als verdächtig ausgemachte Bilder ansehen müssen, bevor sie gemeldet werden. Dies rief Bürgerorganisationen auf den Plan.
Sie meinten, dass (autoritäre) Regierungen Apple dazu zwingen könnten, Inhalte zu suchen und zu löschen. So hätte Zensur vorangetrieben werden können.
Scan-Funktion wird langsam ausgerollt
Apple legte die Pläne auf Eis. Danach wurde die Scan-Funktion in einigen Ländern aktiviert, darunter den Vereinigten Staaten – iTopnews.de berichtete.
Nun kann es auch in Deutschland genutzt werden. Eltern können in den Einstellungen der Familienfreigabe von iOS eine entsprechende Einstellung aktivieren. Sie ist standardmäßig deaktiviert. Wie sie aktiviert wird, steht hier bei Apple.
Warnung vor Nacktbildern als Kinderschutz
Wird sie aktiviert, erhalten Kinder mit Zugriff auf iMessage verpixelte Bilder mit Warnungen, sobald der CSAM-Algorithmus Nacktinhalte entdeckt. Sie können dann ihre Eltern oder Verantwortliche bei Apple kontaktieren. Diese erhalten keine automatische Warnung.
Dafür funktioniert das Feature auch, wenn Kinder versuchen, Bilder mit expliziten Inhalten zu verschicken. Es schützt also in zwei Richtungen.
Um die Funktion zu nutzen, muss allerdings eine Beta von iOS 16 installiert sein, man braucht also einen Entwickleraccount. Ob das Feature auch nachträglich in iOS 15 integriert wird, bleibt offen.
Und übrigens: Über die Funktionsneuerung wurde in Deutschland der SPIEGEL von Apple vorab informiert. Dieser veröffentlichte einen detaillierten Beitrag, um etwaiger Kritik direkt entgegenzuarbeiten.