Apple scannt bekanntlich in den USA iMessage-Nachrichten auf Bilder mit sexuellen Inhalten.
Die dafür verantwortlichen Algorithmen verpixeln dann entsprechende Bilder, wenn sie potentiell Kindern angezeigt werden könnten. Außerdem werden Warnhinweise und Tipps zum Umgang mit solchen Inhalten in iOS angezeigt.
Funktion kommt in weiteren Ländern
Nun weitet das Unternehmen die Funktion aus: Auch in Großbritannien, Kanada, Neuseeland und Australien wird sie in Kürze aktiviert sein. Das berichtet unter anderem der Guardian.
Wie in den USA muss die Scanfunktion auch in diesen Ländern von verantwortlichen Eltern aktiviert werden. Sie wird nicht ohne Zustimmung von Apple aktiviert.
Nicht dasselbe wie der „Kinderporno-Scan“
Das Feature ist auch nicht dasselbe wie der viel kritisierte „Kinderporno“-Scan mit CSAM-Algorithmen. Mit ihm wollte Apple iCloud-Fotobibliotheken von Usern auf kinderpornographische Material hin scannen. Dieser Plan wurde nach Kritik durch Datenschützer zurückgezogen – iTopnews.de berichtete.