Der neue CSAM-Algorithmus von Apple sorgt auch intern für Kritik.
Wie Reuters in Bezug auf anonyme interne Quellen berichtet, kritisieren auch Apple-Mitarbeiter die Entscheidung der Firma, iCloud-Accounts nach kinderpornografischem Material zu durchsuchen. Das Feature wurde bislang vor allem durch Datenschützer kritisiert.
Slack-Kanal mit Nachrichten „überflutet“
Aber auch in einem Mitarbeiter-Slackkanal von Apple selbst soll es hoch her gehen. Seit der Einführung des Features vor knapp einer Woche wurden von Mitarbeitern knapp 800 Nachrichten zum Thema abgesetzt.
Einige von ihnen teilen die allgemeinen Sorgen, dass die Funktion zu repressiven Zwecken ausgenutzt werden könnte:
Apple-Mitarbeiter haben einen internen Apple-Slack-Kanal mit mehr als 800 Nachrichten zu dem vor einer Woche angekündigten Plan überflutet, sagten Mitarbeiter, die nicht identifiziert werden wollten, gegenüber Reuters. Viele äußerten Bedenken, dass die Funktion von repressiven Regierungen ausgenutzt werden könnte, die nach anderem Material für Zensur oder Verhaftungen suchen, so Mitarbeiter, die den tagelangen Thread gesehen haben.
Es ist davon auszugehen, dass ähnliche Diskussionen auch abseits der „offiziellen“ internen Slack-Kommunikationskanäle von Apple geführt werden. Die Wogen rund um das Thema sind also alles andere als geglättet.