Apple hat seine umstrittenen Pläne aufgegeben, sexuellen Kindesmissbrauch (CSAM) in iCloud-Fotos zu erkennen.
Apple bestätigte heute Abend dem Portal Wired, dass Pläne zur Erkennung von CSAM in iCloud-Fotos nicht mehr weiter verfolgt werden.
Die komplette Erklärung von Apple
Nach ausführlichen Beratungen mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, vertiefen wir unsere Investitionen in die Funktion „Communication Safety“, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben. Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen.
Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.
„Communication Safety“ wurde in den USA mit iOS 15.2 im Dezember 2021 eingeführt. Die Funktion ist danach auf Großbritannien, Kanada, Australien und Neuseeland ausgeweitet worden. Apple wollte die CSAM-Erkennung bis Ende 2021 auch hierzulande implementieren. Doch Apple verschob die Funktion schließlich aufgrund des „Feedbacks von Kunden, Interessengruppen, Forschern und anderen“. Jetzt hat Apple die Pläne also offiziell aufgegeben.