Apple hat soeben in einer Erklärung den vorläufigen Verzicht auf Kinderporno-Scans erklärt.
Gegenüber US-Portalen erklärte das Unternehmen, man werde das lokale Scannen von Bildern auf CSAM (Child Sexual Abuse Material), die für den iCloud-Upload vorgesehen sind, vorerst nicht durchführen. Ursprünglich sollte das Kinderporno-Scan mit iOS 15 in den USA starten.
„Im August hatten wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Belästigern zu schützen, die Kommunikationstools nutzen, um sie auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken. Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Funktionen zum Schutz von Kindern freigeben.“