Apple will mit einer FAQ-Seite über seinen neuen CSAM-Scan informieren.
Letzte Woche wurde der Algorithmus angekündigt, der gegen Kinderpornografie wirken soll. Apple hat daraufhin viel Kritik aus vielen Lagern erhalten. Die Aktion sei die Einführung von Spionagesoftware durch die Hintertür.
Neue FAQ will aufklären
Um sich gegen die Kritik ein wenig zur Wehr zu setzen, hat das Unternehmen jetzt eine neue FAQ-Seite veröffentlicht, die Ihr hier findet. Auf ihr geht Apple auf die Kritik ein und schreibt:
Seit wir diese Funktionen angekündigt haben, haben viele Interessengruppen, darunter Datenschutzorganisationen und Kindersicherheitsorganisationen, ihre Unterstützung für diese neue Lösung zum Ausdruck gebracht, und einige haben sich mit Fragen gemeldet. Dieses Dokument dient dazu, diese Fragen zu beantworten und dabei mehr Klarheit und Transparenz zu schaffen.
Zunächst klärt Apple auf, dass der Nachrichten-Scan nach expliziten Materialien nur bei Kinder-Accounts in der Familienfreigabe wirksam sein werde. Der Foto-Scan betreffe keine Fotos auf Geräten sondern nur solche in iCloud-Fotoaccounts, um gegen die Verbreitung kinderpornografischer Materialien auf der Plattform entgegenzuwirken:
Die Kommunikationssicherheit in Messages wurde entwickelt, um Eltern und Kindern zusätzliche Tools an die Hand zu geben, um ihre Kinder vor dem Senden und Empfangen von sexuellen Bildern in der Messages-App zu schützen. Es funktioniert nur bei Bildern, die in der Nachrichten-App für in der Familienfreigabe eingerichtete Kinderkonten gesendet oder empfangen wurden. Es analysiert die Bilder auf dem Gerät und ändert somit nichts an den Datenschutzbestimmungen von Nachrichten. Wenn ein Kinderkonto sexuell eindeutige Bilder sendet oder empfängt, wird das Foto unscharf und das Kind wird gewarnt, mit hilfreichen Ressourcen versorgt und versichert, dass es in Ordnung ist, wenn es das Foto nicht anzeigen oder senden möchte. Als zusätzliche Vorsichtsmaßnahme kann kleinen Kindern auch gesagt werden, dass ihre Eltern, um ihre Sicherheit zu gewährleisten, eine Nachricht erhalten, wenn sie sie sehen.
Die zweite Funktion, die CSAM-Erkennung in iCloud-Fotos, wurde entwickelt, um CSAM von iCloud-Fotos fernzuhalten, ohne Apple Informationen über andere Fotos als die, die mit bekannten CSAM-Bildern übereinstimmen, bereitzustellen. Der Besitz von CSAM-Bildern ist in den meisten Ländern, einschließlich der Vereinigten Staaten, illegal. Diese Funktion betrifft nur Benutzer, die sich dafür entschieden haben, iCloud-Fotos zum Speichern ihrer Fotos zu verwenden. Es hat keine Auswirkungen auf Benutzer, die sich nicht für die Verwendung von iCloud-Fotos entschieden haben. Es gibt keine Auswirkungen auf andere Daten auf dem Gerät. Diese Funktion gilt nicht für Nachrichten.
Die weiteren Abschnitte des FAQs informieren über weitere Details dieser Features. Er ist aktuell nur auf Englisch zu lesen, sollte bald auch eine deutsche Variante veröffentlicht werden, aktualisieren wir diesen Artikel.