Apples CSAM-Algorithmus gegen Kinderpornographie liegt eigentlich auf Eis.
Entwickler Steve Moser hat allerdings im Code des neuen iOS 15.2 ein paar Textbausteine gefunden, die auf eine Implementierungsart hinweisen. Ob diese aktiv ist oder es sich um Reste alten Codes handelt, ist nicht klar.
Mitteilungen zum Kinderschutz
Bei den Textbausteinen handelt es sich um mögliche Meldungsnachrichten des Systems. Diese würden ausgegeben werden, wenn bestimmte sexualisierte Inhalte an oder gar mit Kindern geteilt werden würden.
Sie lauten (ins Deutsche übertragen) etwa so:
- Du bist nicht allein und kannst dir immer Hilfe von einem Erwachsenen deines Vertrauens oder von ausgebildeten Fachkräften holen. Sie können diese Person auch blockieren.
- Sprich mit jemandem, dem du vertraust, wenn du dich unwohl fühlst oder Hilfe brauchst.
- Dieses Foto wird nicht an Apple weitergegeben und dein Feedback ist hilfreich, wenn es fälschlicherweise als vertraulich gekennzeichnet wurde.
- Sende eine Nachricht an einen Erwachsenen, dem du vertraust.
- Sensible Fotos und Videos zeigen die privaten Körperteile, die dich/sie mit Badeanzügen bedecken.
- Es ist nicht deine Schuld, aber sensible Fotos können verwendet werden, um dich zu verletzen.
- Das Teilen von Aktfotos mit Personen unter 18 Jahren kann rechtliche Konsequenzen nach sich ziehen.
- Wenn du dich entscheidest, dies anzuzeigen, erhalten deine Eltern eine Benachrichtigung, um sicherzustellen, dass es dir gut geht.
- Teile nichts, was du nicht möchtest. Sprich mit jemandem, dem du vertraust, wenn du dich unter Druck gesetzt fühlst.
Apple hat sich zu dem Fund der Textbausteine geäußert: Das Feature werde in der Form, wie sie es andeuten, nicht kommen. Das berichtet Macrumors mit Bezug auf ein offizielles Unternehmensstatement.