Apple Intelligence bietet unterschiedliche KI-Optionen – und die brauchen alle ein ordentliches Sicherheitskonzept.
Der Konzern erklärt in einem langen wissenschaftlichen Artikel, der hier auf Englisch zugänglich ist, die wichtigsten Maßnahmen. In ihm garantiert der Konzern unter anderem, dass man besonders aufmerksam mit dem Quellenmaterial umgehe.
Eine KI ohne Vorurteile und Stereotypen
Es werde immer proaktiv geprüft, welches Material zum Anlernen der KI genutzt wird, vor allem um Stereotypen und virtuelle Vorurteile von vornherein zu vermeiden.
Konkret schreibt Apple:
Wir arbeiten kontinuierlich daran, die Aufrechterhaltung von Stereotypen und systemischen Vorurteilen in unseren KI-Tools und -Modellen zu vermeiden. Wir treffen in jeder Phase unseres Prozesses Vorkehrungen, einschließlich Design, Modelltraining, Funktionsentwicklung und Qualitätsbewertung, um festzustellen, wie unsere KI-Tools missbraucht werden oder zu potenziellem Schaden führen können. Wir werden unsere KI-Tools mithilfe von Benutzerfeedback kontinuierlich und proaktiv verbessern […] Darüber hinaus wurden umfangreiche Anstrengungen unternommen, um Schimpfwörter, unsicheres Material und personenbezogene Daten aus öffentlich verfügbaren Daten auszuschließen.
Absicherung gegen Hackerangriffe
Außerdem arbeitet man mit dem „Red Teaming“-Vorgehen daran, Sicherheitslücken zu entdecken und zu stopfen:
Red Teaming ist ein grundsätzlich kreatives Unterfangen, bei dem Red Teamer Kombinationen von Angriffsvektoren einsetzen müssen, um bekannte Schwachstellen des Modells zu untersuchen und zu versuchen, neue zu entdecken. Zu den Angriffsvektoren, die bei der Arbeit mit Sprachmodellen verwendet werden, gehören Jailbreaks/Prompt-Injections, Überzeugungstechniken [Zeng et al., 2024] und linguistische Merkmale, von denen bekannt ist, dass sie zu Fehlverhalten des Modells führen (z. B. Slang, Code-Switching, Emojis, Tippfehler).
Wir setzen sowohl manuelles als auch automatisches Red-Teaming ein [Ganguli et al., 2022], um potenziell unbekannte Fehlermodi der abgestimmten Modelle zu ermitteln. Neuere Arbeiten [Touvron et al., 2023] legen nahe, dass automatisierte Prozesse möglicherweise noch vielfältigere Eingabeaufforderungen generieren können als Menschen, die bisher als „Goldstandard“ für die Datenerfassung galten.
So soll Apple Intelligence durch die Bank akkurat, hilfreich und inhaltlich gefahrenfrei sein. Hehre Ziele – wir sind gespannt, ob Apple sie erreichen und beibehalten wird.
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung. Foto: Apple