Tim Cook weist auf eines der größten Probleme mit KI hin: Halluzinationen.
KI-Chatbots und Co. erfinden im Chatverlauf „Fakten“. Das Problem dabei ist, dass sie dies sehr selbstbewusst tun und es nicht einfach ist herauszufinden, ob eine Aussage wahr ist oder nicht.
Auch Apple KI halluziniert
Tim Cook weist darauf hin, dass auch die Apple Intelligence da keine Ausnahme ist. Auch Apples KI kann sich Dinge einbilden und diese den Nutzern als Tatsachen erzählen.
Versuchen, Halluzinationen zu verhindern
Der Apple-CEO gibt jedoch an, dass sich der Konzern bemüht hat, solches Fehlverhalten zu verhindern. Man könne sich jedoch nie sicher sein…
In einer ausführlichen Untersuchung zu Apples neuen Foundation Models hebt der Konzern aber hervor, dass Testläufe mit gezielten Eingaben („adversarial prompts“) in mehreren Fällen „schädliche Inhalte, sensible Themen und Falschinformationen“ als Antwort ergaben.
Der Anteil solcher Regelverstöße ist bei Apple Intelligence jedoch vergleichsweise niedrig. Laut Apple traten bei ihren serverbasierten KI-Modellen unerwünschte Antworten in 6,6 Prozent der Anfragen auf, während dieser Anteil bei anderen Modellen wie GPT-4-Turbo bei etwa 20 Prozent liegt.
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung. Bild: Apple