KI-Forscher von Apple haben ein neues Paper mit überraschenden Forschungs-Ergebnissen veröffentlicht.
Das Dokument „ReALM: Reference Resolution As Language Modeling“ erläutert, dass Apples neues KI-Modell Eingaben verstehen soll, die sich auf Display-Inhalte beziehen.
Besser als OpenAI-Modelle
Die Forscher vergleichen ihr KI-Modell mit Chat GPT von OpenAI. Laut dem Paper erzielten sie bessere Ergebnisse als GPT 3.5 und benötigten deutlich weniger Energie als GPT4. Letzteres Modell sei in manchem Fällen ebenfalls unterlegen gewesen.
„Unsere größeren Modelle übertreffen ChatGPT4“
Auszüge aus dem Paper im O-Ton Apple:
Die Auflösung von Referenzen ist ein wichtiges Problem, das für das Verständnis und den erfolgreichen Umgang mit verschiedenen Arten von Kontext unerlässlich ist. Dieser Kontext umfasst sowohl frühere Wendungen als auch Kontext, der sich auf nicht-konversationelle Entitäten bezieht, wie Entitäten auf dem Bildschirm des Benutzers oder solche, die im Hintergrund laufen.
Wir zeigen große Verbesserungen gegenüber einem bestehenden System mit ähnlicher Funktionalität für verschiedene Arten von Referenzen, wobei unser kleinstes Modell absolute Gewinne von über 5% für Bildschirmreferenzen erzielt. Wir führen auch einen Vergleich mit GPT-3.5 und GPT-4 durch, wobei unser kleinste Modell erreicht eine vergleichbare Leistung wie GPT-4, und unsere größeren Modelle deutlich übertrifft.“