Apple versucht sich derzeit mit großer Kraft an KI-Modellen.
Nun haben Forscher des Konzerns einen neuen Artikel über einen Algorithmus veröffentlicht, der als Grundlage für KI-Gerätefunktionen dienen könnte. Er soll besonders leistungsfähig sein.
ReALM mit vielversprechenden Benchmarks
Das Projekt hört auf den Namen „ReALM“ und kann als Sprachassistent sowohl Bildschirminhalte als auch aktive Aufgaben berücksichtigen. Die Benchmarks des potentiellen Siri-Nachfolgers sind beeindruckend.
Apple gibt konkret an:
Als [… Benchmark-]Basis führen wir die Varianten GPT-3.5 (Brown et al., 2020; Ouyang et al., 2022) und GPT-4 (Achiam et al., 2023) von ChatGPT aus, die am 24. Januar 2024 verfügbar sind Lernen im Kontext. Wie in unserem Setup zielen wir darauf ab, beide Varianten dazu zu bringen, eine Liste von Entitäten aus einer verfügbaren Menge vorherzusagen. Im Fall von GPT-3.5, das nur Text akzeptiert, besteht unsere Eingabe nur aus der Eingabeaufforderung; Im Fall von GPT-4, das auch die Möglichkeit hat, Bilder zu kontextualisieren, stellen wir dem System einen Screenshot für die Aufgabe der Referenzauflösung auf dem Bildschirm zur Verfügung, was unserer Meinung nach zu einer erheblichen Leistungsverbesserung beiträgt. […] Wir demonstrieren große Verbesserungen gegenüber einem bestehenden System mit ähnlicher Funktionalität bei verschiedenen Referenztypen, wobei unser kleinstes Modell absolute Gewinne von über 5 % bei Bildschirmreferenzen erzielt. Wir vergleichen auch mit GPT-3.5 und GPT-4, wobei unser kleinstes Modell eine Leistung erreicht, die mit der von GPT-4 vergleichbar ist, und unsere größeren Modelle diese deutlich übertreffen.
Vorstellungszeitpunkt noch ungewiss
Der Konzern ist also zuversichtlich, dass das neue KI-Modell effizienter die gleiche oder sogar eine bessere Leistung als GPT-4 liefert. Ob es allerdings schon in diesem Sommer mit iOS 18 auf echten Geräten zum Einsatz kommen wird, ist mehr als fraglich.
Hier findet Ihr bei Interesse das ganze Paper zum neuen KI-Modell von Apple.