Apple setzt verstärkt auf künstliche Intelligenz (KI) und greift dafür häufiger auf Chips von Amazon Web Services (AWS) zurück.
Benoit Dupin, Apples Senior Director für maschinelles Lernen und KI, erläuterte nun auf der AWS re:Invent-Konferenz, dass Apple seit über einem Jahrzehnt AWS-Chips wie Graviton und Inferentia für Cloud-Dienste einsetzt.
Deutlich leistungsfähiger als Chips von Intel oder AMD
Diese kommen unter anderem für Features von Siri, der App Store-Suche, Apple Music und Apple Maps zum Einsatz und bieten im Vergleich zu herkömmlichen x86-Chips von Intel und AMD eine Verbesserung in der Effizienz von 40 %.
Dupin kündigte weiterhin an, dass Apple derzeit den Einsatz des neuesten AWS-KI-Chips, Trainium2, prüft. Dieser könnte die Effizienz beim Vortraining von KI-Modellen um bis zu 50 % steigern. Dabei bleibt das Training auf Cloud-Services beschränkt, während Apple-Intelligence-Funktionen weiterhin über Apple-eigene Silicon-Chips oder die private Cloud Compute-Infrastruktur betrieben werden.
Apple nutzt auch Googles Tensor-Chips
Interessant ist, dass Apple neben AWS auch Google Tensor-Chips für das KI-Training einsetzt. Dies unterstreicht Apples Ansatz, auf spezialisierte Hardware verschiedener Anbieter zurückzugreifen, um die Effizienz und Leistungsfähigkeit seiner KI-Dienste weltweit zu optimieren.
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung. Foto: Pixabay, via 9to5Mac