FaceTime hat mit der dritten Beta von iOS 13 ein einzigartiges Feature erhalten.
Das System korrigiert bei Videoanrufen Eure Augenposition, sodass es für das digitale Gegenüber immer so aussieht, als würdet Ihr in die Kamera blicken – iTopnews.de berichtete. Nutzer im Netz sind fasziniert und auch ein wenig geschockt von dieser Technologie.
Nur auf Geräten mit A12 Bionic
Nun gibt es neue Details zu ihr: So funktioniert sie nur auf Geräten mit einem A12 Bionic Chip, also nur iPhone XS (Max) und dem jüngsten iPad Pro. Die KI für die Bildveränderung arbeitet komplett lokal.
Grundlagen sind von Apple selbst entwickelte AR-Technologien, die die Firma aber bereits Entwicklern zur Verfügung stellt. Beispiele sind die Tiefenschärfe-API der TrueDepth-Kamera von Face ID und CoreML, ein Framework für maschinelles Lernen.
Apple Vorreiter und entwicklerfreundlich
Damit ist Apple nicht nur im Bereich der Anwendung dieser Technologien beim Videochat der Konkurrenz voraus, sondern auch in der Bereitstellung ihrer Mittel. Denn Google etwa, die ähnliche Features für Google Lens programmieren, halten die Entwicklertools dafür (noch) geheim.