Apples Vision Pro bietet dank Eyetracking ein innovatives Bedienkonzept.
User können bei der Nutzung der Brille einfach virtuelle Objekte ansehen – und sie werden anvisiert. Danach muss nur noch mit zwei Fingern „gedrückt“ werden und eine Aktion getriggert.
Magie basiert auf neuronalen Daten
Das fühlt sich laut erster Tester „magisch“ an. Wieso dem so ist, erklärt nun der Ex-Apple-Mitarbeiter Sterling Crispin. Bei Apple war er als Neurotechnology Prototyping Researcher in der Technology Development Group an der Vision Pro-Entwicklung beteiligt.
Er gibt an, dass die Brille während der Nutzung viele Informationen aus dem Körper der User extrahiert. Darunter fallen der Blutdruck, der Puls, die Muskel- und Augenbewegungen und vieles mehr. Mit einem KI-Modell werden sie ausgewertet, um besser antizipieren zu können, was der Nutzer als nächstes tun wird.
Next Generation Biofeedback
Biofeedback für intuitivere Bedienbarkeit also. Für die Verarbeitung dieser Daten dürfte intern der neue Sensorprozessor R1 zuständig sein. Er kann auch erkennen, wie entspannt User sind und die virtuelle Systemumgebung atmosphärisch anpassen. Das und mehr erklärt Crispin in einem ausführlichen Thread auf Twitter, den Ihr Euch bei Interesse hier komplett durchlesen könnt:
I spent 10% of my life contributing to the development of the #VisionPro while I worked at Apple as a Neurotechnology Prototyping Researcher in the Technology Development Group. It’s the longest I’ve ever worked on a single effort. I’m proud and relieved that it’s finally… pic.twitter.com/vCdlmiZ5Vm
— Sterling Crispin 🕊️ (@sterlingcrispin) June 5, 2023