Spracherkennung ist eine der wichtigsten Bedienungshilfe bei digitalen Geräten.
Apple hat eine solche in alle Geräte integriert. Nun hat sich das Unternehmen mit anderen Tech-Firmen am Speech Accessibility Project der University of Illinois (UIUC) zusammengetan.
Behinderten Menschen bessere Steuerung ermöglichen
Es hat zum Ziel, Spracherkennungssysteme für Menschen mit Sprachmustern und Behinderungen zu verbessern, die von aktuellen Geräten und Betriebssystemen nur schwer verstanden werden.
Neben Apple unterstützen auch Amazon, Google, Meta und Microsoft sowie Non-Profit-Organisationen das Projekt der UIUC. Sein Schwerpunkt liegt auf Sprache, die durch Krankheiten und Behinderungen wie die Lou-Gehrig-Krankheit, Amyotrophe Lateralsklerose, Parkinson, Zerebralparese und das Down-Syndrom beeinträchtigt ist.
Sample-Sammlung als Datenbank
Es werden dabei Audio-Samples von betroffenen Personen gesammelt, um einen anonymisierten Datensatz zu erstellen. Dieser Datensatz, zunächst nur mit amerikanischem Englisch als Zielsprache, kann dann von den Unternehmen mit maschinellem Lernen ausgewertet werden. So könnten in Zukunft Siri, Alexa und Co. deutlich mehr behinderten Menschen beim Interagieren mit Smartphones und Rechnern helfen.