Adapt4Me fördert Inklusion durch digitale Werkzeuge, die sich an die Nutzerinnen und Nutzer anpassen, nicht umgekehrt. Unser Ziel ist, dass alle verstanden werden, auch bei einer Sprachbeeinträchtigung. Zudem arbeiten wir an diagnostischen Tools für Logopädinnen und Logopäden
Personalisierte Spracherkennung
Wir glauben, dass jeder Mensch es verdient, verstanden zu werden. Obwohl digitale Spracherkennung heute weit verbreitet ist, bleibt ein grosser Teil der Gesellschaft weiterhin ausgeschlossen: Menschen mit Sprechbeeinträchtigungen. Wir sind überzeugt, dass sich nicht der Mensch an die Technologie anpassen sollte. Vielmehr muss sich die Technologie an den Menschen anpassen. Deshalb arbeiten wir mit Hochdruck daran, Spracherkennung zu personalisieren und für alle zugänglich zu machen.
So funktioniert es
Unser Tool beginnt damit, dir zuzuhören. Während des Onboardings erstellt es auf Grundlage deiner Aussprache und Sprechweise ein persönliches Sprachprofil. Bei der Nutzung helfen einfache Korrekturen dem System, laufend dazuzulernen, sodass die Spracherkennung mit der Zeit immer zuverlässiger wird.
Für wen es gedacht ist
Die Lösung richtet sich an Menschen, deren Stimme von herkömmlicher Spracherkennungstechnologie nicht zuverlässig verstanden wird. Gleichzeitig unterstützt sie Familien, Betreuungspersonen und das soziale Umfeld, indem sie eine klarere Kommunikation ermöglicht und Missverständnisse im Alltag reduziert.
Warum es wichtig ist
Es baut Kommunikationsbarrieren ab, indem es sich an den einzelnen Menschen und nicht an den Durchschnitt anpasst. Es stärkt die Selbstständigkeit, fördert das Selbstvertrauen und ermöglicht es, im Alltag wieder verstanden zu werden.
Erklärvideo (in englisch)
Unterstützungstool für Logopädinnen und Logopäden
Ein weiterer Schwerpunkt unserer Forschung liegt in der Unterstützung von Diagnostik und Therapie. Adapt4Me umfasst einen Algorithmus zur automatisierten Phonemanalyse, der für den Einsatz in klinischen und schulischen Kontexten entwickelt wurde. Das System ersetzt keine fachliche Expertise, sondern ergänzt sie durch objektive, datenbasierte Einblicke für Analyse, Verlaufskontrolle und individualisierte Therapie. So wird Sprachtherapie präziser, effizienter und zugänglicher.
Forschung
Semantic Re-chaining
Eine Methode, um Spracherkennung mit minimalen Daten zu personalisieren, indem aus einer kleinen Menge von Wörtern verschiedene Satzvarianten erzeugt werden. Dadurch werden die Trainingsdaten erweitert und die Erkennungsleistung verbessert, selbst in Szenarien mit wenig verfügbaren Daten.
Variational LoRA
Eine leichtgewichtige Adaptationstechnik, die eine robuste Personalisierung auf Basis weniger Sprachbeispiele ermöglicht. Sie verbessert die Stabilität des Modells und den Umgang mit Unsicherheit und wurde mit Ergebnissen in Englisch und Deutsch validiert. Mehr→
Phonem-Unsicherheit
Ein Ansatz, der schwierige Sprachlaute anhand von Modellunsicherheit identifiziert und im Training gezielt gewichtet. Dies führt zu höherer Genauigkeit und stimmt eng mit logopädischen Einschätzungen überein.
Download in Kürze verfügbar...
Das Team
Dieses Projekt wurde von einem interdisziplinären Forschungsteam an der ETH Zürich entwickelt, mit Expertise in Machine Learning, Sprachtechnologie und Barrierefreiheit.
Roman Boehringer
Projektleitung (adapt4me) und Labormanager im Grewe Lab
Lab Manager und wissenschaftlicher Koordinator im Team von Prof. Benjamin Grewe an der ETH. Entwickelt Algorithmen zur Spracherkennung für Menschen mit Sprechbeeinträchtigungen, mit Fokus auf geringe Datenmengen und Personalisierung.
Google-Scholar
Niclas Pokel
Doktorand imGrewe Lab
Ehemaliger Masterstudent, heute Doktorand im Team von Prof. Benjamin Grewe an der ETH. Entwickelt weiterhin Spracherkennungsalgorithmen für Menschen mit Sprechbeeinträchtigungen.
Yingqiang Gao
Postdoktorand im Institut für Computerlinguistik
Derzeit Postdoktorand am Institut für Computerlinguistik (UZH). Neben Spracherkennung liegt der Fokus auf der Entwicklung von Tools für Barrierefreiheit.
Pehuen Moure
Doktorand im Team von Shih-Chii Liu
Doktorand am Institut für Neuroinformatik (ETH/UZH) mit Fokus auf Sensorsysteme und Spracherkennung für beeinträchtigte Sprache.
Masterstudierende im Projekt: Philipp Gulidmann, Jingjing Qiu, Fabian Bruelisauer und Bilal Bounajma.
Unsere Vision mitgestalten
Wir glauben, dass jede Stimme verstanden werden sollte. Unser Ziel ist eine Welt, in der Kommunikation zugänglich, persönlich und inklusiv ist – unabhängig davon, wie eine Stimme klingt.
Adapt4Me befindet sich derzeit in Entwicklung. Um das Tool gezielt weiterzuentwickeln und an reale Bedürfnisse anzupassen, suchen wir den Austausch mit Menschen und Institutionen, die sich für inklusive Kommunikation interessieren.
Wenn Sie Fragen haben, Interesse am Projekt haben, die Idee gut finden, uns unterstützen möchten oder eine Förderung beziehungsweise Spende in Betracht ziehen, freuen wir uns über Ihre Kontaktaufnahme.
Unsere Partner
Hochschule für Logopädie Ostschweiz
Für Fragen rund um Sprache und Sprachtherapie arbeiten wir eng mit Samra Hamzic, Leiterin Forschung an der Hochschule für Logopädie Ostschweiz, zusammen.