In dem vom Bundesministerium für Bildung und Forschung geförderten Projekt HiSSS wird ein technikgestütztes, interaktives Therapiesystem für die Logopädie und Sprachtherapie – insbesondere für Menschen nach einem Schlaganfall – entwickelt, das sowohl für Präsenztherapie als auch für Videotherapie bis hin zum Eigentraining ohne Therapeut*innenkontakt in Form eines Software-basierten Assistenzsystems von den Anwender*innen genutzt werden kann.
Das Projekt umfasst die Erarbeitung eines multidimensionalen Ansatzes, in dem ein solches Therapiesystem flexibel, interaktiv und individuell eingesetzt werden kann. Dafür ist ein Nutzer*innenzentriertes Entwicklungskonzept vorgesehen. Zusätzlich sollen beispielsweise die automatische Spracherkennung und die optische Analyse des Gesichts eingesetzt werden, um Sprach-, Sprech-und orale Bewegungs-daten erfassen und über KI-gestützte Verfahren analysieren zu können. Diese Technologien sollen sowohl zur Unterstützung der Präsenztherapie als auch für autonome und geführte Eigentherapie eingesetzt werden können. Das Projekt wird als Machbarkeitsstudie zur Entwicklung, Pilotierung und Evaluation digitaler Innovationen in der Logopädie/Sprachtherapie durchgeführt.
HiSSS verbindet Patienten und Behandelnde flexibel, interaktiv und individuell
Wissenschaftliche Arbeitsziele
Im Projekt wird im Rahmen von Co-Creation-Workshops mit Anwender*innen (User-Partnership-Workshops) ein technikgestütztes Therapiekonzept für Patient*innen nach Schlaganfall und Therapeut*innen in der logopädischen/sprachtherapeutischen Versorgung entwickelt, das hybride Interaktionsansätze und technische Unterstützungsbausteine (Facetracking, ASR) enthält.
Das entwickelte Konzept wird innerhalb einer Pilotstudie auf Akzeptanz, Nutzung und Tauglichkeit erprobt.
Es werden Algorithmen erforscht, implementiert und getestet, die eine Erfassung der Gesichtsbewegungen, insbesondere der Mundbewegungen in Echtzeit, auf den Endgeräten der Anwender*innen ermöglichen.
Es werden bestehende Algorithmen zur ASR genutzt und diese zur Erfassung der Sprache der Zielgruppe adaptiert. Weitere Algorithmen werden entwickelt, die eine Sprach- und Sprechanalyse ermöglichen sollen.
Es wird untersucht wie Federated-Learning-Ansätze in der Teletherapie-Infrastruktur genutzt werden können, um das Audio-/Videomaterial schneller und effizienter zu analysieren.
Technische Arbeitsziele
Das entwickelte Konzept wird technisch in eine Client-Server-Architektur umgesetzt, deren Client-Anwendungen für die Anwender*innengruppen – Therapeut*innen und Patient*innen – flexibel in die Therapie eingebettet werden können. Die Systemarchitektur erlaubt hybride und dynamisch anpassbare Interaktivität.
Die Systemprototypen (Client(s) und Server) werden zur Prüfung auf Tauglichkeit einem realistischen Lasttest sowie Tests zur Überprüfung der Interaktivitätswechsel (z. B. Therapiewechsel von physischer Therapie bis hin zum autonomen Selbsttraining) unterzogen.