Bereits seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das ASPEN Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese.
„Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen“, freut sich Prof. Dr.-Ing. Tanja Schultz, Leiterin des CSL. „Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen zu sprechen, werden durch unsere Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung!“
Die Neurosprachprothese basiert auf einem Closed-Loop-System. Es verbindet Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen. Als Input erhält es die neuronalen Signale der Nutzenden, die sich vorstellen, zu sprechen. Die Signale dann mittels maschineller Lernverfahren praktisch zeitgleich in Sprache umgesetzt. „Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten“, erläutert Prof. Tanja Schultz.
Pressemitteilung Universität Bremen, September 2021