Lautlose Sprachkommunikation

Ein Proband mit einem im Gesicht angebrachten Eletroden Array vor einem Mikrofon
© CSL

Das Cognitive Systems Lab an der Universität Bremen arbeitet an Silent Speech Interfaces, die es Menschen erlauben, völlig lautlos zu sprechen und dennoch vom Gesprächspartner verstanden zu werden. Im März 2010 haben wir unseren Prototypen zum ersten Mal auf der CeBIT, der weltgrößten IT-Messe, vorgestellt. Eine Vorabdemonstration gaben wir bereits auf der CeBIT VISION-Presseschau am 24. November 2009.

Technologie

Die Technologie basiert auf der Elektromyographie - der Erfassung und Aufzeichnung elektrischer Potentiale, die durch Muskelaktivität entstehen. Sprache wird durch die Kontraktion von Muskeln produziert, die unseren Artikulationsapparat bewegen. Die elektrischen Potentiale, die durch diese Muskelaktivität entstehen, werden durch Elektroden an der Hautoberfläche aufgezeichnet. Eine Analyse dieser Signale durch geeignete Mustererkennungsverfahren erlaubt es, von den aufgezeichneten elektrischen Potentialen auf die Bewegungen des Artikulationsapparates und damit auf die Sprache selbst rückzuschließen. Die erkannte Sprache kann dann als Text ausgegeben werden, oder sie lässt sich direkt akustisch resynthetisieren. Da die Elektromyographie auch dann Muskelaktivität erfasst, wenn eine Sprecherin nicht hörbar spricht, sondern nur lautlos artikuliert, kann mit diesem Prinzip lautlos gesprochene Sprache erkannt und verarbeitet werden.

Zum Thema Silent Speech mit Gehirnstromdaten sehen sie sich am besten unsere Seite über Gehirnaktivitätsmodellierung an.

Anwendungen

Unser Prototyp wird seit 2004 entwickelt. Die folgenden Anwendungen sind bisher möglich:

  1. Lautloses Telefonieren: Lautloses Sprechen in leisen Umgebungen erlaubt Kommunikation, ohne Andere zu stören.
  2. Übermittlung vertraulicher Informationen: Nahtloser Wechsel zwischen laut und lautlos gesprochener Sprache ermöglicht die abhörsichere Übermittlung vertraulicher Informationen.
  3. Störungsfreie Kommunikation in lauten Umgebungen: Elektromyographie erlaubt es, in lauten Umgebungen störungsfrei zu kommunizieren, da Signale direkt am Körper aufgezeichnet werden.
  4. Sprechen in einer fremden Sprache: Erkennung lautloser Sprache wird mit der Übersetzung in eine fremde Sprache gekoppelt. Ein Sprecher produziert einen Satz in seiner Muttersprache, und der Empfänger erhält die Information in seine Sprache übersetzt. Es erscheint, als würde der Sprecher in einer fremden Sprache sprechen.
  5. Hilfe für sprachbehinderte Menschen: Unsere Technik kann auch Menschen das Leben erleichtern, die durch Krankheiten oder Unfälle ihre Stimme verloren haben.

Downloads

Kontakt

Prof. Dr.-Ing. Tanja Schultz

Cognitive Systems Lab, Universität Bremen
Enrique-Schmidt-Str. 5 28359 Bremen
Tel. +49 (0) 421 218 64270
tanja.schultznoSpam@uni-bremen.de

Lorenz Diener M. Sc.

Cognitive Systems Lab, Universität Bremen
Enrique-Schmidt-Str. 5
28359 Bremen
Tel. +49 421/218-64277
lorenz.dienernoSpam@uni-bremen.de

Relevante Publikationen

Im folgenden finden Sie eine nach Publikationsdatum sortierte Liste unserer Publikationen zur Lautlosen Sprachkommunikation. Zum Einlesen in die Thematik eignen sich besonders Session-Independent EMG-based Speech Recognition (Michael Wand, Tanja Schultz , International Conference on Bio-inspired Systems and Signal Processing , 2011) und Modeling Coarticulation in EMG-based Continuous Speech Recognition (Tanja Schultz, Michael Wand, Speech Communication Journal, volume 52, 2010).