Navigation auf uzh.ch
Wer «Siri» auf seinem Smartphone eine Frage stellt, bekommt postwendend eine mehr oder weniger brauchbare Antwort. Und digitale Übersetzungssysteme transformieren einen x-beliebigen deutschen Satz in Windeseile in eine andere Sprache – sei es Italienisch, Arabisch oder Mandarin. Die digitale Erkennung und Verarbeitung von Lautsprache funktioniert heute bereits erstaunlich gut. Mit Gebärdensprache können Siri & Co. dagegen rein gar nichts anfangen. Das hat Folgen: Denn somit können gehörlose Menschen nicht von digitalen Dienstleistungen profitieren, die uns den Alltag zuweilen einfacher machen.
Anders wäre das, wenn beispielsweise ein Avatar, eine virtuelle Person, Lautsprache in Gebärdensprache simultan dolmetschen würde und umgekehrt. Sarah Ebling entwickelt an der Universität Zürich digitale Tools, die das können. Das ist anspruchsvoll. Denn wer mit Gebärden kommuniziert, benutzt nicht nur die Hände, sondern teilt sich gleichzeitig auch per Gesichtsausdruck und Oberkörper mit. «Ein digitales System, das Gebärden verstehen und darstellen will, muss all diese Informationen gleichzeitig erkennen und verarbeiten können», sagt Ebling.
Deshalb schickt die 36-jährige Forscherin ihr System quasi ins Trainingslager. Sie füttert das KI-basierte Programm mit grossen Datenmengen, die unter anderem von in Gebärdensprache übersetzten Filmen und Fernsehbeiträgen stammen. Damit kann sie es trainieren, Worte und Sätze sukzessive besser zu übersetzen und Gebärden immer authentischer und natürlicher darzustellen. «Letzteres ist enorm wichtig für die Akzeptanz bei den gehörlosen Nutzerinnen und Nutzern», sagt Sarah Ebling, die für ihre Forschung eng mit Betroffenen und dem Dachverband der Gehörlosen in der Schweiz zusammenarbeitet. «Wissenschaft in diesem Bereich muss partizipativ sein», ist sie überzeugt, «sonst erreicht sie ihr Ziel nicht.»
In Zukunft könnte ihre Forschung und Entwicklung gehörlosen Menschen und Hörenden helfen, besser miteinander zu kommunizieren. Etwa mit Hilfe einer mobilen App, die live Gebärdensprache in Lautsprache übersetzt und vice versa. Oder ein Übersetzungssystem könnte Fernsehbeiträge und Filme simultan in Gebärdensprache dolmetschen. Momentan werden zwar viele TV-Beiträge mit Texten für Hörgeschädigte untertitelt. Da aber für viele Menschen, die Gebärdensprache als Erstsprache benutzen, die umgebende Lautsprache eine Fremdsprache darstellt, ist ihnen damit wenig geholfen. Mit einem Avatar, der simultan in Gebärdensprache übersetzt, wäre das anders.
Auf ihr Forschungsthema gestossen ist Sarah Ebling aus purer Neugier. Bereits während des Studiums an der UZH begann sie sich aus linguistischem Interesse mit Gebärdensprache auseinanderzusetzen. «Ich wollte eine Sprache lernen, die ganz anders funktioniert als die Lautsprachen», sagt sie, «visuell-gestisch im dreidimensionalen Raum, das war eine ganz neue Welt für mich.» Und so tauchte sie in einen Sprachkosmos ein, von dem die meisten Hörenden keine Vorstellung haben: Denn es gibt nicht nur eine, sondern ganz unterschiedliche Gebärdensprachen mit ihrer je eigenen Grammatik und einer individuellen, organisch gewachsenen Sprachkultur, die damit verbunden ist. Sarah Ebling selbst beherrscht mittlerweile zwei dieser Gebärdensprachen: die deutschschweizerische und die amerikanische.
Momentan ist die ambitionierte Forscherin auf dem Weg zur eigenen Professur. Als Doktorandin hatte sie das Glück, eine Stelle am Institut für Computerlinguistik zu ergattern, die nicht an ein bereits bestehendes Forschungsprojekt gekoppelt war. «Ich konnte deshalb mein Forschungsthema frei wählen», sagt sie. Und so begann sie sich intensiv mit der Frage zu beschäftigen, was Sprachtechnologie zu einem barrierefreieren Zugang zur digitalen Online-Welt beitragen kann. Das war ein Thema, das noch wenig erforscht war; eines aber auch, das stark anwendungs- und nutzerorientiert ist. Ein Aspekt, der Sarah Ebling wichtig ist. «Mein Forschungsgebiet ist einerseits wissenschaftlich sehr spannend, andererseits hat es eine hohe gesellschaftliche Relevanz», sagt sie.
Das gilt auch für die «leichte Sprache», ein anderes Thema, mit dem sich Sarah Ebling in ihrer Forschung beschäftigt. Websites von Schweizer Behörden und Institutionen, aber auch News-Plattformen wie InfoEasy bieten immer öfter auch Texte in ganz einfach geschriebenem Deutsch an. Sie sollen Menschen den Zugang zu Informationen ermöglichen, die Mühe haben, einen Text in Standarddeutsch zu lesen und zu verstehen. Das können Personen mit einer kognitiven Beeinträchtigung sein, aber auch Kinder oder Fremdsprachige, die erst seit kurzem Deutsch lernen.
Um künftig noch mehr Texte online in leichter Sprache anzubieten, wäre ein automatisiertes Übersetzungstool, das Schriftsprache vereinfacht, ein grosser Vorteil. Auch daran arbeitet die sozial engagierte Computerlinguistin. Sie entwickelt im Rahmen eines von der österreichischen Forschungsförderungsgesellschaft (FFG) finanzierten Projekts gemeinsam mit Partnern ein KI-basiertes digitales System, das in einem ersten Schritt halbautomatisiert vergleichsweise komplizierte deutsche Texte in leichte Sprache verwandelt. Das heisst, das System macht einen ersten Vorschlag für einen entschlackten Text, aus dem dann ein menschlicher Übersetzer eine feingeschliffene Endfassung macht.
Das längerfristige Ziel ist es, dass solche Textvereinfachungen ganz automatisch, ohne menschliche Unterstützung funktionieren und damit möglichst viele Inhalte im Internet zugänglicher machen. «Anpassungen für Menschen mit Behinderungen kommen schlussendlich allen zugute», ist die Computerlinguistin überzeugt. Und darum geht es ihr ja: mit ihrer Forschung einen gesellschaftlichen Beitrag zu leisten.