Bild nicht mehr verfügbar.

Das Übersetzungsgerät iFlytek Jarvisen soll Olympia-Besuchern beim Verstehen der Einheimischen helfen – und umgekehrt.

Foto: REUTERS/Yiming Woo

Ein Mittwochabend in einem Hotelrestaurant in der abgeriegelten Olympia-Zone nahe Peking. Die Tische sind schon leer, die Lichter noch an, es spielt Fahrstuhlmusik. Gibt es hier noch etwas zu essen? Eine Angestellte versucht es mit Englisch, plötzlich bricht sie den Satz ab. Noch ein Versuch, dann lächelt sie und senkt enttäuscht den Kopf.

Sie zückt ihr Handy. Will sie etwa mitten im Gespräch ihren Weibo-Feed checken? Ganz schön unhöflich! Sie tippt hastig, auf Nachfrage hebt sie den linken Zeigefinger, ohne vom Display aufzuschauen. Es dauert zehn Sekunden, dann streckt sie dem Gast das Handy entgegen. "How can I help you?", schallt es heraus. Dann drückt sie noch einmal auf das Display und hält es einem unter den Mund. Die Handfläche der anderen Hand zeigt nach oben, sie macht eine auffordernde Bewegung. Allmählich wird klar: Man soll ins Handy sprechen.

Chinesische IT-Unternehmen haben Angestellte in Handel, Gastronomie und Hotellerie großflächig mit Übersetzungsgeräten und -apps ausgestattet, um die Kommunikation zwischen Einheimischen und Sportlern, Fans und Journalistinnen zu erleichtern, die für die Olympischen Winterspiele ins Land strömen.

Es ist ein alter Menschheitstraum, den China hier verwirklichen will – denn der Universalübersetzer gehört zur Grundausstattung jedes Science-Fiction-Films: Communicator heißt er in der Serie "Star Trek", Babelfisch beim Bestseller "Per Anhalter durch die Galaxis". Schon seit Jahren scheint der polyglotte Stöpsel im Ohr nur einen Steinwurf entfernt zu sein. Doch so wirklich gut funktioniert die maschinelle Übersetzung immer noch nicht. Auch in China nicht.

Holprige Sprachübersetzungen

Grundsätzlich sind Übersetzungsprogramme heute überall verfügbar: Wer etwa Youtube in deutscher Sprache aufruft, bekommt nicht nur die Titel der Videos in seine Muttersprache übersetzt, sondern auch Untertitel generiert, die oft überraschend gut sind. Ebenso werden in sozialen Medien Beiträge oft automatisch in die Sprache des Users übersetzt. Vielen fällt erst beim genauen Lesen auf, dass der Text ein wenig holprig ist.

Übersetzungssoftware wie Google Translate kann heute bereits 108 Sprachen übersetzen, darunter Exoten wie Samoanisch, Isländisch oder auch Latein und Esperanto.

Sobald es jedoch um gesprochene Sprache geht, kommen viele Übersetzungsprogramme ins Stottern. Woran hapert es?

Kontext, Kontext, Kontext

Bevor eine Maschine gesprochene Sprache in eine andere übersetzen kann, muss sie diese zuerst verschriftlichen. Schon bei der korrekten Spracherkennung fangen die Probleme an, denn kaum jemand spricht perfektes Burgtheater-Deutsch in sein Handy. "Was diese Systeme brauchen, ist Kontext", erklärt der Wiener Computerlinguist Peter Schüller. Denn neben ähnlich klingenden gibt es leider auch jede Menge gleichklingender Wörter.

Programmen wie Microsoft Word oder Google Docs, die bereits eine Diktierfunktion eingebaut haben, könne jeder gut beim Denken zuschauen: Beendet man einen Satz mit "… wie geht’s?", wird am Satzanfang aus einem "Hai" nachträglich ein "Hi", während die Spracheingabe einer Bäckerin im Kontext richtigerweise als "Laib" statt "Leib" erkannt wird.

Ganz korrekt ist die erkannte Sprache aber nie – was zu weiteren Problemen bei der automatischen Übersetzung führt, die schon bei fehlerfreien Ausgangstexten nie ganz richtig funktioniert. Auch hier brauchen Algorithmen Kontext. Ob mit dem Satz "Sie geht zur Bank" nun die Sitzgelegenheit oder die Finanzinstitution gemeint ist, lässt sich bei einem geschriebenen Text leicht zusammenreimen.

Alltagsuntaugliche Vorlagen

Doch während ein Übersetzungsprogramm einen Social-Media-Post, ein Video-Transkript oder eine E-Mail zuerst von vorne bis hinten analysieren kann, ist bei Echtzeit-Übersetzung Schnelligkeit gefragt. Dadurch entstehen auch schnell Sätze, die im nächsten Moment keinen Sinn mehr ergeben.

Dazu kommt, dass die neuronalen Netze, die hinter Übersetzungsprogrammen werken, in der Regel mit hunderttausenden menschlichen Übersetzungen trainiert werden. Oft kommen diese von der EU, die viele Dokumente in sämtliche Amtssprachen übersetzen lässt. Mit dem Alltag haben diese Übersetzungen in der Regel wenig zu tun. "Will man einen Gesetzestext übersetzen, können diese Programme super sein", sagt Schüller. "Aber nicht wenn ich mir um die Ecke Sushi holen will."

Professionelle Dolmetscher werden wohl noch eine Weile Arbeit haben.
Foto: AFP/FRED TANNEAU

Der größte Datenschatz gewinnt

Im Wettrennen um das beste Übersetzungsprogramm gewinne nicht derjenige mit dem besten Algorithmus, sondern mit dem besten Futter für diesen. Weil Konzerne wie Google oder Amazon auf einen riesigen Datenschatz zurückgreifen können, liefern diese auch die brauchbarste Software. Wobei das nicht immer so sein muss: Vor einigen Jahren überraschte etwa das deutsche Unternehmen DeepL mit einem Übersetzungsprogramm, das viele Profis jenen aus dem Silicon Valley überlegen ansehen.

Wie auch Google und die anderen suchten die Kölner nach vorhandenen sogenannten Paralleltexten im Internet. "Aber 98 Prozent dieser Übersetzungen sind Mist", sagte DeepL-Geschäftsführer Kutylowski einmal dem "Spiegel". Deshalb ließ DeepL nur von Menschenaugen ausgelesene Übersetzungen in das Modell einfließen. Inzwischen beschäftigen auch IT-Giganten wie der Facebook-Mutterkonzern Meta mehr menschliche Bilingualisten.

Menschen sind nicht eindeutig

Selbst wenn die Textkorpora, wie die Millionen Textbeispiele genannt werden, immer größer und diverser werden, perfekt wird die maschinelle Übersetzung nie sein. Denn dass Grammatik und Aussprache, wie sie im Lehrbuch stehen, nicht immer etwas mit der Alltagssprache zu tun haben, musste wohl jeder Sprachenlernende schon einmal feststellen, der sich aus dem Kursraum in die echte Welt hinausbewegt hat.

Doch während Menschen irgendwann intuitiv Lücken füllen, Mehrdeutigkeiten und Anspielungen erkennen, müsste man mit einer Maschine möglichst exakt sprechen, um verstanden zu werden. "Aber kein Mensch kommuniziert komplett eindeutig, das wäre viel zu ineffizient", sagt Computerlinguist Schüller. Schön wäre es wohl auch nicht.

Alltags- statt Universalübersetzer

Der Universalübersetzer, der uns immer und überall zu Multilinguisten macht, liegt deshalb noch in weiter Ferne. Vielleicht ist das aber gar nicht notwendig. Schon heute investieren die Firmen hinter Sprachassistenten viel Arbeit, um herauszufinden, wie User ihre Geräte nutzen – und sie für diese Zwecke zu perfektionieren, sagt Schüller. Ähnlich könnte es in Zukunft auch mit dem Babelfisch im Ohr sein, der für die meisten Alltagssituationen ausreichen könnte.

Im Olympia-Hotel müssen wir noch ohne den perfekten Alltagsübersetzer auskommen. Nach längerem Hin und Her wird klar, dass das Restaurant geschlossen hat, aber der Zimmerservice noch liefern kann. Und der spricht zum Glück Englisch. (Philip Pramer, Lukas Zahrer aus Zhangjiakou, 18.2.2022)