Eine Art Badehaube mit Löchern und Kabelanschluss bildet die Verbindung zwischen Gehirn und Computer, eine Software liest aus den Hirnwellen Gedanken.

Foto: G.tec

Computer spielen, ohne einen Finger zu rühren: EEG-basierte Technologien sollen körperlich Beeinträchtigten das Leben erleichtern.

Foto: G.tec

George Clooney ist ein "W". Shakira lächelt hinter dem Buchstaben "A". Hinter dem "R" steckt Chuck Norris. Jedes Zeichen der Tastatur, die auf dem Computerbildschirm abgebildet ist, mutiert für den Bruchteil einer Sekunde zum Foto eines Promis. Das jeweilige Antlitz soll den Gehirnwellen auf die Sprünge helfen, wenn es darum geht, die Tastatur mit der Kraft der Gedanken zu bedienen. Das bedeutet: Man richtet die Aufmerksamkeit auf den gewünschten Buchstaben. Blinkt an seiner Stelle ein Gesicht auf, ergibt das eine Abweichung im Muster der Hirnwellen.

Die Verbindung zwischen Hirn und Computer bildet eine dünne Haube. In acht kleine Löcher, die über den ganzen Kopf verteilt sind, wird kaltes, klebriges Gel gespritzt, das die Leitung verbessert. Die derart eingefangenen Hirnwellen werden über Kabel und einen Verstärker in den Computer gespeist. Eine Software wertet das Elektroenzephalogramm (EEG) aus - anhand der Stelle, wo es ausschlägt, kann in Echtzeit berechnet werden, an welchen Buchstaben der Proband gedacht hat.

Nach einer kurzen Trainingseinheit kann man mit etwas Geduld schreiben, ohne einen Finger zu rühren. "Es scheint so, als würden die Promis eine stärkere Reaktion hervorrufen als die reine Hervorhebung des Zeichens", sagt Christoph Guger, "derzeit klären wir in Studien, ob es noch besser funktioniert, wenn wir Bilder von Verwandten, Freunden oder Tieren verwenden." Guger leitet mit seinem Kompagnon Günter Edlinger die Firma G.tec, ein 1999 gegründetes Spin-off der TU Graz, das sich zu einem Spezialisten für Schnittstellen zwischen Gehirn und Computer gemausert hat. Kunden sind hauptsächlich Unis und Forschungseinrichtungen in aller Welt. Mit der gedankengesteuerten Tastatur bietet das Unternehmen aber auch das weltweit einzige Brain-Computer-Interface (BCI) an, das sich für den Hausgebrauch eignet.

Gedankenexperimente

Seit kurzem können nach demselben Prinzip Malstifte und das Computerspiel World of Warcraft bedient werden. In Arbeit ist eine Anwendung zur Steuerung eines Smart Homes - in dem sämtliche Geräte mit einem Wimpernschlag, einem Gedanken oder einem Muskelzucken dirigiert werden können. Menschen mit Behinderungen oder Locked-in-Syndrom - eine fast vollständige Lähmung bei intaktem Bewusstsein - könnten von den neuen Kommunikationsmöglichkeiten profitieren.

Entwickelt werden die Gedankenexperimente in der Forschungsabteilung von G.tec, die 2006 von der Zentrale in Graz nach Oberösterreich wanderte: Außerhalb von Schiedlberg, einem kleinen Dorf zwischen Wels und Steyr, hat Guger den ehemaligen Gasthof seiner Eltern umgebaut - ein unscheinbares Gebäude direkt an einem Acker, in dem nun ein Teil der insgesamt 35 Mitarbeiter an Techniken tüftelt, die von rund 60 Forschungspartnern weltweit eingesetzt werden. Sie basteln an einer Zukunft, in der Menschen in Avatare schlüpfen, per Gedanken verreisen und zum Cyborg mutieren können.

Direkt im Gehirn implantierte Elektroden ermöglichen es schon jetzt, genauer denn je eine Roboterhand zu steuern, wie die Universität Pittsburgh im Dezember vermeldete. Doch das ist noch lange nicht alles, wenn es nach den BCI-Experten geht. "Das Ziel ist, Querschnittgelähmten oder Menschen mit ALS - einer Degeneration des motorischen Nervensystems - das Gefühl zu geben, physisch an einem anderen Ort zu sein", schildert Christoph Hintermüller.

Im EU-Projekt Vere (Virtual Embodiment and Robotic Re-Embodiment) wird eine ganze Reihe von Technologien verknüpft: EEG-basierte Signale steuern die Bewegungen eines Roboters. Die Bilder, die er aufnimmt, werden über Spezialbrillen zurückübertragen - als würde die jeweilige Person durch die Augen seines Alter Egos blicken. Dazu simuliert der Sessel, in dem die Person sitzt, die Bewegungen, indem der Gleichgewichtssinn im Innenohr beeinflusst wird. "Es ist möglich, den Gesichtsausdruck aufzunehmen und auf einen Avatar in einer virtuellen Welt zu projizieren", sagt Hintermüller, "oder einen Roboter an meiner Stelle in ein Konzert zu schicken."

Seit zwei Jahren arbeitet ein internationales Team, das vom Virtual-Reality-Guru Mel Slater von der Universität Barcelona geleitet wird, an Technologien, die es schwer behinderten Menschen erlauben soll, nicht nur eine Maschine zu steuern, sondern sie als Teil des eigenen Körpers wahrzunehmen. "Wir wollen herausfinden, wie weit man die Illusion treiben kann", sagt G.tec-Projektleiter Hintermüller. Erst im vergangenen November waren Entwickler von G.tec an einer im Fachmagazin Plos One veröffentlichten Studie beteiligt, in der gezeigt wurde, dass man sich in ganz fremde Welten hineindenken kann - etwa in die einer Ratte.

Die Wissenschafter "beamten" eine Person, verkörpert durch einen rattenförmigen Roboter, in einen Raum mit einer echten Ratte. Die Bewegungen der Ratte wiederum wurden auf einen humanoiden Avatar übertragen. Somit konnten Mensch und Ratte auf gleicher Augenhöhe miteinander in Kontakt treten - Verhaltensstudien aus einem ganz neuen Blickwinkel.

Implantierte Elektroden

Bevor Filme wie Avatar und Surrogates Wirklichkeit werden, arbeiten die Forscher daran, das Gehirn besser zu verstehen. Um die Neuronenaktivität bei bestimmten Tätigkeiten möglichst präzise einzufangen, müssen die Elektroden unter der Schädeldecke direkt ins Gehirn implantiert werden. Ein Kabelstrang quillt aus dem Hinterkopf der Epilepsiepatienten, während sie einfache Aufgaben erfüllen: einen Rubikwürfel bewegen, die Zunge rausstrecken, einen Kussmund machen. Die dabei aktiven Gehirnregionen leuchten in Echtzeit auf dem Computer auf. "Unser Ziel ist, einen Atlas des Gehirns zu erstellen, an dem man schneller und genauer als bisher ablesen kann, welche Regionen bei einer chirurgischen Entfernung der Epilepsie-Herde auf keinen Fall verletzt werden dürfen", erklärt Christoph Kapeller, der bei G.tec die entsprechende BCI-Software entwickelt.

In Tierversuchen konnten bereits einzelne Neuronen mit Elektroden bestückt werden. "Anhand von fünf bis zehn Neuronen, die bei der Raumorientierung aktiv sind, konnten unsere Kooperationspartner in Echtzeit rekonstruieren, wo sich eine Ratte gerade befindet", sagt Christoph Guger.

Auf diese Weise könnte dereinst so etwas wie Gedankenlesen funktionieren. Doch auch mit der vergleichsweise einfachen Methode des gedankengesteuerten Auswählens von Zeichen ließe sich einiges machen: " Vorstellbar wäre ein interaktives Video, in das Icons eingebettet sind. Die Kinozuschauer könnten dann durch die Konzentration auf bestimmte Icons kollektiv entscheiden, wie der Film weitergehen soll", lässt Christoph Guger seine Gedanken spielen. Frei nach den Jedi-Rittern: Möge die Macht der Gedanken mit dir sein. (Karin Krichmayr/DER STANDARD, 16. 1. 2013)