Wien – Er ist Professor an der Johannes-Kepler-Universität und eine absolute Koryphäe im Bereich der künstlichen Intelligenz: Sepp Hochreiter. Alle großen IT-Firmen wie Google, Apple, Amazon oder Facebook benutzen die von ihm erfundene LSTM-Technologie (Long Short-Term Memory). Beispielsweise beruht die Sprachsteuerung von Alexa darauf. Er spricht darüber, wie die künstliche Intelligenz (KI) viele Wirtschaftsbereiche verändern wird – beispielsweise beim autonomen Fahren oder der Medikamentenentwicklung. Mithilfe der KI werden Tierversuche fast überflüssig, und in der Krebsdiagnostik ist die Maschine bereits besser als der Mensch. Außerdem erzählt er, wie Google ihm indirekt verboten hat, an seiner Technologie weiterzuforschen, welche Gefahren die KI mit sich bringt und warum Europa die ganze Entwicklung verschläft.

STANDARD: Sie haben als Forscher den technologischen Fortschritt bei künstlicher Intelligenz stark geprägt. Müssen wir uns Sorgen machen, dass die KI eines Tages die Weltherrschaft übernimmt?

Hochreiter: Das ist absoluter Schwachsinn. Sollte die KI irgendwann tatsächlich intelligenter sein als der Mensch, warum sollte sie sich mit uns beschäftigen? Siebenjährige Mädchen befassen sich auch am liebsten mit siebenjährigen Mädchen und Fußballfans mit Fußballfans. KIs rosten in unserer Biosphäre. Sie würden die Erde Richtung Weltraum verlassen, wo sie Energieressourcen finden, mit denen sie etwas anfangen kann. Außerdem kontrolliert der Mensch die Maschine – sollte sie feindlich gesinnt sein, wird sie abgedreht.

Die chinesische Roboterdame Jiajia verliert bei Gesprächen mit Menschen nie die Geduld. Eine künstliche Intelligenz verleiht ihr die Gabe, sich zu unterhalten.
Foto: AFP/JOHANNES EISELE

STANDARD: In welchen Branchen gewinnt Ihre Forschung an Bedeutung?

Hochreiter: Wir kooperieren mit VW und Audi bei der Entwicklung selbstfahrender Autos. Diese großen Unternehmen sind allerdings starr und bürokratisch aufgebaut. Der Informationsaustausch dauert zu lang. Deshalb überlegen wir, an der Johannes-Kepler-Universität mit kleineren Partnern ein eigenes selbstfahrendes Auto zu bauen. Das bedarf aber noch viel Planung. Und auch im Gesundheitswesen stehen große Veränderungen bevor.

STANDARD: Inwiefern?

Hochreiter: Eine KI kann Brustkrebs oder Gehirntumore besser diagnostizieren als Menschen. Auch in der Dermatologie werden die Maschinen Menschen bald überholen. Es geht hier rein um die Diagnostik, nicht um die Behandlung. Die KI analysiert und lernt aus Millionen Datensätzen von der ganzen Welt – so viele Fälle kann ein Arzt nie zu Gesicht bekommen.

STANDARD: Betrifft das auch die Pharmazie?

Hochreiter: Pharmafirmen zeigen großes Interesse an KI-basierten Entwicklungsmethoden. Die Maschine kann unerwartete Nebenwirkungen äußerst präzise vorhersagen. Um in der Medikamentenentwicklung alle möglichen Nebenwirkungen zu prophezeien, müssen Millionen Moleküle auf zehntausende biologische Effekte getestet werden. Das wäre für Experimente im Labor viel zu zeit- und kostenintensiv. Die Maschine ist dabei schnell und effizient.

STANDARD: Lassen sich Tierversuche dadurch abschaffen?

Hochreiter: Zur Gänze abschaffen wohl nicht, aber sie lassen sich stark minimieren. Vieles lässt sich präzise ausrechnen, wofür man bisher tausende Versuchsmäuse brauchte. Das macht die Entwicklung auch klar kostengünstiger.

STANDARD: Alle großen IT-Firmen verwenden Ihre LSTM-Technologie. Wie wirkt sich das auf Ihre Arbeit aus?

Hochreiter: Long Short-Term Memory (LSTM) ist eine Technik zur Entwicklung von KI und der Wissensgenerierung durch Erfahrung. Sie ist in jedem Smartphone und sehr vielen Autos verarbeitet. Die Sprachsteuerung von Amazons Alexa basiert darauf. Google hat vor Jahren einmal versucht, mich einzuschüchtern. Sie meinten, jedes Mal, wenn ich eine Idee zum Thema LSTM veröffentliche, setzen sie weltweit 200 Mitarbeiter darauf an, die das Vorhaben schneller umsetzen als ich. Das war anfangs ein Schock, wenn dir so ein Gigant indirekt verbietet, an deiner Erfindung weiterzuarbeiten. Ich habe ihnen daraufhin allerdings erklärt, sie hätten bestimmt mehr Leute, wir in Linz jedoch mehr Kreativität und Hirn.

STANDARD: Dabei wäre Ihre Technologie fast unbemerkt geblieben?

Hochreiter: Ich habe LSTM erstmals in meiner Diplomarbeit 1991 beschrieben, damals hat aber nicht einmal mein Betreuer das Potenzial erkannt. Auch vier Jahre später bei einer Konferenz hat noch kaum jemand verstanden, worum es geht, und auch die Rechenleistungen fehlten. 1997 hat es meine Technologie dann doch in ein Journal geschafft. Patent habe ich dennoch keines darauf.

STANDARD: Welche Gefahren birgt dieser technische Fortschritt?

Hochreiter: Kürzlich hat eine KI anhand von Gesichtszügen die sexuelle Orientierung von Menschen vorhergesagt. Sie lag praktisch immer richtig und war besser als der Mensch. Damit haben wir nicht gerechnet. Das wirft sowohl rechtlich als auch ethisch spannende Fragen auf, wie weit man gehen darf. Soll künftig bei einem Vorstellungsgespräch eine KI analysieren, ob man fleißig ist, verschläft oder kriminell ist?

STANDARD: Gibt es andere bedenkliche Entwicklungen?

Hochreiter: Die Gefahr wächst, dass über soziale Medien die öffentliche Meinung manipuliert wird. KIs und Chatbots produzieren Texte und Kommentare, und niemand merkt, dass Maschinen dahinterstecken. Man kennt das bereits von US-Wahlen. Anderes Beispiel: In den USA wurde für einen Test eine KI angelernt, um Gerichtsurteile zu sprechen. Das hat an sich gut funktioniert, bis eine ernüchternde Erkenntnis kam. Wurde beim Angeklagten die Hautfarbe von Weiß auf Schwarz geändert – sonst nichts -, fiel das Strafmaß deutlich höher aus. Das steckte in den Daten, und die KI hat es den Menschen nachgemacht.

STANDARD: Wer entscheidet, welche Daten gelernt werden sollen?

Hochreiter: Es werden sich neue Jobs entwickeln – Datenkurator wird einer davon sein. Dieser überprüft, ob genügend und die korrekten Daten eingespielt wurden. Beispielsweise ob für selbstfahrende Autos ausreichend Daten über Land- und Stadtfahrten und Witterungen vorhanden sind. Eine KI ist immer nur so gut wie die Daten, die sie bekommt, denn sie lernt auch Fehler von Menschen, die in den Daten stecken. Im Prinzip ist die KI wie ein Kind, man kann ihr jeden Blödsinn beibringen.

Google wollte Sepp Hochreiter indirekt verbieten, an seiner eigenen Technologie weiterzuforschen. Das ließ er jedoch nicht zu.
Foto: JKU

STANDARD: Was heißt das für andere Branchen?

Hochreiter: Natürlich werden viele Jobs verlorengehen, vor allem jene mit einfachen repetitiven Tätigkeiten. Im Marketing eröffnet das viele Möglichkeiten. Produktanpreisungen oder Kundenstromanalysen lassen sich hervorragend von einer KI durchführen. Eine KI lässt sich bei Beschwerdeanrufen bedingungslos den ganzen Tag beschimpfen und beschwichtigt den Kunden weiterhin. Für einen Mensch ist das eine große Belastung. Und auch Liveticker von Sportereignissen funktionieren schon sehr gut mit Bots. Mobilität ist wie eingangs erwähnt ein zentrales Thema. Taxifahrer sind bereits nervös – in Los Angeles hat vor kurzem ein Taxler meine Kollegen mit der Begründung aus dem Auto geworfen, dass sie ihm den Job stehlen. Er hatte rausgefunden, dass sie eine KI-Konferenz besuchen.

STANDARD: Sie haben mehrere Regierungen zu künstlicher Intelligenz beraten. Wie entwickelt sich Europa auf diesem Gebiet?

Hochreiter: Es gibt hier massiven Aufholbedarf. Es mangelt an Infrastruktur. Sowohl die Politik als auch die Industrie drohen hier eine wichtige Entwicklung zu verschlafen. In politischen Gremien – jenen, die Entscheidungen treffen – sitzen meist nur Philosophen und Ethiker. Sprich: in erster Linie Menschen, die nur vor der "bösen KI" warnen. Es müssten auch Forscher eingebaut werden, die die Architektur bauen und sich in der Materie auskennen.

STANDARD: Können Sie ein Beispiel für den Aufholbedarf nennen?

Hochreiter: Deutschland und Österreich sind gut im Maschinen- oder Anlagenbau, auf kurz oder lang werden die Technologiefirmen allerdings draufkommen, dass man die Ingenieursleistung leicht zukaufen kann. Google und Facebook nutzen Daten und passen Angebote an den Kunden an. Zum Beispiel könnte man mit Daten von einer Bohrmaschine viel machen. Was macht der Nutzer falsch? Wann geht der Bohrer kaputt? Bei welcher Drehzahl gibt es Probleme etc. – Firmen könnten sich besser auf den Kunden einstellen. Dasselbe gilt für Kühlschränke oder sonstige Haushaltsgeräte. Ich rate den europäischen Firmen, sich nicht aus der Hand nehmen zu lassen, worin man gut ist. Auf einmal baut Google Bohrmaschinen, das muss nicht sein. (Andreas Danzer, 2.9.2018)