Künstlicher Intelligenz fehlt es laut Turing-Preisträger Yann Lecun vor allem an einem: dem Hausverstand.

Foto: PATRICK T. FALLON/AFP

Die Beziehung von Menschen und künstlicher Intelligenz lässt sich gut in einem Facebook-Status auf den Punkt bringen: "Es ist kompliziert." Wir staunen, wenn Software bei Schach und deutlich komplexeren Brettspielen wie Go mühelos Großmeister und Großmeisterinnen besiegt. Wir fürchten, dass hochentwickelte Maschinen in Zukunft die Menschheit knechten oder gar auslöschen könnten. Und ärgern uns fünf Minuten später wieder, dass der Amazon- und Google-Algorithmus nur mehr Kühlschränke vorschlägt, obwohl man längst einen neuen gekauft hat.

Dass künstliche Intelligenz (KI) in einigen Bereichen enorme Fortschritte gemacht hat, ist unbestritten. In der Bilderkennung können Systeme zuverlässig beschreiben, was auf einem Foto zu sehen ist. Neben Menschen und Tieren können auch andere Objekte wie Möbel, Essen oder Pflanzen nur aufgrund eines Schnappschusses oder Fotoausschnittes bestimmt werden. Auch einzelne Individuen können die Systeme so wiedererkennen. In der Medizin wird das Verfahren in der Magnetresonanztherapie eingesetzt, um etwa Tumore und andere Veränderungen aufzuspüren und genauer klassifizieren zu können.

Ähnliches gilt für die Spracherkennung, die für digitale Helferlein wie Alexa, Siri oder Google Assistant essenziell ist und darüber hinaus Texte in hunderte, auch weniger bekannte Sprachen übersetzen kann. Die Ergebnisse sind zwar noch nicht perfekt. Durch das Füttern der Maschinen mit Milliarden Textbeispielen werden sie ähnlich wie bei der Bilderkennung aber stets besser. Dass Menschen unterschiedlicher Sprachen problemlos miteinander kommunizieren können, weil etwa ein Handy in Echtzeit übersetzt, ist längst nicht mehr Science-Fiction, sondern in greifbare Nähe gerückt.

Pionier für neuronale Netze

Mitverantwortlich für die Fortschritte des vergangenen Jahrzehnts ist Yann LeCun. Der Informatiker, der seit 2013 Chef der KI-Forschung beim Facebook-Konzern Meta ist, gilt als einer der Pioniere im Bereich künstlicher neuronaler Netzwerke. Für seinen bahnbrechenden Zugang, Maschinen nach dem biologischen Vorbild des menschlichen Gehirns lernen zu lassen, wurde er gemeinsam mit den Forschern Geoffrey Hinton und Yoshua Bengio mit dem Turing Award, dem inoffiziellen "Nobelpreis der Computerwissenschaft", ausgezeichnet.

Österreichische Akademie der Wissenschaften

"Beim Thema künstliche Intelligenz gibt es einige Fehlannahmen und Missverständnisse", sagte LeCun am Rande eines Vortrags, der vergangene Woche auf Einladung des Institute of Science and Technology Austria (ISTA) und der Österreichischen Akademie der Wissenschaften (ÖAW) in Klosterneuburg stattfand. "Nur weil eine Maschine numerische Gleichungen lösen, komplexe Simulationen berechnen oder im Schach gewinnen kann, heißt das noch lange nicht, dass sie eine mit dem Menschen vergleichbare allgemeine Intelligenz besitzt", erklärt LeCun im Gespräch mit dem STANDARD.

Der fehlende Hausverstand

Ungeachtet ihrer Rechenkapazitäten fehle es auch den derzeit intelligentesten Maschinen an einer entscheidenden Fähigkeit: dem allgemeinen Verständnis, wie die Welt funktioniert und welche Konsequenzen ihre Aktionen auslösen. Selbst eine gewöhnliche Hauskatze sei darin deutlich besser. Menschen, aber auch Tiere würden zudem vieles sehr schnell, meist sogar nur durch Beobachtung lernen. Babys etwa würden bereits nach neun Monaten das Konzept der Schwerkraft verstehen und mit einem Jahr rational motivierte Aktionen setzen, um bestimmte Ziele zu erreichen.

Selbst eine Katze ist den derzeit existierenden intelligentesten Maschinen überlegen, wenn es um das Verständnis der Welt geht.
Foto: Heribert Corn

"Ich muss mit dem Auto auf einer Bergstraße nicht mehrmals in den Abgrund stürzen, um zu verstehen, dass hohe Geschwindigkeit in einer scharfen Kurve keine gute Idee ist. Um das einem selbstfahrenden Auto beizubringen, muss derzeit ein enormer Aufwand mit abertausenden Testfahrten betrieben werden", gibt LeCun ein weiteres Beispiel. So erfolgreich sich das maschinelle Lernen auf Basis von kuratierten Daten für bestimmte, eng gefasste Aufgaben erwiesen habe, habe das mit den effizienten menschlichen Lernprozessen und der daraus resultierenden Intelligenz wenig zu tun.

Den Bus nach Wien nehmen

Menschen würden nicht nur viele Zusammenhänge intuitiv verstehen, sondern könnten auch komplexe Aktionsabläufe mühelos durchführen. "Wenn wir den Bus nach Wien nehmen wollen, müssen wir nicht jeden Schritt zur Haltestelle, wie wir uns anziehen oder durch welche Tür wir das Gebäude verlassen vorab genau durchspielen. Mit der Planung einer solchen Sequenz tut sich eine Maschine jedoch sehr schwer", führt LeCun aus.

Um neue Durchbrüche bei künstlicher Intelligenz zu erzielen, müssten Systeme selbstständig lernen können, ohne von Menschen betreut zu werden. Sie müssten quasi beim Lernen ein Selbstkorrektiv entwickeln und in der Lage sein, daraus ein Weltmodell zu abstrahieren. Auf Basis dessen könnten sie auch verstehen, welche Konsequenz ihr Handeln oder eine bestimmte Entscheidung habe.

R2-D2 statt Terminator

Müssen wir uns bei Gelingen dieses Plans nicht erst recht fürchten, dass hyperintelligente Maschinen die Menschheit ausschalten wollen? Für LeCun ist die Antwort klar: "Maschinen werden in ferner Zukunft so intelligent wie Menschen sein, aber sie werden nicht die Welt übernehmen."

LeCuns positive Vision von künftigen Robotern: C-3PO und R2-D2.
Foto: imago/Future Image

Da man derzeit noch keine Ahnung habe, wie sich ein System mit menschenähnlicher, autonomer Intelligenz bauen lasse, sei die Frage zudem hypothetisch. Gelinge das, könne man Maschinen unveränderliche Zielvorgaben mitgeben, nach denen sie ihre Handlungen setzen – etwa dass sie alle auf den Schutz und das Wohl der Menschheit ausgerichtet seien.

"Ich stelle mir intelligente Systeme eher wie R2-D2 oder C-3PO und nicht wie den Terminator vor", scherzt LeCun auf entsprechende Nachfrage. Dass Maschinen Emotionen empfinden werden, steht für den renommierten Computerwissenschafter aber außer Frage: "Wenn eine Maschine vorhersagen kann, welche Abfolge ihrer Aktionen eine Zielvorstellung erfüllen oder enttäuschen wird, versteht sie auch das Konzept der Emotion." (Martin Stepanek,1.10.2022)