So viel Pessimismus hätte man von den traditionell alles Negative zur Seite schiebenden US-Amerikanern gar nicht erwartet: Nicht weniger als 75 Prozent fürchten laut einer Gallup-Umfrage aus dem vergangenen Frühjahr, dass die fortschreitende Automatisierung der Arbeitswelt mehr traditionelle Job vernichten wird, als sie neue für höher qualifizierte Arbeitskräfte schafft.

Eine Einschätzung, die Unternehmern wahrscheinlich zu negativ ist, weil sie mit künstlicher Intelligenz (KI) wirtschaftliche Ziele verfolgen. Schneller, mehr und billiger produzieren ist ihr Plan. Sie fordern von Politikern gleichzeitig mehr Maßnahmen zur besseren Qualifizierung, als diese bisher gesetzt haben. Irgendjemand muss ja die Maschinen bedienen.

Bild nicht mehr verfügbar.

Unternehmen haben die Aufgabe, bei jeder neuen KI-Technologie über Arbeitsplätze nachzudenken, die dadurch verlorengehen.
Foto: Getty Images

Der Großindustrielle Hannes Androsch urgiert etwa in seiner Funktion als Vorsitzender des Forschungsrats eine zeitgemäße Bildungs- und Innovationsinitiative und einen Ausbau der flächendeckenden Digitalisierung auf hohem Niveau, um die Automatisierung erst möglich zu machen. International gilt der nächste Mobilfunkstandard 5G als Voraussetzung für die intelligente Fabrik. Davon sei man, so Androsch, noch sehr weit entfernt.

Auch Studien, die vor allem die Chancen dieser laufenden industriellen Revolution sehen, drängen auf raschestmögliche Qualifizierungsmaßnahmen. Das IT-Beratungsunternehmen Gartner publizierte vor etwas mehr als einem halben Jahr die Prognose, dass es schon 2020 nicht weniger als 2,3 Millionen neue Jobs geben wird; 1,8 Millionen traditionelle Arbeitsplätze würden allerdings wegfallen.

Kooperation von Mensch und Maschine

Svetlana Sicular, Vizepräsidentin für Forschung bei Gartner, betonte, der besondere Nutzen von künstlicher Intelligenz liege in der Kooperation von Mensch und Maschine. Unternehmer müssten sich darauf konzentrieren und vor allem überlegen, wie sie ihre Mitarbeiter auf diese so notwendige wie neuartige Zusammenarbeit vorbereiten. Die Unternehmensleitungen müssten bei jeder Investition in Automatisierung analysieren, welche Arbeitskräfte dadurch wegfallen könnten.

DER STANDARD

Eine andere Studienauswertung macht das auch deutlich: Laut International Federation of Robotics werden 2020 etwa drei Millionen Roboter vor allem in der Fertigung im Einsatz sein – und hier vor allem in Japan und Deutschland, zwei schon heute führenden Ländern in Sachen Automatisierung. Die Tatsache, dass in beiden Ländern die Arbeitslosigkeit relativ niedrig ist, stimmt Beobachter optimistisch.

Dennoch: Wird die Industrie diese Aufgabe langfristig wahrnehmen? Auch der Computerwissenschafter Sepp Hochreiter von der Johannes-Kepler-Universität Linz ist überzeugt, dass "ganz viele Jobs wegfallen werden", vor allem mechanische Arbeiten, die aus einfachen, klar begrenzten Handgriffen bestehen: am Fließband, im Callcenter, am Lenkrad eines Pkws oder Lkws.

Es werde aufgrund der raschen Entwicklung des autonomen Fahrens in relativ naher Zukunft keine Taxifahrer mehr geben, dafür aber KI-Experten, die das Netz der fahrenden Maschinen überwachen. Mechaniker müssten dann wohl auch in der Wartung dieser Fahrzeuge geschult werden, wären also höher qualifiziert als jetzt.

Intelligente Maschinen entwickeln sich iterativ: Schritt für Schritt werden Entwicklungserfolge erzielt.
Foto: Getty Images / iStock / PhonlamaiPhoto

Statistische Auswertungen müssten keine Menschen machen, sagt Hochreiter. Erste Diagnosen von Brust- oder Hautkrebs sind von KI aufgrund des raschen Zugriffs auf Daten und Vergleichsmöglichkeiten schneller und präziser als von Ärzten möglich. Ihre Interpretation müssten dann selbstverständlich wieder Menschen übernehmen. Im Journalismus könnten auch Bots auswerten, das wievielte Tor ein Fußballer nun insgesamt geschossen habe. Sportergebnisse und Börsenkurse werden schon jetzt in einigen Redaktionen über Algorithmen eingespielt .

Justus Piater, Informatiker an der Universität Innsbruck, argumentiert ähnlich und stellt die Frage, ob wirklich genug für die Weiterbildung der Arbeitskräfte getan wird, denn die Entwicklungen im Bereich künstliche Intelligenz und Robotik seien rasant und würden in kürzester Zeit zu tiefgreifenden Änderungen führen. Er selbst forscht mit seinem Team an Haushaltsrobotern und daran, wie man ihre Fähigkeiten optimieren könnte, wie also aus dem System, das dem Staubsaugerroboter zugrunde liegt, eines wird, das mehr Aufgaben im Heim übernehmen kann.

Keine Allmachtsfantasien

Davon dürfte kaum Gefahr für den Arbeitsplatz des Menschen ausgehen. Die berufliche Konkurrenz durch KI wird auf einer anderen technologischen Basis stärker – vor allem durch die schon seit einigen Jahren stark gehypte Methode Deep Learning. Die intelligenten Systeme werden dabei mittels neuronaler Netze, und ohne auf den Menschen angewiesen zu sein, aus Erfahrungen lernen.

Ein autonomes Fahrzeug, das lernt, in den Hauptverkehrszeiten Ausweichrouten zu nehmen, um schneller ans Ziel zu kommen, wäre ja eigentlich wünschenswert. Aber wie sicher ist die Nutzung für den Menschen wirklich? Wie sehr muss man sich vor Systemen fürchten, die nicht nur selbstlernend, sondern auch selbstständig sind?

Man muss nicht gleich an Maschinen mit Allmachtsfantasien denken, wie es etwa der Bordcomputer Hal in Stanley Kubricks Meisterwerk "2001: Odyssee im Weltraum" ist. Systeme könnten auch ohne derartige Übernahmegedanken irregeleitet sein, etwa im Verkehr folgenschwere Fehler begehen, weil diese Handlung im neuronalen Netz als richtig ausgelegt wird.

Drohnen als Transportmittel

Mit verkehrstauglichen Flugobjekten hat sich zuletzt die Stadtforscherin Katja Schechtner von der OECD beschäftigt – und zwar im konkreten Fall mit Drohnen. Die Studie "Uncertain Skies: Drones in the World of Tomorrow" analysiert Chancen und Risiken für den Transport von Gütern und Personen durch derartige Flugobjekte.

"Da sprechen wir von fliegenden Maschinen, die Nahrungsmittel liefern, aber auch von solchen, die vielleicht einmal die Last eines großen Passagierflugzeugs tragen können", sagt sie. "Es wird Drohnen geben, die das bestehende Verkehrssystem besser überwachen, aber auch solche, die zum Beispiel an Unfallorte Rettungsbojen transportieren werden."

Es werde unterschiedliche Typen der Flugkörper je nach Nutzungszweck geben. Die Drohne, die ausschließlich mittels künstlicher Intelligenz gesteuert wird, sei eine letzte Stufe der Entwicklungen. Der Status quo: Der Flugkörper muss in Sichtweite des Operators am Boden gesteuert werden, Ausnahmen gibt es in manchen Ländern für klar begrenzte Lufträume: In Ruanda etwa können Drohnen ohne Sichtkontakt mit der Bodenstation innerhalb eines Luftkorridors Blutkonserven liefern, was nur ein paar Stunden dauert. Auf dem Landweg würde es Tage in Anspruch nehmen.

Schechtner: "Bis Drohnen mit KI fliegen können, wird es noch fünf bis zehn Jahre dauern." Und auch danach wird es nicht gleich möglich sein, die autonome Drohne von A nach B zu schicken. Man wird einen rechtlichen Rahmen brauchen – und die Akzeptanz der Gesellschaft. Und die ist nur durch größtmögliche Transparenz erreichbar.

Bild nicht mehr verfügbar.

Autos werden ohne menschlichen Roboter, aber auch ohne Fahrer auskommen.
Foto: Getty Images

Wie immer bei der Einführung neuen Technologien hängen die gesellschaftlichen Auswirkungen davon ab, wer sie wie nützt und welche Regeln damit verbunden sind, ob Staat, Unternehmertum oder Wissenschaft Macht über das Wissen haben und wie dessen Anwendung kontrolliert wird.

Deep Learning dürfte dabei als größtes Risiko eingeschätzt werden. Die Europäische Kommission veröffentliche im vergangenen Frühjahr eine "Erklärung zu künstlicher Intelligenz, Robotik und autonomen Systemen", die genau diese Fragen behandelt: Vor allem wird beklagt, dass die besonders leistungsstarken kognitiven Technologien völlig undurchsichtig in ihrer Herstellung seien. "Ihr Handeln wird nicht mehr linear von Menschen programmiert. Google Brain entwickelt KI-Lösungen, die künstliche Intelligenz angeblich besser und schneller entwickeln können als Menschen. AlphaZero kann sich ohne Kenntnis der Schachregeln innerhalb von vier Stunden eigenständig zu einem Weltklassespieler entwickeln." Und weiter: "Es ist unmöglich, zu verstehen, wie AlphaGo fähig war, den menschlichen Go-Weltmeister zu schlagen.

Grenzen der Nutzung von KI

Durch Deep Learning und sogenannte "Generative Adversarial Network"-Konzepte sind Maschinen in der Lage, sich selbst neue Strategien beizubringen und eigenständig nach neuen analysierbaren Informationen zu suchen." Das Papier wurde von der "Europäischen Gruppe für Ethik der Naturwissenschaften und der Neuen Technologien" publiziert und schloss mit der Forderung nach einer umfassenden Diskussion über Grenzen der Nutzung von KI – und ein entsprechendes Regelwerk, an das sich alle Staaten halten müssten.

Kommentare dazu zeigen bereits jetzt: Es sind immer Unternehmen, die mit großen medialen Erfolgen aufwarten, die es damit in die Schlagzeilen der Medien schaffen. Der Zweck heiligt die Mittel. KI-Unternehmern scheint dabei kein Marketinggag zu billig. Sophia zum Beispiel, die Maschine von Hanson Robotics, kam zu Berühmtheit, als ihr von Saudi-Arabien die Staatsbürgerschaft verliehen wurde, wo Frauen normalerweise keine Staatsbürgerschaft erhalten. Die These vom austauschbaren Menschen wurde hier zynisch in die Realität umgesetzt. Dabei waren Sophias Fähigkeiten laut Beobachtern nicht einmal außergewöhnlich.

Von jener "Superintelligenz", die der Philosoph Nick Bostrom im gleichnamigen Buch beschwört, kann da noch keine Rede sein. Ihre Entwicklung sei ein existenzielles Risiko, orakelt er. Der Physiker Max Tegmark meinte in "Leben 3.0" sogar: Eine Superintelligenz könnte viel schneller Menschen ausrotten, als wir es mit acht von elf Elefantenarten geschafft haben. Diese Superintelligenz ist zwar noch nicht da, und es ist auch nicht sicher, ob es sie jemals geben wird. Aktuelle Entwicklungen sind aber so weitreichend, dass man es nicht ausschließen kann.

Bild nicht mehr verfügbar.

Der Roboter als Helfer: eine Vision, die schon lange verfolgt wird und die mit zunehmend leistungsstarken Systemen von der Angst vor zu mächtigen Maschinen begleitet wird.
Foto: Getty Images

Aber vielleicht liegt die Gefahr ja gar nicht in der Zukunft, sondern in der Gegenwart, meint Justus Piater aus Innsbruck. Mit der Demokratisierung von Information über Social Media ging auch die Demokratisierung von Fehlinformation einher. Da aufrüttelnde Inhalte durch die künstliche Intelligenz von Facebook & Co vorrangig befördert werden, stellen diese Plattformen höchst effektive Mechanismen zur Verbreitung von Propaganda dar.

Damit lässt sich Wählerverhalten gezielt beeinflussen, Vertrauen in die Relevanz faktischer Informationen überhaupt zerstören – und damit auch der Stellenwert von gutem Journalismus vernichten. Das stelle eine Bedrohung für die freie, demokratische Gesellschaftsordnung dar. (Peter Illetschko, FORSCHUNG, 22.8.2018)