Sehr viele Jobs werden wegfallen, sagte der Computerwissenschafter Sepp Hochreiter von der Johannes-Kepler-Universität (JKU) Linz schon vor einigen Jahren dem Standard, vor allem mechanische Arbeiten, die aus einfachen, klar begrenzten Handgriffen bestehen: am Fließband, im Callcenter, am Lenkrad eines Pkws oder Lkws. Es werde aufgrund der raschen Entwicklung des autonomen Fahrens in relativ naher Zukunft auch keine Taxifahrer mehr geben, dafür aber KI-Experten, die das Netz der fahrenden Maschinen überwachen. Mechaniker müssten dann wohl auch in der Wartung dieser Fahrzeuge geschult werden, wären also höher qualifiziert als jetzt.

Der binäre Code und die Allmacht des digitalen Wandels: Auch durch KI wird sich viel ändern, sagen Experten. Jobs werden wegfallen.
Foto: Getty Images

Statistische Auswertungen könnten KI-Systeme übernehmen, sagte Hochreiter außerdem. Erste Diagnosen von Brust- oder Hautkrebs sind von KI aufgrund des raschen Zugriffs auf Daten und Vergleichsmöglichkeiten schneller und präziser als von Ärzten möglich. Ihre Interpretation müssten dann selbstverständlich wieder Menschen überlassen werden. Im Journalismus könnten auch Bots auswerten, das wie vielte Tor ein Fußballer nun insgesamt geschossen habe. Sportergebnisse und Börsenkurse werden schon jetzt in einigen Redaktionen über Algorithmen eingespielt. Kürzlich hat die britische Zeitung Guardian erstmals einen von einer KI geschriebenen Text veröffentlicht.

Robotergesetze

Die Menschheit befindet sich inmitten eines gesellschaftlichen Umbruchs. Dafür braucht es Regeln, darüber sind sich Experten einig. Der Informatiker Justus Piater von der Uni Innsbruck ist prinzipiell für ethische Prinzipien im Umgang mit künstlicher Intelligenz – sie würden sich allerdings kaum über datenbasierte Regelwerke so formalisieren lassen, dass sich das KI-System danach richten könne, meint der Wissenschafter. Piater arbeitet mit Haushaltsrobotern und will deren Interaktion mit Menschen verbessern. Der legendäre Science-Fiction-Autor Isaac Asimov habe das ethische Problem in der Interaktion Mensch-Maschine bereits mit den Robotergesetzen in seinen Romanen beschrieben. Piater schränkt aber ein: "Die Bücher handeln davon, wie die Roboter diesen Gesetzen folgen und gerade dadurch den Interessen der Menschen zuwiderhandeln." Die Konsequenz könne nur heißen: "Das menschliche Schicksal darf von keinem KI-System abhängig sein." Die Einschränkungen seien auf unterschiedlichsten Ebenen wichtig. Oberstes Gebot sei der Schutz von persönlichen Daten. Piater: "Das beginnt beim Viertel, in dem man wohnt, und endet bei der Hautfarbe. Die Verknüpfung solcher Daten verfestigt die in den vorhandenen Daten abgebildeten Tendenzen und Vorurteile."

Trolley-Problem ist überbewertet

Keine Nachteile für den Menschen erwartet Piater vom autonomen Fahren, sobald die verbleibenden technischen Probleme gelöst sind. Autonome Fahrzeuge würden eines Tages sicherer fahren als handgesteuerte. Das vielzitierte Trolley-Problem sei in diesem Zusammenhang überbewertet: Das autonome Fahrzeug muss einen Unfall verhindern und kann dabei zwischen einem Crash mit einer Pensionistin und einem Kind wählen. Wie sollte es wählen? Piater sagt, diese Frage sei zweitrangig, weil das Ziel sein müsse, dass man gar nicht erst in eine solche Notfallsituation gerät. "Die Maschine ist in dem Fall potenziell besser als der Mensch, der in solchen Situationen in Panik und nicht nach genauen Überlegungen handelt."

Ehe das nicht sichergestellt sei, werden sich autonome Fahrzeuge nicht durchsetzen, ist der Wissenschafter überzeugt. Ein viel größeres Problem sieht Piater im schon jahrelang andauernden Trend, politische Meinungen mithilfe von Social Media zu verbreiten. "Da werden deren datengetriebene Empfehlungssysteme genutzt, um Wahlen zu beeinflussen und Verschwörungstheorien und Fake-News zu verbreiten. Das ist im höchsten Maß demokratiegefährdend", sagt der Wissenschafter. Dagegen gebe es noch kein wirklich probates Mittel.

KlingonSpider

Möglicherweise hat das Forschungsteam um Ross King vom Austrian Institute of Technology (AIT) bald eine Lösung für das Problem. King ist Head der Competence Unit Data Science & Artificial Intelligence und berichtet von einem Projekt, das sein Team in Zusammenarbeit mit anderen Forschungsgruppen im AIT Center for Digital Safety & Security am 1. 10. beginnt. Dem liegt eine Grundidee zugrunde: Ein Mensch kategorisiert eine Reihe von Nachrichten als "richtig" oder "falsch". Das System, das auf maschinellem Lernen basiert, wird anhand dieser Kategorisierungen trainiert. Anschließend wird es auf andere Testdaten angewendet, die ebenfalls von einem Menschen kategorisiert wurden, und erreicht eine Übereinstimmung von immerhin 80 Prozent. Ross King gibt dabei zu bedenken, dass wir Menschen uns oft untereinander nicht einig sind, was Fake-News sind und was nicht. Das Projekt wird über das Forschungsprogramm KIRAS der Österreichischen Forschungsförderungsgesellschaft FFG und des Klimaschutzministeriums finanziert und läuft zwei Jahre. Danach soll aber noch nicht Schluss sein: King hofft neben der Unterstützung durch das AIT selbst auch auf Förderungen durch das nächste EU-Forschungsrahmenprogramm "Horizon Europe".

Ko-Evolution von Mensch und KI

Es scheint so, als würde die Menschheit wieder einmal von den Technologien und den damit verbundenen Möglichkeiten überrascht werden. KI kann sich schneller entwickeln als der allen gesellschaftlichen Normen konforme Umgang mit ihr. Ross King zeigt sich nicht überrascht von der Schnelligkeit der Entwicklungen. Die Technologie sei immer vor allen Regelwerken der Gesellschaft nutzbar.

Wie weit ist die Evolution fortgeschritten? Kann sich eine KI zu irgendeinem Zeitpunkt verselbstständigen? Im Klassiker 2001 – Odyssee im Weltraum hat ein Bordcomputer namens Hal, der abgeschaltet werden sollte, das Kommando über das Raumschiff übernommen und sich letztlich brutal an den Menschen gerächt. Von einer Realisierung derart dystopischer Vorstellungen seien wir allerdings weit entfernt, sagt King, wiewohl manche Entwicklungen in diesem Bereich schon erstaunlich seien: Der AIT-Forscher meint damit etwa das Computerprogramm Alpha Go vom Entwickler Deep Mind, das autodidaktisch funktioniert hat und sich selbst das Brettspiel Go beigebracht hat.

Von dystopischen Vorstellungen über die Macht der KI sind wir weit entfernt
Foto: Getty Images

Aber man muss gar nicht so weit gehen wie Arthur C. Clarke in seinem berühmten Odyssee im Weltraum-Roman, um sich Sorgen machen zu können. Stefan Woltran von der TU Wien schlägt vor, die Kontrolle von Entwicklungen in der künstlichen Intelligenz nicht dem Zufall zu überlassen. Er bestätigt: Derzeit gebe es europaweit kaum eine legistische Handhabe – und die Beeinflussung der Gesellschaft durch KI sei weitreichend, von der Nutzung in der Medizin bis zu Änderungen am Arbeitsplatz. Deswegen müsse man die KI so kontrollieren, wie man die Entwicklung von Medikamenten und Impfstoffen kontrolliert. Die Systeme müssten eingehend geprüft werden, ehe eine Kooperation mit Menschen möglich ist.

Der fehlende Diskurs

Es fehle ein öffentlicher Diskurs über Chancen und Risiken im Umgang mit KI. Die Gesellschaft wisse nichts mit dem Thema anzufangen. Woltran kann dem Gedanken zwar etwas abgewinnen, dass KI vermutlich klarer und verständlicher wird, wenn sie in menschähnlichen Robotern implementiert wird. Dann sollte man sich aber wieder die Frage stellen, wie das Mantra, die KI habe dem Menschen zu dienen, negativ auf zwischenmenschliche Beziehungen Einfluss nehmen könnte. "Wir sollten einander unbeeinflusst davon respektvoll begegnen."

Der Mensch und das KI-System, ein weites Feld: Woltran verweist auch auf das Wiener Manifest für digitalen Humanismus von vergangenem Jahr, das der TU-Informatiker Hannes Werthner federführend betrieben hat, ein Aufruf zum Nachdenken über digitale Technologien, also auch KI-Systeme. Darin heißt es: "Digitale Technologien verändern die Gesellschaft fundamental und stellen unser Verständnis infrage, was unsere Existenz als Menschen ausmacht. Viel steht auf dem Spiel. Die Herausforderung einer gerechten und demokratischen Gesellschaft mit dem Menschen im Zentrum des technologischen Fortschritts muss mit Entschlossenheit und wissenschaftlichem Einfallsreichtum bewältigt werden." Dafür braucht es Kontrollmechanismen. Die Frage ist nur, ob sie derzeit wirklich umfassend bestehen.

Digitale Technologien verändern die Gesellschaft fundamental
Foto: Getty

Weltweit sind zahlreiche Strategien in den vergangenen Jahren entstanden, um zumindest die Infrastruktur für eine Gesellschaft aufzubauen, die mit KI leben soll. In Österreich wartet die KI-Strategie noch auf ihre Umsetzung: Der Regierungswechsel von ÖVP-FPÖ auf ÖVP-Grüne sei ein entscheidender Faktor für die Verzögerung der Umsetzung gewesen, heißt es. Selbstverständlich war auch die Corona-Krise mit schuld daran. Die Strategie wird unter anderem auf Basis einer Studie umgesetzt, die im Juni 2019 im Auftrag des heutigen Klimaschutzministeriums erstellt wurde. Die Autoren waren Erich Prem (Strategie- und Unternehmensberatung Eutema) und Sascha Ruhland (KMU Forschung Austria). Sie sehen ein hohes Potenzial für KI in Österreich.

Auch hierzulande werden vor allem Fachkräfte gesucht. Laut dem Positionspapier "Forderungen der Austrian Society for Artificial Intelligence (ASAI) zur zeitnahen Etablierung einer konkreten österreichischen AI-Strategie", an dem Woltran mitgearbeitet hat, hinkt man hinter Ländern wie Deutschland hinterher. Dort wurden von 150 Maßnahmen der KI-Strategie des Bundes 2019 bereits 100 gestartet. Dabei wurden bis zu 30 KI-Humboldt-Professuren, dotiert jeweils mit bis zu fünf Millionen Euro, vergeben. Außerdem wurde die Förderung für fünf universitäre KI-Zentren und eine Forschungsinstitution verdoppelt und zusätzlich 15 weitere bundesweite Fördermaßnahmen begonnen. In den Niederlanden investieren Amsterdams Universitäten 300 Millionen Euro in künstliche Intelligenz in den nächsten zehn Jahren, um 150 neue Professuren und PhD-Stellen zu schaffen:

Forschungsangebote zu KI

In Österreich wird zum Thema bereits umfassend geforscht, nicht nur am Austrian Research Institute for Artificial Intelligence (OFAI) und am Austrian Institute of Technology (AIT), auch am Joanneum Research. Universitäten wie die Johannes-Kepler-Uni, die TU Wien, die TU Graz, aber auch die Uni Salzburg und die Uni Innsbruck bieten Schwerpunkte an. Im Bereich der FHs sind unter anderem Salzburg, St. Pölten und die Fachhochschule Joanneum sehr aktiv. Die österreichische Bundesregierung will auch den Plan umsetzen, eine eigene TU Linz zu gründen, die sich um Lehre und Forschung im Bereich Digitalisierung und daher wohl auch im Bereich der künstlichen Intelligenz bemühen soll. Wissenschafter und Innovationsökonomen kritisierten dieses Vorhaben.

Erich Prem, einer der Autoren der besagten Studie, hat im Zuge dieser Arbeit eine Vielzahl an Empfehlungen in Papierform gelesen. Viele von ihnen, auch jene der OSZE und des österreichischen Roboterrats, hätten einen bemerkenswerten Passus. KI müsse sich an geltende Gesetze halten. Prem dazu: "Irgendetwas muss verkehrt sein in dieser Welt, wenn man das extra betonen muss." (Peter Illetschko, 30.9.2020)