Als Künstliche Intelligenz (KI) werden lern- und anpassungsfähige Programme bezeichnet. KI-Systeme können durch Analyse großer Datenmengen und Erfahrung lernen, sich auf neue Situationen einstellen und Aufgaben bewältigen, die kognitive Fähigkeiten ähnlich jener des Menschen erfordern. Angetrieben wird die Entwicklung vor allem durch große vorhandene Datenmengen und immer bessere Rechenleistung.

Laut der OECD-Sachverständigengruppe für KI (AIGO) handelt es sich um maschinenbasierte Systeme, die "für bestimmte von Menschen definierte Ziele Voraussagen machen, Empfehlungen abgeben oder Entscheidungen treffen können, die reale oder virtuelle Umgebungen beeinflussen". Der Österreichische Rat für Robotik und Künstliche Intelligenz (ACRAI) bezeichnet KI als "Systeme mit 'intelligentem' Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad autonom handeln".

Konkret sollen von einer KI gesteuerte technische Systeme – etwa Roboter, selbstfahrende Autos, Online-Shops oder ganze Fabrikstraßen – Probleme eigenständig erkennen und lösen. Im Alltag sind KI-Systeme bereits angekommen, etwa in Form smarter Lautsprecher, Sprachsteuerung am Handy, Übersetzungsprogrammen oder Musik-Empfehlungen bei Streamingdiensten. Sie liefern auch beeindruckende Ergebnisse, etwa wenn solche Programme Schach-Großmeister überflügeln oder Krebszellen treffsicherer identifizieren als menschliche Experten.

Weil KI-Systeme große Datenmengen benötigen, um Muster und Gesetzmäßigkeiten zu erkennen, gibt es auch Bedenken bezüglich des Datenschutzes. Zudem kann es durch einseitige Daten zu einer Voreingenommenheit ("Bias") von Entscheidungen solcher Systeme kommen. Vielfach ist auch nicht nachvollziehbar, wie KI-Systeme zu ihren Entscheidungen gelangen.

Foto: APA/dpa/Hauke-Christian Dittrich

Ob im Börsenhandel, am "Digitalen Amt", beim Online-Einkauf oder bei Spracherkennungssystemen am Smartphone – Künstliche Intelligenz (KI) ist in aller Munde. Auch die Technologiegespräche in Alpbach (22.-24. August) dominiert die Thematik, die hohe Erwartungen weckt, aber auch große Befürchtungen hervorruft. Seitens der Politik setzt man vor allem auf Expertengremien.

Bots und Algorithmen

Konkrete Anwendungen gibt es bereits in großer Zahl, wenn man etwa an Übersetzungs- und Bilderkennungssoftware, immer flexiblere Chat-Bots, Spam-Mail-Blocker, den Algorithmus nach dem Google Suchergebnisse priorisiert oder die Playlist-Vorschläge beim Musikstreaming denkt. Dem Nutzer ist nicht immer bewusst, dass er es mit KI zu tun hat und durch sein Verhalten auch wichtige Daten zur selbstständigen Weiterentwicklung ebendieser liefert.

Vorangetrieben werden die stark datengetriebenen Ansätze, die auf Systemen mit der Fähigkeit zum maschinellen Lernen fußen, vor allem von Internet- oder Logistik-Großkonzernen aus den USA oder China wie Amazon, dem Google-Mutterkonzern Alphabet, Facebook oder Alibaba. Die Gesetzgeber finden sich vielfach in der Zwickmühle: Einerseits gilt es, dem wichtigen Innovationsfeld nicht die Dynamik zu nehmen, andererseits braucht es Regulierung – etwa für den Umgang mit personenbezogenen Daten. Zudem gilt es für Europa den Anschluss an das Silicon Valley oder Asien auf dem Gebiet nicht zu verlieren.

Um sich in dem neuen Feld zurechtzufinden, richteten zahlreiche Regierungen und EU-Institutionen beratende Gremien ein. In Österreich ist das seit 2017 der Rat für Robotik und Künstliche Intelligenz (ACRAI), die EU-Kommission setzt etwa auf eine High-Level-Expertengruppe, die im April ihre "Ethischen Leitlinien für vertrauenswürdige KI" präsentiert hat. Diese beinhalten die Gestaltung und Kontrolle solcher Systeme unter menschlicher Aufsicht, das Achten auf Robustheit und Sicherheit, die Erfüllung von Datenschutz-Prinzipien, die Nachvollziehbarkeit der Arbeit der Systeme, die Nicht-Diskriminierung benachteiligter Gruppen durch die Entwicklungen, die Berücksichtigung gesellschaftlicher und ökologischer Konsequenzen von Technologien und eine Rechenschaftspflicht.

"Ethischerer" Weg

Der Grundgedanke dahinter ist, dass Europa im Gegensatz zu den USA mit seinen laxen rechtlichen Vorgaben, und China, das KI auch massiv zur staatlichen Überwachung einsetzt und weiterentwickelt, einen eigenen, "ethischeren" Weg beschreitet.

Seit 2017 haben sich insgesamt rund 20 Industrieländer Strategien für Künstliche Intelligenz gegeben. Nachdem die deutsche Regierung in ihrer Ende 2018 vorgestellten KI-Strategie bis zum Jahr 2025 zusätzlich drei Mrd. Euro in den Sektor investieren möchte, lässt die ursprünglich für die diesjährigen Alpbacher Technologiegespräche angekündigte österreichische Strategie unter dem Arbeitstitel "Artificial Intelligence Mission Austria 2030" in Folge des Koalitionsendes und der resultierenden Neuwahlen noch auf sich warten.

Auch die OECD hat im Juni unter dem Titel "Künstliche Intelligenz in der Gesellschaft" eine umfassende, länderübergreifende Publikation vorgelegt. Im Mai wurden die nicht rechtsverbindlichen OECD-Ratsempfehlung zu künstlicher Intelligenz von den Mitgliedsländern und einigen weiteren Staaten angenommen. Im Kern wird auch hier stark betont, dass KI gefördert werden sollte, "die innovativ und vertrauenswürdig ist und die Menschenrechte und demokratische Werte achtet".

Chancen und Gefahren hervorheben

Gemeinsam ist all den Empfehlungen und Strategien, dass einerseits ganz klar die wirtschaftlichen und gesellschaftlichen Chancen, und andererseits die ethischen und sozialen Gefahren hergehoben werden. "Diese neuen Technologien haben das Potenzial, zur Lösung der großen Herausforderungen unserer Zeit beizutragen, wobei ihre Anwendungsgebiete vielseitig sind: Gefährliche, monotone, ungesunde oder anstrengende Tätigkeiten können beispielsweise von Robotersystemen übernommen werden", heißt es etwa seitens des ACRAI. Gleichzeitig wird das Potenzial betont, "langfristig Arbeitsplätze zu schaffen bzw. zu erhalten". "Es erscheint aber offen, ob Zahl und Qualität der neuen Jobs denen der fortfallenden gleichkommt", schrieb das deutsche Science Media Center (SMC) 2018.

Den Potenzialen der KI stehen aber auch Risiken gegenüber, etwa "dass verzerrte Wahrnehmungen, sogenannte Biases, aus der analogen in die digitale Welt übertragen werden", wie die OECD schreibt. Manche KI-Systeme seien auch derart komplex, "dass ihre Entscheidungen u.U. nicht erklärt werden können". Das ist beispielsweise vor allem dann problematisch, wenn es um die Einschätzung von Kreditwürdigkeit durch KI, automatisierte Entscheidungen in Bewerbungsprozessen oder die Nutzung von intransparenten Systemen durch Polizei oder Geheimdienste geht, so das SMC, das auch die prinzipielle Problematik ins Treffen führt, dass sich viel KI-Know-how zur Zeit exklusiv in den Händen weniger großer Unternehmen befindet. (APA, 16.8.2019)