Vor wenigen Jahren galt die Digitalisierung noch für manche als Segen, für andere als Fluch. Die Auswirkungen auf die Arbeitswelt treten nun nach und nach zu Tage, mit Licht und Schatten, positiven und negativen Auswirkungen. Doch der nächste Schritt in Richtung Industrie 4.0, „Künstliche Intelligenz“, ist beschritten als eines der großen neuen Themengebiete, die oft in einem Atemzug genannt werden mit selbstlernenden Maschinen und virtueller Realität

Big Data, KI, AI – what? 

Klingt alles sehr fancy, doch was steckt nun wirklich dahinter? Von künstlicher Intelligenz wird gesprochen, wenn das jeweilige System (zum Beispiel eine Maschine mit entsprechender Software) Informationen nicht nur aufnehmen kann, sondern diese auch weiterverarbeitet, beurteilen kann und selbstständig Entscheidungen, basierend auf den erhaltenen Daten, trifft. 

Terra X Lesch & Co

 

Die Grundlage für diese Möglichkeit des eigenständigen Lernens und Entscheidens sind möglichst umfangreiche Datenmassen, denn je mehr Daten vorhanden sind, desto mehr „Futter“ steht dem Algorithmus zur Verfügung, um sich selbst weiterzuentwickeln. Big Data, ein weiteres Schlagwort in diesem Zusammenhang, kommt hier also sinnvoll zur Anwendung und verdient somit sein negatives Image nicht immer. 

Während die meisten Menschen mit Big Data gedanklich sofort an Überwachungsmaßnahmen oder zumindest Tracking von Onlineaktivitäten zu Marketingzwecken denken, gibt es schließlich auch sinnvolle Einsatzmöglichkeiten der Technologie.

Altes Wissen neu verpackt

Während alles rund um Big Data und selbstlernende Computer topmodern klingt, sind die Grundideen und Modelle, die genutzt werden, altbekannte Berechnungsmethoden. Ein typisches Beispiel dafür ist der Monte-Carlo-Algorithmus. Diese Methode arbeitet ergebnisoffen und nutzt ein einfaches Prinzip: den Zufall.

MIT OpenCourseWare

Der Algorithmus liefert ständig Zwischenergebnisse, für die definiert wird, „wie falsch“ sie sozusagen sein dürfen, es gibt also gewissermaßen eine Obergrenze bei der bekannt ist, ab hier macht es keinen Sinn mehr. Bei allen anderen Werten, die diese Grenze nicht übersteigen, ist es hingegen so, dass sie wie für ein Näherungsverfahren genutzt werden können und so nach und nach – quasi selbstlernend – ein Resultat ermittelt wird. Das klingt nun erstmal sehr theoretisch, doch die praktischen Anwendungsmöglichkeiten sind geradezu endlos. Ein simples Beispiel dafür ist die Anwendung des MC-Algorithmus bei Loskalkulatoren im Lotto.

Anhand dieses Beispiels zeigt sich gut, dass Technologien noch so innovativ sein können, die Basis bildet fundiertes, historisch gewachsenes Wissen, das (damals noch) menschlichen Gehirnen entsprungen ist und nicht von Maschinen oder Programmen generiert wurde. 

Zufälle zu berechnen ist mathematisch aber eine gewaltige Herausforderung. Denn Mathematik ist eben genau das nicht: zufällig. Mathematik versucht in ihrem Kern eine Systematik zu sein. Und Maschinen sind mathematisch Manifestation. Echte Zufälle mathematisch zu generieren bedeutet also Höchstleistung für Maschinen.

Die heutigen Technologien sind somit Anwendungen, die auf historischem, menschlich produzierten Wissen basieren und diese Erkenntnisse nur in digitaler, automatisierter Form nutzen – hoffentlich, um die Menschheit voran zu bringen und das Beste aus unserem bisherigen Wissen zu machen.

Lernen nie verlernen

Entscheidend sind zwei Dinge: Erstens, dass neue Technologien stetig entwickelt werden und wir uns nicht nur technologisch, sondern auch gesellschaftlich weiterentwickeln. Zweitens, dass nicht darauf vergessen wird, dass die Wissensbasis aller neuen Technologien stets der Mensch erschaffen hat. 

Es besteht also eine gewisse Verantwortung, die Bedeutung von Bildung, Ausbildung und Wissensvermittlung generell, innerhalb der Gesellschaft als wichtiges Gut zu verankern. Es muss schlaue Köpfe geben, die neue Technologien entwickeln, das menschliche Wissen ausbauen und gleichzeitig dafür sorgen, dass innerhalb der Gesellschaft nie die Situation entsteht, dass das selbstständige Denken verloren geht und schlicht Maschinen überlassen wird. Wer selbst so wenig Wissen und Fähigkeiten hat, dass stets Google befragt werden muss, wird nicht in der Lage sein, sinnstiftenden Tätigkeiten nachzugehen. Deshalb ist es wichtig, bei allem Vorantreiben von Technologien nie außer Acht zu lassen, wie diese entstehen – und dass es menschliches Wissen braucht, um technologischen Fortschritt zu erschaffen.

Algorithmen wie der von Google brauchen menschliches Wissen.
Foto: APA/AFP/ALASTAIR PIKE

Auswirkungen auf Gesellschaft und Arbeitswelt

Immer, wenn Automatisierung und Industrialisierung vorangetrieben wurden, gab es große Sorgen um Arbeitsplätze. Das ist auch im Zuge der Digitalisierung ein Dauerthema – welche Menschen sind ersetzbar, welche Leistungen können zukünftig durch Softwarelösungen erledigt werden? Gesellschaften werden durch diese Entwicklungen gespalten. Auf der einen Seite bilden sich Gruppen, die Innovationen vorantreiben möchten, die den Fortschritt herbeisehen und es nicht erwarten können, neue Technologien anzuwenden. Auf der anderen Seite stehen Menschen, die schlichtweg in Sorge geraten, ihre Jobs könnten durch Programme und Maschinen ersetzt werden

Daher stellt sich die Frage, wie technologischer Fortschritt zu bewerten ist. Was genau ist wirklich Fortschritt? Ist es schon Fortschritt, wenn AI dazu führt, dass Maschinen Tätigkeiten präzisier, schneller und selbstständig ausführen können? Oder ist es gesellschaftlicher Schaden in Form von verlorenen Arbeitsplätzen? Innovationen werden zum gesellschaftspolitischen Spannungsfeld. Die Antworten von Seiten der Politik sind allerdings ähnlich konträr. Während wirtschaftsliberale Parteien die Ansicht vertreten, im Zuge der Globalisierung wäre jede Verlangsamung beim Vorantreiben von Innovationen eine volkswirtschaftliche Katastrophe, möchten linksgerichtete Politiker mit höheren Mindestlöhnen, Maschinensteuer und bedingungslosem Grundeinkommen für Ausgleich sorgen. 

Welche Auswirkungen es schlussendlich wirklich durch Technologien wie AI, selbstlernende Maschinen und neue Anwendungsoptionen von Big Data haben wird, ist ungewiss. Ebenso unklar ist, welche Veränderungen unsere Gesellschaft dadurch erleben wird und mit welchen politischen Maßnahmen es möglich sein wird, diesen Veränderungen entgegenzutreten, um sie gesellschaftlich verträglich zu gestalten.

Fazit: Corona-Boom für KIs? 

Eine Gesellschaft mit hohem Bildungsniveau muss neue Technologien nicht fürchten, ganz im Gegenteil. Gleichzeitig sollte sie sich nicht auf sie verlassen und stets dafür sorgen, den Menschen nicht so viel Denkarbeit abnehmen, dass eine Gesellschaft entsteht, in der das Wissen der Menschen keinen Stellenwert mehr hat, weil ohnehin alles gegoogelt werden kann. 

Die Corona-Pandemie wird die Gesellschaft nicht plötzlich digitalisieren, da viele Technologien ohnehin bereits genutzt werden, ohne dass sie gewaltig im öffentlichen Bewusstsein wären. 

Es ist ein langsamer Prozess, der schlussendlich erfolgreich sein dürfte: Das langsame Probieren, Testen und Akzeptieren neuer Technologie als nützlich sowie deren Integration in den Alltag. (Christian Allner, 4.8.2020)

Hinweis: Eine internationale Vorlesungsreihe, unter anderem mit der Uni Klagenfurt, fand bis Juli mit dem Fokus auf Pandemie und Gesellschaft statt. Die Ergebnisse der Reihe sollen in einem Sammelband veröffentlicht werden.

Weitere Beiträge des Bloggers