Die Menschheit setzt immer stärker auf Künstliche Intelligenz. Diese sei jedoch nicht wirklich kontrollierbar, wenn sie zu intelligent werde.

Foto: dpa/Arne Dedert

Weltweit arbeiten Unternehmen und Regierungen an der Weiterentwicklung künstlicher Intelligenz (KI). Während sich manch einer große Errungenschaften erhofft, sehen andere eine bevorstehende Dystopie. Forscher des Max-Planck-Instituts kamen im Rahmen einer Studie nun zum Ergebnis, dass es möglicherweise nicht möglich sei, die Handlungen einer KI vorherzusagen – wodurch ebendiese nicht mehr kontrollierbar wäre.

"Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science Fiction", sagt diesbezüglich Manuel Cebrian, Co-Autor der Studie und Leiter der Forschungsgruppe. Es gebe jedoch bereits jetzt Maschinen, die bestimmte wichtige Aufgaben unabhängig erfüllen würden, "ohne dass die Programmierer vollständig verstehen, wie sie das gelernt haben."

Für die Gesellschaft immer wichtiger

Zudem werde im Rahmen der Forschung weiter hervorgehoben, dass unsere Gesellschaft sich schon jetzt immer stärker auf Künstliche Intelligenz verlasse, berichtet "Business Insider". Das inkludiere sowohl KI-gestützte Bewerbungsgespräche, Musik als auch Memes. Um jedoch die Handlungen einer wirklich intelligenten KI vorhersagen zu können, bräuchte es eine exakte Simulation ebendieser.

Fragen rund um "Containment Algorithms", also der Versuch, Künstliche Intelligenzen unter Kontrolle zu halten, sollen dabei dem erstem Gesetz der Robotik ähneln, den Science-Fiction-Autor Isaac Asimov 1942 präsentierte. Laut ihm könne ein Roboter einem Menschen keinen Schaden zufügen oder zulassen, dass er zu schaden kommt. Er müsse Befehle befolgen, sofern ebendiese nicht im Konflikt mit dem ersten Gesetz stünden. Dieses besage, dass der Roboter sich selbst schützen müsse, sofern das nicht mit dem ersten oder zweiten Gesetz in Konflikt stehe.

Versuche der Kontrolle

Erziehe man eine Künstliche Intelligenz nach den Gesetzen der Robotik, wäre sie möglicherweise in der Lage, eigenständige Schlussfolgerungen zu ziehen. Das würde jedoch noch lange nicht bedeuten, dass sie kontrolliert werden kann, so die Forscher. "Die Fähigkeiten moderner Computer, sich mithilfe ausgefeilter Algorithmen des maschinellen Lernens anzupassen, macht es noch schwieriger, Annahmen über das letztendliche Verhalten einer superintelligenten KI zu treffen, sagt Iyad Rahwan, ein weiterer am Projekt beteiligter Forscher.

Nur eine Frage der Zeit

Laut ihm solle eine Künstliche Intelligenz nur dann entwickelt werden, wenn sie wirklich notwendig ist. Denn es sei schwierig, den Verlauf ihrer weiteren Entwicklung vorherzusagen und ihre Fähigkeiten im weiteren Verlauf zu begrenzen, warnt Rahwan. Bedenkt man, dass Tech-Konzerne wie Google, Amazon und Apple konstant versuchen, Künstliche Intelligenz für unternehmerische Zwecke weiterzuentwickeln, scheint es jedoch nur eine Frage der Zeit zu sein, bis eine superintelligente KI existiert. (mick, 7.3.2021)