Alphastar im Wettkampf um "Starcraft II".

Grafik: Deepmind

Die Forschung an künstlicher Intelligenz hat in den vergangenen Jahren signifikante Fortschritte gemacht. Einer der aufsehenerregendsten Durchbrüche war dabei, als Googles Deepmind-Abteilung im Jahr 2016 erstmals die besten Spieler der Welt im Brettspiel Go schlug – Jahre bevor dies erwartet wurde. Mittlerweile konzentriert man sich bei Deepmind auf komplexere Spiele, und dies mit nicht minder verblüffenden Ergebnissen, wie sich am Donnerstag zeigte.

Wettbewerb

Eine neue Deepmind-KI namens Alphastar hat zum ersten Mal Profispieler im Echzeitstrategiespiel "Starcraft II" geschlagen. In dem Schaukampf musste sich die KI nur ein einziges Mal ihrem menschlichen Gegenüber geschlagen geben, zehnmal verblieb sie hingegen gegen Grzegorz "MaNa" Komincz und Dario "TLO" Wünsch vom Team Liquid siegreich.

"Starcraft II" stellt eine wesentlich größere Herausforderung für die KI dar, als es Go war. Im Gegensatz zum Brettspiel hat der Computer hier keine Chance, seine Züge in Ruhe zu überlegen, er muss in Echtzeit reagieren, sonst wäre er ein leichtes Opfer für seine Gegner. Professionelle Kommentatoren zeigten sich jedenfalls von der Spielweise der KI angetan: Gerade bei der präzisen Steuerung zahlreicher Einheiten hebe sich Alphastar deutlich von seinem menschlichen Gegenüber ab.

DeepMind

Begrenzungen

Um einen fairen Vergleich zu ermöglichen, wurden die Fähigkeiten der KI absichtlich beschnitten. So konnte Alphastar etwa nicht mehr Klicks vornehmen als es einem Menschen physisch möglich ist. Genaugenommen lagen in dieser Hinsicht die Werte von Alphastar sogar unter jenen seiner Opponenten: Mit 280 "Aktionen pro Minute" bewegt sich Alphastar unter dem Niveau von Profispielern. Auch bei der Verzögerungszeit zwischen Beobachtung und Aktion erzielt die KI mit 350 Millisekunden einen Wert, den Profis unterbieten.

Unfairer Vorteil?

Ein anderer Punkt sorgte hingegen für Diskussionen unter den Kommentatoren: Konnte die KI doch die gesamte Map einsehe, was einem Menschen nicht möglich wäre. Dies habe Alphastar erlaubt Einheiten an unterschiedlichen Stellen der Karte in rascher Reihenfolge zu bewegen. Etwas, das einem Menschen in dieser Perfektion nicht möglich gewesen wäre, laut der Vorwurf. Bei jenem Spiel, das Alphastar verloren hat, kam denn auch eine Version der KI zum Einsatz, die zusätzliche Einschränkungen in Hinblick auf den Umgang mit der In-Game-Kamera aufwies – also eben keinen Blick auf die gesamte Karte erlaubte.

Bei Deepmind widerspricht man dieser Einschätzung trotzdem, die KI müsse sich auch so schon immer auf einen Teil der Karte konzentrieren. Die Niederlage sei vielmehr darin begründet, dass es sich bei der bei der im betreffenden Spiel eingesetzten Alphastar-Variante noch um eine sehr neue handelte, die nur sieben Tage lange trainiert wurde, und strategische Fehler begangen habe.

Die Statistik zeigt: Alphastar gewinnt, obwohl es durch die auferlegten Beschränkungen sogar weniger Aktionen pro Minute setzt als seine menschlichen Kontrahenten.
Grafik: Deepmind

KI-Forscher zeigen sich von dem Ergebnis jedenfalls begeistert: Gegenüber "The Verge" betont etwa Dave Churchill, der schon länger in die "Starcraft"-KI-Entwicklung involviert ist, dass die Stärke von Alphastar verblüffend sei. Dieses Niveau sei von Experten frühestens in einem Jahr erwartet worden, Deepmind ist hier seiner Zeit als einmal mehr voraus. Und auch die menschlichen Widersacher zeigten sich angetan: Die Spiele gegen Alphastar hätten ihm gezeigt, wie sehr er sich in seinem Gameplay darauf verlasse, menschliche Reaktionen auf seine Züge auszunutzen, betont etwa Komincz, der die einzige siegreiche Partie für die Menschheit davontrug.

Training

Zum Training von Alphastar verwendet Deepmind eine im KI-Bereich verbreitete Methode namens "Reinforcement Learning". Dabei lernt die KI zunächst anhand menschlicher Spiele die Grundprinzipien. Anschließend treten mehrere Instanzen der KI gegeneinander, um mittels Versuch und Irrtum herauszufinden, was die effektivsten Züge sind. Die obsiegende KI wird dann weiterentwickelt, die schwächste wieder entfernt. Laut Deepmind hat Alphastar auf diese Weise das Äquivalent von 200 Jahren an Spielerfahrung gesammelt – dies natürlich in einem beschleunigten Ablauf.

DeepMind

Bei Deepmind sieht man die Ergebnisse aber natürlich auch als Ansporn. Mithilfe der aktuellen Ergebnisse soll Alphastar nun weiter verbessert werden, um künftig auch gegen die besten Spieler der Welt gewinnen zu können – und zwar ohne Ausnahme. (Andreas Proschofsky, 25.1.2019)