Dieses Bild wurde mit der KI Midjourney erstellt. Der Prompt lautete: "illustration of a friendly looking robot, presenting newspapers, looking at the camera. --ar 3:2"
Midjourney/Der Standard

Bei der scheinbaren Leichtigkeit, mit denen KI-Tools Texte, Bilder und Videos inzwischen generieren, bei Diskussionen um die besten KI-Modelle und Anwendungen kann man schnell vergessen, dass Künstliche Intelligenz auch ein Hardwaregeschäft ist. Und zwar ein riesiges.

ChatGPT, Midjourney und all die anderen KI-Programme laufen auf immer mehr Servern und brauchen dementsprechend leistungsstarke Chips. Bisher liefert vor allem ein Konzern den Großteil der KI-Chips: Nvidia.

Den Namen hatte man bisher eher mit Gaming-Grafikkarten in Verbindung gebracht. Doch der KI-Boom hat den Börsenkurs in schwindelerregende Höhen katapultiert. Allein im letzten Jahr haben die Aktien des kalifornischen Konzerns um mehr als das Dreifache zugelegt, inzwischen ist das Unternehmen rund 1,6 Billionen US-Dollar wert.

Nvidias Marktmacht

Nvidia stellt rund 70 Prozent aller KI-Chips her – und die Marktmacht des Konzerns ruft jetzt die Konkurrenz auf den Plan. Google, Facebook-Mutter Meta und Microsoft investieren gerade Milliarden, um eigene KI-Chips zu entwickeln und weniger abhängig von Nvidia zu sein. Allein Google hat dafür wohl zwei bis drei Milliarden Dollar in die Hand genommen.

Denn der Bedarf steigt rasant. Bis 2027 soll sich der Markt für KI-Chips mehr als verdoppeln auf 140 Milliarden Dollar. Produzenten kommen mit der Entwicklung und der Produktion der Chips den immer größer werdenden Modellen kaum hinterher.

Da scheint es nur logisch, dass die derzeit größten Abnehmen von Nvidia die Chips nun selbst produzieren. Nur einfach ist das Ganze nicht. Denn Nvidia baut nicht nur sehr gute Chips, sondern hat auch ein eigenes Ökosystem geschaffen, um die KI-Software auf der Hardware laufen zu lassen. Den Code der KI-Modelle auf die neue Hardware-Architektur umzuschreiben, sei "sehr, sehr herausfordernd", sagte ein Amazon-Manager, der dort die Chipentwicklung vorantreibt, zur "New York Times."

Eigene OpenAI-Chips

Auch ChatGPT-Entwickler OpenAI will unabhängiger von Nvidia werden. Dessen Chef Sam Altman denkt aber noch einen Schritt weiter: OpenAI will nicht nur eigene Chips entwickeln, sondern gleich auch selbst bauen.

Dazu muss gesagt werden, dass die Entwicklung und die Produktion von Chips zwei Paar Schuhe sind. Selbst Chipfirmen wie AMD, Qualcomm, Apple oder eben Nvidia sind "fabless", betreiben also keine eigenen Chipfabriken. Stattdessen lassen sie bei Auftragsfertigern fertigen, etwa der AMD-Abspaltung Globalfoundries, Samsung oder TSMC – dem mit Abstand wichtigsten Halbleiterhersteller der Welt in Taiwan.

Ein Halbleiterwerk zu bauen und zu betreiben, ist enormes technisches Know-How nötig – zunächst aber einmal sehr viel Geld. Die Chipfabrik, die Intel – welches noch in eigenen Werken produziert – im Magdeburg bauen will, soll rund 30 Milliarden US-Dollar kosten. Der deutsche Staat schießt zehn Milliarden Euro zu.

Das sind selbst für OpenAI riesige Summen. Geld für die Chefproduktion oder zumindest -entwicklung will Altman nun in den Vereinigten Arabischen Emirate und bei der japanischen Softbank auftreiben.

Serverfarmen, ob für KI oder andere Zwecke, fressen indessen immer mehr Energie – schon jetzt sind es rund zwei Prozent des globalen Stromverbrauchs. Fast alles davon wird früher oder später zu Wärme, die abgeführt werden muss. Ein Projekt in Wien zeigt, wie man sie nutzen kann: Dort heizt das größte Serverzentrum Österreichs nämlich die benachbarte Klinik Floridsdorf. (Philip Pramer, 3.2.2024)