Bild nicht mehr verfügbar.

Namensgeber des vorgeschlagenen Nachfolgers von "Moore's Law": Nvidia-CEO und Lederjacken-Aficionado Jensen Huang.

Foto: AP

Jahrzehntelang "hielt" sich die Technologiebranche recht gut an das sogenannte "Moore'sche Gesetz". Die Prognose von Gordon Moore, der 1965 Intel mitgegründet hatte, besagte ursprünglich, dass die Anzahl der Transistoren auf integrierten elektrischen Schaltkreisen sich jährlich verdoppeln werde. Späte revidierte er diese Einschätzung auf eine Verdopplung alle zwei Jahre.

Lange hielten die Chiphersteller mit dieser Erwartung gut mit. Doch mittlerweile nähert man sich immer mehr dem physikalischen Limit in Sachen Fertigung. Mittlerweile schaffen es erste Hersteller, Transistoren in der Größe von fünf Nanometer herzustellen, doch diese und weitere angestrebte Verkleinerungen sind immer schwerer zu erzielen und schaffen zudem Probleme wie unerwünschte Signalstreuungen, die nach eigenen Lösungen verlangen.

Auch Moore selbst sagte bereits 2005, dass sein "Gesetz" deswegen nicht auf ewige Zeiten angewandt werden könne. Daher ist nicht die Frage, ob, sondern nur, wann es seine Gültigkeit verlieren wird. Doch ein möglicher Nachfolger könnte schon gefunden sein. Der erfahrene Wissenschafts- und Tech-Journalist Christopher Mims plädiert im "Wall Street Journal" für "Huang's Law".

Doppelte KI-Performance alle zwei Jahre

Benannt ist es nach Jensen Huang, Mitgründer und CEO des vor allem für seine Grafikchips bekannten Herstellers Nvidia, der dabei ist, den britischen ARM-Konzern zu übernehmen. Das Gesetz sagt aus, dass die Leistung von Computerchips, die künstliche Intelligenz antreiben, sich alle zwei Jahre zumindest verdoppelt, unabhängig von ihrem technischen Aufbau. Damit sollen auch Verbesserungen honoriert werden, die durch softwareseitige Maßnahmen erzielt werden.

Alleine zwischen 2012 und Mitte 2020 hätten Nvidias Chips – nach eigenen Angaben des Unternehmens – ihre Performance bei der Berechnung wichtiger KI-Aufgaben um das 317-Fache gesteigert. Und künstliche Intelligenz ist, so Mims, eine der wichtigsten und einflussreichsten Zukunftstechnologien. Das gelte sowohl in positiver wie auch in negativer Hinsicht, beispielsweise bei selbstfahrenden Autos, kassalosen Supermärkten oder immer tiefer gehender Überwachung.

KI in immer kleineren Päckchen

Dennis Laudick, Vizechef der Maschinenlern-Abteilung von ARM, erklärt, dass KI-Technologie sich auch in den letzten paar Jahren um mehrere Größenordnungen verbessert habe. Mittlerweile gehe es darum, sie in immer kleinere Chips zu bringen. ARM hat etwa einen Chip entwickelt, der mit einer Knopfzelle, wie man sie in Uhren findet, betrieben werden kann und in der Lage ist, Objekte in Echtzeit auf einer Kameraaufnahme zu erkennen.

Diese Entwicklung hat auch den Trend gesetzt, dass immer mehr KI-Berechnungen von Cloud-Rechenzentren auf lokale Geräte verschoben werden. Ein Beispiel dafür sind auch die KI-Coprozessoren, die man in vielen aktuellen Smartphones findet – etwa Apples Neural Engine.

Einheitlicher Standard gesucht

Was dem "Huang'schen Gesetz" allerdings fehlt, ist eine einheitliche Definition von Performance, kann sich diese doch je nach Aufgabenstellung an eine KI drastisch unterscheiden. Die Frage beschäftigt nicht nur den Tech-Journalisten, sondern auch Forscher rund um die Welt. Das MLPerf-Konsortium, dem unter anderen diverse große Tech-Konzerne, die Stanford University und andere Experten angehören, bemüht sich seit einiger Zeit um die Standardisierung eines Testverfahrens.

Und während Mims damit rechnet, dass die neue Regel das nächste halbe Jahrhundert der Computertechnologie begleiten könnte, könnte es aber auch schneller von der Realität eingeholt werden. Aber selbst, wenn sie schon nach einem Jahrzehnt nicht mehr aufrecht zu erhalten ist, wie es ein anderer Manager bei ARM für möglich hält, wäre in dieser Zeit bereits enormer Fortschritt erzielt worden, der unseren Alltag nachhaltig verändern wird. (red, 21.9.2020)