Nvidia bevorzugt Influencer, KI-Supercomputer und TSMC-Ausblick

Nvidia trickst wohlwollende Berichterstattung herbei. Die Firma Inflection AI baut einen riesigen KI-Computer. TSMC kämpft mit der 3-Nanometer-Fertigungstechnik

In Pocket speichern vorlesen Druckansicht
KI-Server von Nvidia

Nvidia

Lesezeit: 4 Min.

Es ist verständlich, dass jede Firma ihre Produkte im besten Licht glänzen sehen will. Doch Nvidia trieb das Spiel bei der Vorstellung der jüngsten Gamer-Grafikkarte GeForce RTX 4060 (siehe S. 48) sehr weit. Diese erschien offiziell am 28. Juni, ab dann durfte die Presse berichten. Aber wie bei Nvidia üblich erhielten nur jene Redaktionen vorab Testmuster, die einen pauschalen Geheimhaltungsvertrag (Non-Disclosure Agreement, NDA) unterschrieben haben. Dieser Vertrag aus dem Jahr 2018 verpflichtet die Pressevertreter beispielsweise, "vertrauliche Informationen ausschließlich zugunsten von Nvidia" zu nutzen, weshalb wir ihn nicht unterschrieben.

Doch selbst dieser Knebel genügt Nvidia anscheinend nicht mehr. Über die GeForce RTX 4060 durften einige Influencer nämlich schon zwei Tage vorher berichten. Allerdings laut Computerbase nur unter der Bedingung, dass sie ausschließlich über ihre Messergebnisse mit einem einzigen Spiel in einer bestimmten Einstellung berichten. Und sie sollten dabei auch noch die Vorteile der neuen Version der Upscaling-Technik Deep Learning Super Sampling (DLSS 3.0) hervorheben.

Das Ziel dieser Vorgaben ist leicht zu durchschauen: Bei neuen Produkten prägen die jeweils ersten erschienenen Berichte das Bild. Und die Nvidia-Vorgaben sollen dafür sorgen, dass das ein möglichst gutes Bild ist. Hätte ich als Journalist ein NDA bei Nvidia unterschrieben, würde ich mich sehr ärgern, wenn andere trotzdem vor mir berichten dürfen.

Bei KI-Rechenbeschleunigern ist Nvidia auch ohne Tricks der Branchenprimus, was sich auch im geradezu monströs hohen Börsenwert von mehr als einer Billion US-Dollar spiegelt. Viele Unternehmen reißen Nvidia die aktuelle "Hopper"-Generation der KI-Rechenbeschleuniger (H100) geradezu aus den Händen. Nach Microsoft und Google hat nun auch Oracle angekündigt, Tausende H100-Systeme für sein Cloud-Angebot zu kaufen. Nvidia selbst baut derzeit den "Eos"-Supercomputer mit 4608 H100-Modulen. Je acht davon stecken zusammen mit zwei Intel Xeon-SP Gen4 in einem sogenannten "DGX H100 Base Pod", von dem wiederum vier in ein Rack passen, also 32 H100. Der Eos mit 4608 H100 füllt demnach 144 Racks.

Microsoft-Azure-Manager Scott Guthrie zeigt auf der Microsoft Build stolz ein paar Racks voller Nvidia H100 "Hopper" für KI-Berechnungen.

(Bild: YouTube/Microsoft)

Die junge Firma Inflection AI hat 1,3 Milliarden US-Dollar Risikokapital eingeworben, um ein riesiges System mit rund 22.000 H100-Modulen zu kaufen. Es soll 33 Exaflops (EFlops) an FP16-Rechenleistung liefern, um das Large Language Model (LLM) Inflection-1 zu trainieren, das hinter dem persönlichen KI-Chatbot "Pi" steckt. Aber das gigantische Inflection-System, das man gemeinsam mit dem Cloud-Dienstleister CoreWeave aufbaut, liefert auch dermaßen viel FP64-Rechenleistung, dass es derzeit den zweiten Platz der Top500-Liste der weltweit schnellsten Supercomputer belegen würde. Unter Volllast dürften dabei 25 bis 30 Megawatt (MW) Strom verheizt werden, das ist ähnlich viel wie die Triebwerke eines großen Verkehrsflugzeugs leisten.

Der Inflection-AI-Chef Mustafa Suleyman gehört zu den Gründern der Firma DeepMind Technology, die Google 2014 kaufte. Er konnte IT-Berühmtheiten wie Bill Gates, den ehemaligen Google-Chairman Eric Schmidt und den LinkedIn-Mitgründer Reid Hoffman als Geldgeber gewinnen. Aber auch Microsoft und Nvidia haben in Inflection investiert; da dürften ordentliche Rabatte für die vielen H100-Karten herausspringen. Andere Kunden zahlen für ein Nvidia DGX Base Pod mit acht H100 über 400.000 Euro plus Mehrwertsteuer. Universitäten bekommen 30 Prozent Rabatt.

Der weltgrößte Chip-Auftragsfertiger TSMC verdient weiterhin eine Menge Geld, schaut trotz der vielen KI-Chips aber etwas weniger zuversichtlich in die nähere Zukunft. Der Umsatz soll nicht ganz so schnell wachsen wie bisher erwartet und die Investitionen "nur" umgerechnet 32 Milliarden US-Dollar betragen. Das ist zwar ein Haufen Geld, aber weniger als 2022.

Der schwächere TSMC-Ausblick geht sicherlich vor allem auf die allgemein schwächere Konjunktur und die vielen aktuellen Krisen zurück. Doch vermutlich wirken sich auch die Verzögerungen bei der 3-Nanometer-Fertigungstechnik aus. TSMC verbreitet zwar weiter Zuversicht, aber bisher ist noch kein 3-Nanometer-Chip in Sicht und auch von den angeblich seit Mitte 2022 von Samsung gefertigten Chips dieser Generation ist nichts zu sehen.

Zum Bit-Rauschen gibt es regelmäßig auch einen Podcast.

(ciw)