Werbung
Neben der (erneuten) Öffnung des NVLink-Ökosystems mittels NVLink Fusion sowie dem offiziellen Startschuss der GeForce RTX 5060 ohne unabhängige Tests durch die Presse hat NVIDIA auf der Keynote der Computex auch noch über anderen Projekte gesprochen. Wir konzentrieren uns an dieser Stelle auf die echten Neuigkeiten, denn teilweise wurde das, was Jensen auf der Bühne zeigte, schon auf der Hausmesse GTC im März vorgestellt.
So will man den jährlichen Rhythmus für neue KI-Hardware einhalten können und wird schon im dritten Quartal 2025 mit der Fertigung der ersten GB300-Beschleuniger beginnen. Als Nachfolger des GB200-Beschleunigers setzt der GB300 auf Blackwell Ultra als Refresh innerhalb der Blackwell-Generation. Laut NVIDIA wird die Speicherkapazität des HBM3E von aktuell 372 GB für die beiden Blackwell-GPUs auf 576 GB, 288 GB pro Blackwell-Ultra-GPU, ausgebaut. Zudem steigt die Inferencing-Leistung von Blackwell Ultra analog zum größeren Speicher um 50 %. Mit der Integration des ConnectX CX8 mit 800 GBit/s verdoppelt sich die Netzwerk-Bandbreite des GB300-Beschleunigers.
Der GB300 Grace Blackwell Ultra Superchip ist Drop-in kompatibel zum GB200-Beschleuniger. Server, die den GB200 verwenden, können auf den GB300 umgestellt werden. Ob NVIDIA an der TDP-Schrauben drehen wird, wie dies vermutet wird, bleibt abzuwarten, ist aber wahrscheinlich. Es soll aber auch Änderungen am Chip selbst geben, so dass in der Fertigung ein kompletter Respin des Chips notwendig ist.
NVIDIA RTX PRO Server
Bereits zur GTC vorgestellt wurden eine neue RTX-PRO-Serie an Server-GPUs auf Basis der Blackwell-Architektur. Zu diesen PRO-Karten kommen nun die dazugehörigen RTX PRO Server.
Die Server sind mit bis zu acht RTX-PRO-Grafikkarten und einem x86-Prozessor ausgestattet. Eine Kernkomponente ist aber auch die Netzwerkanbindung. Dazu sind die Server bzw. das PCB der Server direkt mit ConnectX-CX8-Chips ausgestattet und stellen die notwendigen Anschlüsse mit 800 GBit/s zur Verfügung. Im Rack kümmern sich dann Spectrum-X-Netzwerkswitches von NVIDIA um die Anbindung der einzelnen Server. Storage-Nodes können per NVIDIA BlueFild eingebunden werden.
OEMs und SIs wie ASUS, Dell, Gigabyte, HPE, PureStorage, Vast und viele mehr werden in den kommenden Monaten die entsprechenden Server auf den Markt bringen.
Project Stargate und Constellation
Ob als Kunde, Mitauftraggeber oder eigene Investitionen. NVIDIA nutzt die Gelegenheit in Taiwan zu sein auch gleich für einige Ankündigungen. So wird man zusammen mit Foxconn, TSMC und dem Taiwan National Science and Technology Council einen KI-Supercomputer mit 10.000 Blackwell-GPUs bauen.
Weitaus größer ist die Beteiligung am Project Stargate. Aktuell entsteht im texanischen Abilene bereits ein erstes großes Rechenzentrum, in dem einmal hunderttausende KI-Beschleuniger von NVIDIA arbeiten werden. In der ersten Ausbaustufe wird das Rechenzentrum auf einen Verbrauch von 200 MW kommen. Die gesamte Anlage kann aber auf bis zu 1,2 GW ausgebaut werden.
Zudem wird man in Taipeh ein neues Hauptquartier bauen, welches den Codenamen Constellation trägt.
Update:
Zu einem Teil des Projekt Stargate, dem von Oracle aufgebauten Rechenzentrum in Abilene, im US-Bundesstaat Texas, vermeldet die Financial Times, dass Oracle etwa 400.000 GB200-Beschleuniger von NVIDIA bestellt haben soll. Der Auftrag hat einen Umfang in Höhe von 40 Milliarden US-Dollar. Mitte 2026 soll das Rechenzentrum in Betrieb geben.