Hardware
Topologie

Hochleistungs-Netzwerk

In allen Hochleistungs- und Supercomputern spielt der HPC-Interconnect eine entscheidende Rolle. Im Gegensatz zu Serverfarmen oder Cloud-Computing sorgt er bei HPC-Systemen für die schnelle, latenzarme und durchsatzstarke Kommunikation aller Rechenknoten untereinander.

MPI-Programme nutzen diesen Interconnect, um für aufwendige parallele Berechnungen viele Rechenknoten gleichzeitig zu verwenden, wobei die MPI-Tasks über den Interconnect Daten, Zustände und Zwischenergebnisse austauschen.

Speichersystem HDR

Infiniband HDR: Das Storagesystem (Home, Projects, Scratch) bildet den Kern der Fabric und steuert das Gesamtnetzwerk auf Basis von HDR: „High Data Rate“ = 100 GBit/s (früher EDR).

Lichtenberg II Ausbaustufe 2

Infiniband HDR: Bei dieser Ausbaustufe sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate 100“ = 100 GBit/s.

Während HDR Infiniband eigentlich eine maximale Datenrate von 200 GBit/s bietet, sind die Knoten dieser Ausbaustufe nur mit der HDR100-Ausführung angebunden – nur die Infiniband-Switches zwischen ihnen kommunizieren mit HDR200.

Die interne Topologie dieser Ausbaustufe („Insel“) ist 1:1 non-blocking angelegt: jedwede Kommunikation zwischen beliebigen Rechenknoten bleibt völlig unbeeinflusst von der Netzwerklast anderer zeitgleich kommunizierender Rechenknoten.

Anders ausgedrückt, ist die Anzahl der Interconnect-Links an keiner Stelle im internen IB-Netzwerk der Ausbaustufe geringer als „einer pro Rechenknoten“.

Lichtenberg II Ausbaustufe 1

Infiniband HDR: Bei dieser Ausbaustufe sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate 100“ = 100 GBit/s.

Während HDR Infiniband eigentlich eine maximale Datenrate von 200 GBit/s bietet, sind die Knoten dieser Ausbaustufe nur mit der HDR100-Ausführung angebunden – nur die Infiniband-Switches zwischen ihnen kommunizieren mit HDR200.

Die interne Topologie dieser Ausbaustufe („Insel“) ist 1:1 non-blocking angelegt: jedwede Kommunikation zwischen beliebigen Rechenknoten bleibt völlig unbeeinflusst von der Netzwerklast anderer zeitgleich kommunizierender Rechenknoten.

Anders ausgedrückt, ist die Anzahl der Interconnect-Links an keiner Stelle im internen IB-Netzwerk der Ausbaustufe geringer als „einer pro Rechenknoten“.

Mehr Details zu den Komponenten des Lichtenberg HLR finden Sie in unserer Hardware-Übersicht .