Hochleistungs-Netzwerk
In allen Hochleistungs- und Supercomputern spielt der HPC-Interconnect eine entscheidende Rolle. Im Gegensatz zu Serverfarmen oder Cloud-Computing sorgt er bei HPC-Systemen für die schnelle, latenzarme und durchsatzstarke Kommunikation aller Rechenknoten untereinander.
MPI-Programme nutzen diesen Interconnect, um für aufwendige parallele Berechnungen viele Rechenknoten gleichzeitig zu verwenden, wobei die MPI-Tasks über den Interconnect Daten, Zustände und Zwischenergebnisse austauschen.
Speichersystem HDR
Infiniband HDR: Das Storagesystem (Home, Projects, Scratch) bildet den Kern der Fabric und steuert das Gesamtnetzwerk auf Basis von HDR: „High Data Rate“ = 100 GBit/s (früher EDR).
Lichtenberg II Ausbaustufe 2
Infiniband HDR: Bei dieser Ausbaustufe sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate 100“ = 100 GBit/s.
Während HDR Infiniband eigentlich eine maximale Datenrate von 200 GBit/s bietet, sind die Knoten dieser Ausbaustufe nur mit der HDR100-Ausführung angebunden – nur die Infiniband-Switches zwischen ihnen kommunizieren mit HDR200.
Die interne Topologie dieser Ausbaustufe („Insel“) ist 1:1 non-blocking angelegt: jedwede Kommunikation zwischen beliebigen Rechenknoten bleibt völlig unbeeinflusst von der Netzwerklast anderer zeitgleich kommunizierender Rechenknoten.
Anders ausgedrückt, ist die Anzahl der Interconnect-Links an keiner Stelle im internen IB-Netzwerk der Ausbaustufe geringer als „einer pro Rechenknoten“.
Lichtenberg II Ausbaustufe 1
Infiniband HDR: Bei dieser Ausbaustufe sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate 100“ = 100 GBit/s.
Während HDR Infiniband eigentlich eine maximale Datenrate von 200 GBit/s bietet, sind die Knoten dieser Ausbaustufe nur mit der HDR100-Ausführung angebunden – nur die Infiniband-Switches zwischen ihnen kommunizieren mit HDR200.
Die interne Topologie dieser Ausbaustufe („Insel“) ist 1:1 non-blocking angelegt: jedwede Kommunikation zwischen beliebigen Rechenknoten bleibt völlig unbeeinflusst von der Netzwerklast anderer zeitgleich kommunizierender Rechenknoten.
Anders ausgedrückt, ist die Anzahl der Interconnect-Links an keiner Stelle im internen IB-Netzwerk der Ausbaustufe geringer als „einer pro Rechenknoten“.