Hardware
Topologie

Hochleistungs-Netzwerk

In allen Hochleistungs- und Supercomputern spielt der HPC-Interconnect eine entscheidende Rolle. Im Gegensatz zu Serverfarmen oder Cloud-Computing sorgt er bei HPC-Systemen für die schnelle, latenzarme und durchsatzstarke Kommunikation der Rechenknoten untereinander.

MPI-Programme nutzen diesen Interconnect, um für aufwendige parallele Berechnungen viele Rechenknoten gleichzeitig zu verwenden, wobei die MPI-Tasks über den Interconnect Daten, Zustände und Zwischenergebnisse austauschen.

Speichersystem HDR (früher EDR)

Infiniband HDR: Das Storagesystem (Home, Projects, Scratch) bildet den Kern und steuert das Gesamtnetzwerk auf Basis von inzwischen HDR: „High Data Rate“ = 100 GBit/s.

Lichtenberg II Ausbaustufe 2

Infiniband HDR: Bei der Ausbaustufe 2 des Lichtenberg II Clusters sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate“ 100 = 100 GBit/s.

Im Allgemeinen hat HDR Infinband eine Datenrate von 200 GBit/s – in der Ausbaustufe 2 des Lichtenberg II Clusters sind die Rechenknoten aber nur mit der HDR100-Ausführung angebunden.

Die interne Topologie dieser Ausbaustufe 2 ist 1:1 non-blocking angelegt: jedwede Kommunikation zwischen beliebigen Rechenknoten bleibt völlig unbeeinflusst von der Netzwerklast anderer zeitgleich kommunizierender Rechenknoten. Anders ausgedrückt, ist die Anzahl der Interconnect-Links an keiner Stelle im internen IB-Netzwerk der Ausbaustufe geringer als „einer pro Rechenknoten“.

Lichtenberg II Ausbaustufe 1

Infiniband HDR: Bei der Ausbaustufe 1 des Lichtenberg II Clusters sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate“ 100 = 100 GBit/s.

Im Allgemeinen hat HDR Infinband eine Datenrate von 200 GBit/s – in der Ausbaustufe 1 des Lichtenberg II Clusters sind die Rechenknoten aber nur mit der HDR100-Ausführung angebunden.

Die interne Topologie dieser Ausbaustufe 1 ist 1:1 non-blocking angelegt: jedwede Kommunikation zwischen beliebigen Rechenknoten bleibt völlig unbeeinflusst von der Netzwerklast anderer zeitgleich kommunizierender Rechenknoten. Anders ausgedrückt, ist die Anzahl der Interconnect-Links an keiner Stelle im internen IB-Netzwerk der Ausbaustufe geringer als „einer pro Rechenknoten“.

Die frühere „Insel-Struktur“ des inzwischen stillgelegten LB1 im Vergleich zur moderneren „flachen“ Topologie des Lichtenberg II.
Die frühere „Insel-Struktur“ des inzwischen stillgelegten LB1 im Vergleich zur moderneren „flachen“ Topologie des Lichtenberg II.

Mehr Details zu den Komponenten des Lichtenberg HLR finden Sie in unserer Hardware-Übersicht .