I-Cluster

Interimscluster

----------------------------------------------------------------------------------------------------------
Das Cluster wurde am 22.8.2013 abgeschaltet. Es wird in das Lichtenberg-Cluster integriert.
----------------------------------------------------------------------------------------------------------

Im Jahr 2002 ging der hessische Hochleistungsrechner HHLR in Darmstadt in Betrieb. Die Maschine stand Wissenschaftlern aller hessischer Hochschulen zur Verfügung. Ausgebaut wurde die Maschine in den Jahren 2005 und 2008. Die Maschine wird seit Ende 2012 schrittweise durch ein aktuelles System ersetzt. Zwischenzeitlich stand den Nutzern für ressourcenintensive Rechnungen das „Interimscluster“ zur Verfügung.

Das Interimscluster besteht aus einem Login-Knoten und 32 Rechenknoten (gleicher Bauart). Es handelt sich um eine leistungsfähige Maschine mit einer Gesamtrechenleistung von fast 16 TFlop/s.

Hardware und Konfiguration des Interimsclusters

Das Interimscluster besteht aus 33 Knoten:
ein Login-Knoten und 32 Rechenknoten.

Der Login-Knoten dient den Nutzern zum Compilieren und Testen von Jobs und zum Absenden der Jobs über das Batch-System (SLURM).
Erreichen kann man den Login-Knoten mittels SSH: ssh icluster.hrz.tu-darmstadt.de.

Die Rechenknoten stehen zur freien Verfügung, können aber nur über das Batch-System genutzt werden. Ein direkter Nutzer-Login auf diese Knoten ist nicht möglich.

Cluster Allgemein

32 SMP-Rechenknoten mit den Namen: interix001 bis interix032

  • Zusammen 15,974 TFlop/s Rechenleistung (peak – theoretisch)
  • Real erreichbar ca. 12,3 TFlop/s Rechenleistung mit Linpack
  • Speicherausbau
    • 24 Knoten mit 64GB Hauptspeicher (interix001 – interix024)
    • 8 Knoten mit 128GB Hauptspeicher (interix025 – interix032)

Nutzung der Knoten

  • Jeder Knoten einzeln (SMP mit 48 Threads)
  • Mehrere Knoten mit Datenkommunikation (MPI) über Infiniband
  • Mehrere Knoten mit virtueller Zusammenschaltung (großer SMP mit bis zu 384 Threads via ScaleMP)

SMP-Rechenknoten

Jeder der 32 Rechenknoten und der Login-Knoten bestehen aus

  • 4x Prozessoren „AMD Opteron™ Prozessor 6238“
  • Jeder Prozessor besteht aus
    • 6 Prozessormodulen mit je zwei 2 Rechenkernen → 12 Rechenkerne pro Prozessor
    • Pro Modul gibt es nur eine AVX Einheit (die sich beide Rechenkerne teilen)
    • Jeder Kern hat allerdings seine eigene Integer-Einheit
  • → Insgesamt 48 Rechenkerne pro SMP-Rechenknoten
  • Prozessortakt ist 2,6 GHz – mit Turbotakt bis 3,1GHz (bei z.B. Verwendung von nur 3 der 6 Module)
  • Knoten-Speicherausbau: 64 – 128 GByte
  • Netzanbindung: 1x QDR Infiniband und 1x 1GBit-Ethernet
  • Alle Knoten im Verbund mit Blockingverhältnis 1:1

ScaleMP

Insgesamt können bis zu 8 der 32 Rechenknoten virtuell zu einem (oder mehreren) großen SMP-Knoten zusammengeschaltet werden. Falls konfiguriert, gibt es

  • Knotennamen: vsmp01 bis vsmp04
  • Bis zu 1 TByte Hauptspeicher (oder entsprechende Teilmengen)
  • Bis zu 384 Rechenkerne (8 Knoten * 48 Kerne = 384 Kerne) oder entsprechende Teilmengen
    (z.B. 2 Systeme mit je 4 Knoten = 2x 192 Kerne)