Hardware
Aktuell verfügbar

Verfügbare Loginknoten

(Stand August 2024)

Lichtenberg II Ausbaustufe 1:

  • lcluster13.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster14.hrz.tu-darmstadt.de
  • lcluster15.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster16.hrz.tu-darmstadt.de
  • lcluster17.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster18.hrz.tu-darmstadt.de
  • lcluster19.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster20.hrz.tu-darmstadt.de (zum Testen gesperrt)
    • 2x Xeon-AP, 96 Rechenkerne (AVX512)
    • 768 GByte RAM, RedHat Enterprise Linux 8.10

Lichtenberg II Ausbaustufe 2:

  • lcluster1.hrz.tu-darmstadt.de
  • lcluster2.hrz.tu-darmstadt.de
  • lcluster6.hrz.tu-darmstadt.de
    • 2x Xeon-AP, 104 Rechenkerne (AVX512)
    • 1024 GByte RAM, RedHat Enterprise Linux 8.10
  • lcluster7.hrz.tu-darmstadt.de
    • 2x Xeon-AP, 104 Rechenkerne (AVX512)
    • 1024 GByte RAM, RedHat Enterprise Linux 9.4

Alle obigen Login-Knoten sind Bestandteil der Lichtenberg-Hochleistungsrechner.

Sollten Sie sich trotz freigeschaltetem HLR-Account nicht anmelden können, folgen Sie bitte den Hinweisen dazu in unseren FAQ.

Die aktuelle Anzahl der momentan verfügbaren Rechenkerne bzw. Beschleuniger (GPUs) und ihre Auslastung können Sie jederzeit mit dem Kommando csinfo anzeigen lassen.

Ausbaustufe 1 von Lichtenberg II

Aus der Ausbaustufe 1 von Lichtenberg II (avx512) stehen fast alle Rechenknoten uneingeschränkt zur Verfügung.

Der Lichtenberg I

Seit 31.5.2021 ist der gesamte Lichtenberg I (avx, avx2) abgeschaltet.

Bitte achten Sie darauf, dass Ihre Jobscripts kein

-C avx<2>

mehr enthalten, sonst laufen diese Jobs nicht mehr an.

Die einzige Ausnahme sind GPU-Jobs, die auf den DGX-Knoten laufen sollen, denn deren CPUs sind nur avx2-fähig.