Hardware
Aktuell verfügbar

Verfügbare Loginknoten

(Stand August 2024)

Lichtenberg II Ausbaustufe 1:

  • lcluster13.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster14.hrz.tu-darmstadt.de
  • lcluster15.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster16.hrz.tu-darmstadt.de
  • lcluster17.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster18.hrz.tu-darmstadt.de
  • lcluster19.hrz.tu-darmstadt.de + GPU NVIDIA Tesla T4
  • lcluster20.hrz.tu-darmstadt.de (zum Testen gesperrt)
    • 2x Xeon-AP, 96 Rechenkerne (AVX512)
    • 768 GByte RAM, RedHat Enterprise Linux 8.10

Lichtenberg II Ausbaustufe 2:

  • lcluster1.hrz.tu-darmstadt.de
  • lcluster2.hrz.tu-darmstadt.de
  • lcluster6.hrz.tu-darmstadt.de
    • 2x Xeon-AP, 104 Rechenkerne (AVX512)
    • 1024 GByte RAM, RedHat Enterprise Linux 8.10
  • lcluster7.hrz.tu-darmstadt.de
    • 2x Xeon-AP, 104 Rechenkerne (AVX512)
    • 1024 GByte RAM, RedHat Enterprise Linux 9.4

Alle obigen Login-Knoten sind Bestandteil der Lichtenberg-Hochleistungsrechner.

Sollten Sie sich trotz freigeschaltetem HLR-Account nicht anmelden können, folgen Sie bitte den Hinweisen dazu in unseren FAQ .

Die aktuelle Anzahl der momentan verfügbaren Rechenkerne bzw. Beschleuniger (GPUs) und ihre Auslastung können Sie jederzeit mit dem Kommando csinfo anzeigen lassen.

Ausbaustufe 1 von Lichtenberg II

Aus der Ausbaustufe 1 von Lichtenberg II (avx512) stehen fast alle Rechenknoten uneingeschränkt zur Verfügung.

Der Lichtenberg I

Seit 31.5.2021 ist der gesamte Lichtenberg I (avx, avx2) abgeschaltet.

Bitte achten Sie darauf, dass Ihre Jobscripts kein

-C avx<2>

mehr enthalten, sonst laufen diese Jobs nicht mehr an.

Die einzige Ausnahme sind GPU-Jobs, die auf den DGX-Knoten laufen sollen, denn deren CPUs sind nur avx2-fähig.