Verfügbare Loginknoten
(Stand August 2024)
Lichtenberg II Ausbaustufe 1:
lcluster13.hrz.tu-darmstadt.de
+ GPU NVIDIA Tesla T4lcluster14.hrz.tu-darmstadt.de
lcluster15.hrz.tu-darmstadt.de
+ GPU NVIDIA Tesla T4lcluster16.hrz.tu-darmstadt.de
lcluster17.hrz.tu-darmstadt.de
+ GPU NVIDIA Tesla T4lcluster18.hrz.tu-darmstadt.de
lcluster19.hrz.tu-darmstadt.de
+ GPU NVIDIA Tesla T4lcluster20.hrz.tu-darmstadt.de
(zum Testen gesperrt)- 2x Xeon-AP, 96 Rechenkerne (AVX512)
- 768 GByte RAM, RedHat Enterprise Linux 8.10
Lichtenberg II Ausbaustufe 2:
lcluster1.hrz.tu-darmstadt.de
lcluster2.hrz.tu-darmstadt.de
lcluster6.hrz.tu-darmstadt.de
- 2x Xeon-AP, 104 Rechenkerne (AVX512)
- 1024 GByte RAM, RedHat Enterprise Linux 8.10
lcluster7.hrz.tu-darmstadt.de
- 2x Xeon-AP, 104 Rechenkerne (AVX512)
- 1024 GByte RAM, RedHat Enterprise Linux 9.4
Alle obigen Login-Knoten sind Bestandteil der Lichtenberg-Hochleistungsrechner.
Sollten Sie sich trotz freigeschaltetem HLR-Account nicht anmelden können, folgen Sie bitte den . Hinweisen dazu in unseren FAQ
Die aktuelle Anzahl der momentan verfügbaren Rechenkerne bzw. Beschleuniger (GPUs) und ihre Auslastung können Sie jederzeit mit dem Kommando csinfo
anzeigen lassen.
Der Lichtenberg I
Seit 31.5.2021 ist der gesamte Lichtenberg I (avx, avx2
) abgeschaltet.
Bitte achten Sie darauf, dass Ihre Jobscripts kein
-C avx<2>
mehr enthalten, sonst laufen diese Jobs nicht mehr an.
Die einzige Ausnahme sind GPU-Jobs, die auf den DGX-Knoten laufen sollen, denn deren CPUs sind nur avx2
-fähig.