Login-Knoten

Zugang zum Cluster für die Nutzer_innen ist ausschließlich über die Login-Knoten möglich – eine aktuelle Liste verfügbarer Login-Knoten finden Sie hier .

Die Anmeldung erfolgt ausschließlich über ssh auf einem dieser Loginknoten.

Passwort: Ihr (initiales) Login-Passwort und wie Sie es ändern .

ED25519 (preferred) Public Key AAAAC3NzaC1lZDI1NTE5AAAAILTlBfX7g8HAbMy7x7vSS66HO6QtEItNByqtSkRUZauo
Fingerprint SHA256:sCfHqKOHUK45d7XaHyWN/N8cTUd8Nh6o6T1ngNhbQa8
RSA Public Key AAAAB3NzaC1yc2EAAAADAQABAAABAQDQSjjB2sizT3IlK0lxy0kxZiqcHOiyrnPinD3isaz4XOtsnR79Co123xiBOZEtcIMHBi8HIpuYLd4pCQiEtSRU0cUZoCLD26gZfakJJixHSjg1/FgXkgvSNDagAyt+edwXxzR3dTk2rmKPtnUezgdqi+nNmEqrOe+7GCHZEJyTuuc4Z3pUjd/rDgbJewSDQlPFolKN+cGxlfI7/y7BuA+WdWLYn6Q4dqa9zjdyTsSMwcFyNMwtvrNU/fOKrkqVTPV1bdTdDrApAzUyZC1ppbLWlvTPbMiHbMMQlnQ2UFJEfLja9CIGkFV4HSCUtt3eN+THx8gw3P9gxd0vGhhiIown
Fingerprint SHA256:7DwyCfkMxPWNMlm0rwiiTC9GwC6VD83+q7EKROB3Rl0
Ciphers chacha20-poly1305@openssh.com,aes256-gcm@openssh.com,aes128-gcm@openssh.com,aes256-ctr,aes192-ctr,aes128-ctr
MACs hmac-sha2-256-etm@openssh.com,hmac-sha2-512-etm@openssh.com,umac-128-etm@openssh.com
Kex Algorithms curve25519-sha256,curve25519-sha256@libssh.org,diffie-hellman-group16-sha512,diffie-hellman-group18-sha512
Host Key Algorithms ssh-ed25519,ssh-ed25519-cert-v01@openssh.com,rsa-sha2-256,rsa-sha2-512,ssh-rsa-cert-v01@openssh.com

Da die Loginnodes im öffentlichen und frei erreichbaren Internet stehen, müssen wir von Zeit zu Zeit (Sicherheits-) Updates installieren. Das geschieht ggf. kurzfristig (30 Minuten Vorwarnzeit). Rechnen Sie daher nicht mit einer dauerhaften Verfügbarkeit aller Loginnodes!

Zur Nutzung des Clusters reicht es nicht aus, ein Programm nur einfach auf dem Login-Knoten zu starten!

Die Loginknoten sind nicht für „produktive“ bzw. lang andauernde Rechnungen gedacht!

Da sie allen Benutzern des Clusters zur Verfügung stehen müssen, sind sie nur für

  • Vorbereiten und Abschicken von Jobs
  • Datentransfers zum und vom Cluster
  • kurze Testläufe Ihrer Software (≤ 30 Minuten)
  • Debugging von Programmen
  • Statusabfragen Ihrer Jobs

zu nutzen. Prüfen Sie während Ihrer Testläufe auf einem Loginknoten mit „top“ oder „uptime“ dessen aktuelle CPU-Last, und reduzieren Sie sie durch Nutzung weniger Kerne/Threads/Prozesse oder zumindest mittels „nice“.

Vom Loginknoten aus werden die Rechenaufträge (=Jobs) mittels „sbatch“ in eine Warteschlange (=Queue) eingestellt . Dabei müssen die benötigten Ressourcen (zum Beispiel Speicherbedarf, Anzahl der Kerne, Dauer des Ressourcenbedarfs) angegeben werden.

Warteschlangensystem Slurm

Das Rechnen im Cluster wird über das Slurm-Batchsystem organisiert. Slurm berechnet, wann und auf welchen der Rechenknoten der Auftrag gestartet wird. Dabei werden unter anderem der Bedarf an Ressourcen, die Wartezeit des Auftrags und die Priorität des zugeordneten Projektes berücksichtigt.

Die Aufträge werden vom Batch-System auf einem (oder falls so angefordert, mehreren) der Rechenknoten gestartet.

Um den Rechenauftrag (=Job) an Slurm zu übergeben, wird ein Batch-Script benötigt. Dieses Script enthält die

  • Anforderung an Ressourcen in Form von #SBATCH … pragmas und
  • die Abfolge von Kommandos und Programmen, die die eigentliche wissenschaftliche Berechnung ausführen.

Das „Batch-Script“ (oder Jobscript) ist eine einfache Textdatei (mit UNIX-Zeilenenden !), die man entweder am eigenen PC erzeugt und dann auf den Loginknoten überträgt. Unter Windows empfehlen wir dazu „Notepad++“, das man vor dem Speichern eines Batch-Scripts mittels „Bearbeiten“ – „Format Zeilenende“ auf UNIX (LF) umstellen muss.

Oder man legt das Script gleich mit UNIX-Editoren direkt auf dem Loginknoten an, womit man den o.a. potentiellen Ärger mit falschen Zeilenenden von vornherein vermeidet.

Weitere Informationen zu