Seite druckenPDF Version herunterladenSeitenstruktur anzeigenSeite durchsuchen
nach oben

High Performance Computing

Vorbemerkung

  • Für das Hochleistungsrechnen am RRZ der Universität Hamburg steht seit 2009 ein Linux Cluster mit Intel-Harpertown-CPUs zur Verfügung. Die Benutzung des Parallelrechners setzt eine besondere Zugangsberechtigung in Form einer Projekt-bezogenen Kennung voraus. Bitte lesen sie weitere Informationen hier.

  • Projekte mit sehr hohen Ressourcenanforderungen können im Rahmen des HLRN (Norddeutscher Verbund für Hoch- und Höchstleistungsrechnen) bearbeitet werden. Als lokaler Ansprechpartner fungiert das Rechenzentrum als Schnittstelle zwischen dem HLRN und den Nutzern. Ein Projektantrag auf Benutzung des HLRN-Systems kann direkt beim HLRN über ein Web-Formular gestellt werden.

 

Informationen zum Linux-Cluster

Hardware

Der Linux-Cluster des RRZ besteht aus:

  • 1 Loginknoten: 2x Intel Xeon E5462 Quad Core, 8x2,80 GHz, FSB 1600 MHz, 16 GB RAM
  • 1 Adminknoten: 1x Intel Xeon L5420 Quad Core, 4x2,50 GHz, FSB 1333 MHz, 8 GB RAM
  • 2 Fileserver : 1x Intel Xeon L5420 Quad Core, 4x2,50 GHz, FSB 1333 MHz, 8 GB RAM
  • 68 Computenodes: 2x Intel Xeon E5462 Quad Core, 8x2,80 GHz, FSB 1600 MHz, 16 GB RAM (Knotentyp c)
  • 20 Computenodes: 2x Intel Xeon E5462 Quad Core, 8x2,80 GHz, FSB 1600 MHz, 32 GB RAM (Knotentyp d)
  • 2 Computenodes: 2x Intel Xeon E5640 Quad Core, 8x2,66 GHz, FSB 1333 MHz, 96 GB RAM

Netzanbindung, Administrationsnetz: Gigabit Ethernet
Interprozess-Kommunikation: Infiniband DDR 4x

(näheres zur Topologie der Hardware, lesen sie bitte weiter unten unter Batch-System und Scheduler)

Betriebssystem

SLES10SP2, Kernel 2.6.16.60

Storage

Den Benutzern stehen folgende Verzeichnisse zur Verfügung:

  1. HOME: 6,4 TB, Pfad: /G/home/$USER
  2. Scratch: 5,5 TB, Pfad: /G/scratch/$USER
  3. lokales Scratch auf jedem Knoten: 107 GB, Pfad: /work/$USER

Für HOME gilt ein Quota von 200GB Soft- und 250GB Hardlimit. Daten im Home werden täglich auf TSM gesichert.

Für Scratch- und Work-Bereiche gibt es kein Quota, da einige Programme wie Gaussian sehr große temporäre Dateien prodizueren und es sonst zu Jobabbrüchen kommen kann. Diese Bereiche werden auch nicht gesichert. Benutzer müssen sich um die Sicherung und Aufbewahrung wichtiger Daten sowie um das Aufräumen der nicht benötigten Daten nach dem Jobablauf selbst kümmern. Wenn diese Bereiche überfüllt werden, können ältere Daten von Administratoren ohne Vorwarnung gelöscht werden.

Batch-System und Scheduler

Auf dem Cluster wird Torque in der Version 2.3.6 als Batchsystem und Maui in der Version 3.2.6p21 als Scheduler eingesetzt. Zur Bedienung des Batch-Systems sehen sie bitte hier, Informationen zur Konfiguration des Schedulers und zum Scheduling-Verhalten sowie zur Hardwaretopologie erhalten sie hier.

Login

Der Loginknoten des Clusters hpclogin.rrz.uni-hamburg.de ist weltweit per SSH über die IP-Adresse 134.100.32.122 zu erreichen.

Autor: Elisabeth Kahnert, Stand: 23.07.2013 11:09 Uhr

 Impressum  Datenschutzerklärung