High-Performance-Computing-Cluster dirac
Zweck
Der HPC-Cluster dirac (nach Paul Dirac) dient Simulationen und Modellrechnungen.
Aufbau
Er besteht aus dem Zugangs- und Steuerrechner dirac-meister, dem Dateiserver dirac-mester und 32 aktiven Rechen-Knoten mit insgesamt 1832 CPU-Kernen und 5 TB Speicher. Als Massenspeicher gibt es im Steuerrechner vier interne Platten (12 TB) sowie ein RAID-Array mit 12 Platten (144 TB). Die Rechner sind mit GBit-Ethernet und 10 GBit/s-Infiniband über Switches miteinander verbunden.
Fünf Rechen-Knoten werden mit den Namen dinux10, dinux9, dinux8, dinux7 und dinux6 als universelle Linux-Server für interaktives Arbeiten verwendet. Die restlichen Rechen-Knoten werden mit dem Batch-System Open Grid Scheduler angesprochen.
Hardware und Nutzerumgebung sind für parallele Rechnungen optimiert.
Zustand
Der Cluster wurde seit 2007 vierzehnmal erweitert.
Software
Zur Softwareausstattung auf den Betriebssystemen OpenSUSE Linux 13.1 64 Bit gehören optimierende Compiler, mathematische Bibliotheken, Parallelisierungs-Umgebungen und einige populäre Anwendungen für Physik und Chemie.
Verfügbarkeit
Der Cluster steht allen Personen mit HZB-Kennung ohne weitere Formalitäten zur Verfügung.
Eine ssh-Verbindung mit ssh (Linux/macOS/Windows 10) oder PuTTY (Windows) zum Rechner dirac-meister ist der Zugang zum Cluster. Die Rechenknoten sind interaktiv nicht direkt erreichbar, da sie im Stapel-Betrieb arbeiten.
Hilfe bei der Benutzung
Wir beraten Sie gern. Für technische Fragen und Fragen zum Betrieb lesen Sie bitte die Benutzungshinweise oder wenden Sie sich mit einer E-Mail an help@helmholtz-berlin.de.