Articles

Start

Konto einrichten

Um ein Konto für den HTCF-Rechencluster anzufordern, senden Sie bitte eine E-Mail, um weitere Informationen zu erhalten.

Zugang

Benutzung des HTCF Submit Node

Der Anmeldeserver ist htcf.wustl.edu

~$ ssh [email protected]

Wenn Sie lokal einen X-Server verwenden, können Sie für einige grafische Anwendungen eine Verbindung mit -Y herstellen.

~$ ssh -Y [email protected] 

Daten &Datenspeicherung

Home-Verzeichnisse

Jedes HTCF-Benutzerkonto hat ein 20 GB großes Home-Verzeichnis. Dieses Verzeichnis kann zum Speichern von Skripten, Entwicklungstools usw. verwendet werden. Die Heimatverzeichnisse befinden sich in „/home/WUSTL_KEY_ID“ und sind auf allen Knoten verfügbar. Sie werden auf einem fehlertoleranten Speicher aufbewahrt, und es werden regelmäßig Snapshots erstellt, um einen versehentlichen Datenverlust zu verhindern. Kopien der letzten täglichen Snapshots werden für Disaster-Recovery-Zwecke extern aufbewahrt.

Langzeitspeicher

LTS wird zur Speicherung von Rohdaten und „fertigen“ Projektdaten verwendet. Die LTS-Verzeichnisse sind auf den Clusterknoten nicht verfügbar. Der Langzeitspeicher ist ein Laborprojektspeicher, der in Terabyte-Schritten verfügbar ist. Er wird auf einem fehlertoleranten Speicher mit Snapshops aufbewahrt. Kopien der letzten täglichen Snapshots werden für Disaster-Recovery-Zwecke ausgelagert.

Hochdurchsatzspeicher

HTCF-Hochdurchsatzspeicher ist ein großes, verteiltes Dateisystem, das einen Gesamtdurchsatz von mehr als 6 GB/Sekunde bewältigen kann. Der HTS ist Scratch-Speicher und wird nicht gesichert. High-Throughput-Storage ist temporär. Wir können nichts in /scratch wiederherstellen, wenn es einmal entfernt wurde.

*Daten, die in /scratch gespeichert sind, unterliegen der Scratch Data Cleaning Policy.

Weitere Informationen finden Sie auf unserer Data & Data Storage Page

Software

Liste der auf HTCF verfügbaren Software

module avail

Um die Software zu laden:

module load bowtie2

Wenn Sie zusätzliche Softwaremodule benötigen, kontaktieren Sie uns bitte.

Weitere Informationen finden Sie auf unserer Software-Seite

GUI-Software

Da der HTCF in erster Linie ein Batch-Warteschlangensystem für die Verarbeitung großer Datenmengen mit hohem Durchsatz ist, werden GUI-Anwendungen nicht direkt vom HTCF unterstützt. Die Installation und Einrichtung von GUI-Anwendungen auf dem HTCF wird dem Endbenutzer überlassen.

Workflow

Jobs folgen typischerweise einem generischen Workflow.

  • A – Vorverarbeitete Rohdaten werden in den LTS eingegeben
  • B – Rohdaten werden zur Verarbeitung in den Scratch kopiert
  • C – Nachverarbeitete Daten werden in den LTS kopiert
  • D. In Schritt B erzeugte Zwischendaten werden entfernt

Partitionen

Partition Max Speicher Dauer Max CPUs in Warteschlange
debug 250GB kein Limit 3004
interaktiv 250GB 8 Stunden 3004

Jobs

Interaktiv

Interaktive Sitzungen sind für die Ausführung interaktiver Skripte, Vizualisierung, alle Aufgaben, die zu rechenintensiv sind, um sie auf dem Login-Knoten auszuführen und nicht über sbatch übermittelt werden. Die Standardeinstellungen sind: 1 CPU-Kern, 1 GB RAM, und ein Zeitlimit von 8 Stunden.

Sie können eine interaktive Sitzung erstellen, indem Sie Folgendes ausführen:

~$ interactive

oder Sie können den folgenden Befehl an Ihre Anforderungen anpassen:

srun --mem=2000 --cpus-per-task=1 -J interactive -p interactive --pty /bin/bash -l

Batch Job Submission

  • Ressourcen bestimmen
  • Job-Datei erstellen
  • Sbatch-Datei mit erforderlichen Ressourcen erstellen
  • Submit
  • Monitor

Sbatch Beispiele

Erstellen Sie ein Job-Skript (myjob.sbatch):

#!/bin/bash#SBATCH --cpus-per-task=1#SBATCH --mem=1Gml programprogram /scratch/lab/files/ABC.fasta /scratch/lab/files/ABC.out

Senden Sie das sbatch-Skript.

sbatch myjob.sbatch

Betrachten Sie den Job in der Warteschlange

user@htcf:~$ squeueJOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)106 debug example example R 0:13 1 n067

GPUs

Das HTCF verfügt derzeit über eine kleine Anzahl von NVIDIA Tesla V100-GPUs.

Eine GPU ist über die folgenden Slurm-Parameter zugänglich:

#SBATCH -p gpu#SBATCH --gres=gpu