Getstarted
Avere un account
Per richiedere un account sul cluster computazionale HTCF, invia un’email per maggiori informazioni.
Accesso
Utilizzare il Submit Node HTCF
Il server di login è htcf.wustl.edu
~$ ssh [email protected]
Se stai usando un server X localmente, puoi connetterti con -Y per alcune applicazioni grafiche.Una volta effettuato l’accesso, puoi creare uno spazio di lavoro interattivo o inviare lavori in batch.
~$ ssh -Y [email protected]
Data & Archiviazione dati
Home Directories
Ogni account utente HTCF ha 20 GB di home directory. Questa directory può essere usata per memorizzare script, strumenti di sviluppo, ecc. Le directory home si trovano in “/home/WUSTL_KEY_ID” e sono disponibili su tutti i nodi. Sono tenute su uno storage fault-tolerant e vengono effettuati frequenti snapshot per prevenire la perdita accidentale di dati. Copie delle ultime istantanee giornaliere sono tenute fuori sede per scopi di disaster recovery.
Long Term Storage
LTS è usato per memorizzare dati grezzi e “finiti” del progetto. Le directory LTS non sono disponibili sui nodi del cluster. L’archiviazione a lungo termine è lo spazio del progetto del laboratorio, disponibile in incrementi di terabyte. E’ conservato su uno storage fault-tolerant con snapshops. Copie delle ultime istantanee giornaliere sono tenute fuori sede per scopi di disaster recovery.
High Throughput Storage
HTCF high throughput storage è un grande file system distribuito in grado di gestire più di 6GB/secondo di throughput totale. L’HTS è uno spazio scratch e non viene sottoposto a backup. Lo storage ad alta velocità è temporaneo. Non possiamo assolutamente recuperare nulla in /scratch una volta rimosso.
*I dati memorizzati in /scratch sono soggetti alla Scratch Data Cleaning Policy.
Più informazioni sono disponibili sulla nostra Data & Data Storage Page
Software
Lista del software disponibile su HTCF
module avail
Per caricare il software:
module load bowtie2
Per richiedere moduli software aggiuntivi, contattaci.
Più informazioni sono disponibili sulla nostra pagina del software
Software GUI
Poiché l’HTCF è principalmente un sistema di accodamento batch per l’elaborazione ad alta velocità di grandi quantità di dati, le applicazioni GUI non sono direttamente supportate dall’HTCF. L’installazione e la configurazione delle applicazioni GUI sull’HTCF sono lasciate all’utente finale.
Flusso di lavoro
I lavori seguono in genere un flusso di lavoro generico.
- A – I dati grezzi pre-elaborati entrano in LTS
- B – I dati grezzi sono copiati su scratch per l’elaborazione
- C – I dati post-elaborati sono copiati in LTS
- D – I dati intermedi generati nel passo B vengono rimossi
Partizioni
Partizione | Max Memory | Duration | Max CPUs in Queue |
---|---|---|---|
debug | 250GB | nessun limite | 3004 |
interattivo | 250GB | 8 ore | 3004 |
Jobs
Interattivo
Sessioni interattive sono per eseguire script interattivi, visualizzazione, qualsiasi compito che è troppo impegnativo dal punto di vista computazionale per essere eseguito sul nodo di accesso e che non viene inviato tramite sbatch. I valori predefiniti sono: 1 core della CPU, 1 GB di RAM e un limite di tempo di 8 ore.
Puoi creare una sessione interattiva eseguendo:
~$ interactive
o puoi modificare il seguente comando per adattarlo alle tue esigenze:
srun --mem=2000 --cpus-per-task=1 -J interactive -p interactive --pty /bin/bash -l
Invio lavoro in batch
- Determina risorse
- Crea file lavoro
- Crea file sbatch con risorse richieste
- Invia
- Monitoraggio
Esempi di lavoro
Crea uno script lavoro (myjob.sbatch):
#!/bin/bash#SBATCH --cpus-per-task=1#SBATCH --mem=1Gml programprogram /scratch/lab/files/ABC.fasta /scratch/lab/files/ABC.out
Invia lo script sbatch.
sbatch myjob.sbatch
Visualizza il lavoro nella coda
user@htcf:~$ squeueJOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)106 debug example example R 0:13 1 n067
GPUs
L’HTCF ha attualmente un piccolo numero di GPU NVIDIA Tesla V100.
Una GPU è accessibile utilizzando i seguenti parametri slurm:
#SBATCH -p gpu#SBATCH --gres=gpu