Aan de slag
Een account aanvragen
Om een account aan te vragen op het HTCF rekencluster, stuur een e-mail voor meer informatie.
Toegang
Gebruik maken van de HTCF Submit Node
De login server is htcf.wustl.edu
~$ ssh [email protected]
Als u lokaal een X server gebruikt, kunt u verbinding maken met -Y voor sommige grafische toepassingen.Eenmaal ingelogd, kunt u een interactieve werkruimte maken of batch jobs versturen.
~$ ssh -Y [email protected]
Data &Gegevensopslag
Home Directories
Elke HTCF gebruikersaccount heeft een home directory van 20GB. Deze map kan worden gebruikt om scripts, ontwikkelgereedschappen, etc. op te slaan. Home directories bevinden zich in “/home/WUSTL_KEY_ID” en zijn beschikbaar op alle nodes. Ze worden bewaard op fouttolerante opslag en er worden regelmatig snapshots genomen om onbedoeld verlies van gegevens te voorkomen. Kopieën van de laatste dagelijkse snapshots worden offsite bewaard voor disaster recovery doeleinden.
Long Term Storage
LTS wordt gebruikt om ruwe en “afgewerkte” projectgegevens op te slaan. De LTS-mappen zijn niet beschikbaar op de clusterknooppunten. Lange termijn opslag is lab project ruimte, beschikbaar in terabyte stappen. Het wordt bewaard op fouttolerante opslag met snapshops. Kopieën van de laatste dagelijkse snapshots worden offsite bewaard voor disaster recovery doeleinden.
High Throughput Storage
HTCF high throughput storage is een groot, gedistribueerd bestandssysteem dat in staat is om meer dan 6GB/seconde aan totale doorvoer aan te kunnen. De HTS is scratchruimte en wordt niet geback-upt. High-roughput opslag is tijdelijk. We kunnen absoluut niets herstellen in /scratch zodra het verwijderd is.
*Gegevens opgeslagen in /scratch zijn onderhevig aan het Scratch Data Opschoningsbeleid.
Meer informatie is beschikbaar op onze Data & Data Opslag Pagina
Software
Lijst van de software beschikbaar op HTCF
module avail
Om de software te laden:
module load bowtie2
Om extra software modules aan te vragen, neem contact met ons op.
Meer informatie is beschikbaar op onze Software Pagina
GUI Software
Aangezien de HTCF primair een batch queuing systeem is voor high-throughput verwerking van grote hoeveelheden data, worden GUI toepassingen niet direct ondersteund door de HTCF. Het installeren en instellen van GUI-toepassingen op de HTCF wordt overgelaten aan de eindgebruiker.
Workflow
Jobs volgen gewoonlijk een generieke workflow.
- A – Voorbewerkte ruwe gegevens komen in LTS
- B – Ruwe gegevens worden naar scratch gekopieerd voor verwerking
- C – Verwerkte gegevens worden naar LTS gekopieerd
- D – Tussenliggende gegevens die in stap B zijn gegenereerd, worden verwijderd
Partities
Partitie | Max geheugen | Duur | Max CPU’s in wachtrij |
---|---|---|---|
debug | 250GB | geen limiet | 3004 |
interactief | 250GB | 8 uur | 3004 |
Jobs
Interactief
Interactieve sessies zijn voor het uitvoeren van interactieve scripts, vizualisatie, alle taken die te rekenintensief zijn om op het login knooppunt te draaien en niet via sbatch worden ingediend. De standaardwaarden zijn: 1 CPU core, 1 GB RAM, en een tijdslimiet van 8 uur.
U kunt een interactieve sessie maken door te draaien:
~$ interactive
of u kunt het volgende commando aanpassen aan uw wensen:
srun --mem=2000 --cpus-per-task=1 -J interactive -p interactive --pty /bin/bash -l
Batch Job Submission
- Determine resources
- Create Job File
- Create sbatch file with required resources
- Submit
- Monitor
Sbatch Examples
Create a job script (myjob.sbatch):
#!/bin/bash#SBATCH --cpus-per-task=1#SBATCH --mem=1Gml programprogram /scratch/lab/files/ABC.fasta /scratch/lab/files/ABC.out
Submit het sbatch script.
sbatch myjob.sbatch
Bekijk de job in de wachtrij
user@htcf:~$ squeueJOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)106 debug example example R 0:13 1 n067
GPUs
De HTCF heeft momenteel een klein aantal NVIDIA Tesla V100 GPUs.
Een GPU is toegankelijk met behulp van de volgende slurm parameters:
#SBATCH -p gpu#SBATCH --gres=gpu