Démarrage
Obtenir un compte
Pour demander un compte sur le cluster de calcul HTCF, veuillez envoyer un courriel pour plus d’informations.
Accès
Utilisation du nœud de soumission HTCF
Le serveur de connexion est htcf.wustl.edu
~$ ssh [email protected]
Si vous utilisez un serveur X localement, vous pouvez vous connecter avec -Y pour certaines applications graphiques.Une fois connecté, vous pouvez créer un espace de travail interactif ou soumettre des travaux par lots.
~$ ssh -Y [email protected]
Données &Stockage de données
Répertoires personnels
Chaque compte d’utilisateur HTCF dispose d’un répertoire personnel de 20 Go. Ce répertoire peut être utilisé pour stocker des scripts, des outils de développement, etc. Les répertoires personnels sont situés dans « /home/WUSTL_KEY_ID » et sont disponibles sur tous les nœuds. Ils sont conservés sur un stockage tolérant aux pannes et des snapshops fréquents sont effectués pour éviter toute perte accidentelle de données. Des copies des derniers instantanés quotidiens sont conservées hors site à des fins de reprise après sinistre.
Long Term Storage
LTS est utilisé pour stocker les données brutes et « finies » des projets. Les répertoires LTS ne sont pas disponibles sur les nœuds du cluster. Le stockage à long terme est un espace de projet de laboratoire, disponible par incréments de téraoctets. Il est conservé sur un stockage tolérant aux pannes avec des snapshops. Des copies des derniers instantanés quotidiens sont conservées hors site à des fins de reprise après sinistre.
Stockage à haut débit
Le stockage à haut débit HTCF est un grand système de fichiers distrubué capable de gérer plus de 6 Go/seconde de débit total. Le HTS est un espace scratch et n’est pas sauvegardé. Le stockage à haut débit est temporaire. Nous ne pouvons absolument pas récupérer quoi que ce soit dans /scratch une fois supprimé.
*Les données stockées dans /scratch sont soumises à la politique de nettoyage des données de scratch.
Plus d’informations sont disponibles sur notre page de stockage de données &
Software
Liste des logiciels disponibles sur HTCF
module avail
Pour charger le logiciel:
module load bowtie2
Pour demander des modules logiciels supplémentaires, veuillez nous contacter.
Plus d’informations sont disponibles sur notre page de logiciels
Les logiciels GUI
Comme le HTCF est principalement un système de mise en file d’attente par lots pour le traitement à haut débit de grandes quantités de données, l’application GUI n’est pas directement prise en charge par le HTCF. L’installation et la configuration des applications GUI sur le HTCF sont laissées à l’utilisateur final.
Workflow
Les tâches suivent généralement un workflow générique.
- A – Les données brutes prétraitées entrent dans le LTS
- B – Les données brutes sont copiées dans le scratch pour être traitées
- C – Les données post-traitées sont copiées dans le LTS
- D -. Les données intermédiaires générées à l’étape B sont supprimées
Partitions
Partition | Mémoire maximale | Durée | Max CPUs in Queue |
---|---|---|---|
debug | 250GB | no limit | 3004 |
interactive | 250GB | 8 heures | 3004 |
Jobs
Interactive
Les sessions interactives sont destinées à l’exécution de scripts interactifs, vizualisation, toutes les tâches qui sont trop intensives en calcul pour être exécutées sur le nœud de connexion non soumises via sbatch. Les valeurs par défaut sont : 1 cœur de processeur, 1 Go de RAM, et une limite de temps de 8 heures.
Vous pouvez créer une session interactive en exécutant :
~$ interactive
ou vous pouvez modifier la commande suivante pour l’adapter à vos besoins :
srun --mem=2000 --cpus-per-task=1 -J interactive -p interactive --pty /bin/bash -l
Soumission de travaux par lots
- Détermination des ressources
- Création du fichier de travaux
- Création du fichier sbatch avec les ressources requises
- Soumission
- Surveillance
Exemples de travaux par lots
Création d’un script de travaux (myjob.sbatch):
#!/bin/bash#SBATCH --cpus-per-task=1#SBATCH --mem=1Gml programprogram /scratch/lab/files/ABC.fasta /scratch/lab/files/ABC.out
Soumettre le script sbatch.
sbatch myjob.sbatch
Voir le travail dans la file d’attente
user@htcf:~$ squeueJOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)106 debug example example R 0:13 1 n067
GPUs
Le HTCF dispose actuellement d’un petit nombre de GPU NVIDIA Tesla V100.
Un GPU est accessible à l’aide des paramètres slurm suivants:
#SBATCH -p gpu#SBATCH --gres=gpu
.