
Table des matières
ORCA sur Jean Zay
Présentation
ORCA est un outils de chimie quantique généraliste avec une spécialisation dans la spectroscopie.
Liens utiles
Versions disponibles
Version | Modules à charger |
---|---|
5.0.3 | orca/5.0.3-mpi |
5.0.1 | orca/5.0.1-mpi |
5.0.0 | orca/5.0.0-mpi |
4.2.0 | orca/4.2.0-mpi-cuda |
Attention : ce produit ne peut pas être utilisé sur GPU. Le CUDA qui apparaît dans le nom du module vient de la dépendance à OpenMPI.
Avertissement
Le message suivant apparaît lors de l'exécution du code :
The library attempted to open the following supporting CUDA libraries, but each of them failed. CUDA-aware support is disabled. libcuda.so.1: cannot open shared object file: No such file or directory libcuda.dylib: cannot open shared object file: No such file or directory /usr/lib64/libcuda.so.1: cannot open shared object file: No such file or directory /usr/lib64/libcuda.dylib: cannot open shared object file: No such file or directory If you are not interested in CUDA-aware support, then run with --mca mpi_cuda_support 0 to suppress this message. If you are interested in CUDA-aware support, then try setting LD_LIBRARY_PATH to the location of libcuda.so.1 to get passed this issue.
Il est lié à l'implémentation de OpenMPI CUDA-aware utilisée. Il ne s'agit pas d'une erreur mais d'un avertissement qui peut être ignoré.
Script de soumission sur la partition CPU
Attention : Il est nécessaire de spécifier le chemin complet de l'exécutable orca
.
Nous vous conseillons d'utiliser un seul nœud de calcul.
- orca.slurm
#!/bin/bash #SBATCH --nodes=1 # Number of Nodes #SBATCH --ntasks-per-node=40 # Number of MPI tasks per node #SBATCH --cpus-per-task=1 # Number of OpenMP threads #SBATCH --hint=nomultithread # Disable hyperthreading #SBATCH --job-name=orca # Jobname #SBATCH --output=%x.o%j # Output file %x is the jobname, %j the jobid #SBATCH --error=%x.o%j # Error file #SBATCH --time=20:00:00 # Expected runtime HH:MM:SS (max 100h) ## ## Please, refer to comments below for ## more information about these 4 last options. ##SBATCH --account=<account>@cpu # To specify cpu accounting: <account> = echo $IDRPROJ ##SBATCH --partition=<partition> # To specify partition (see IDRIS web site for more info) ##SBATCH --qos=qos_cpu-dev # Uncomment for job requiring less than 2 hours ##SBATCH --qos=qos_cpu-t4 # Uncomment for job requiring more than 20h (up to 4 nodes) # Cleans out the modules loaded in interactive and inherited by default module purge # Load the module module load orca/5.0.3-mpi # Execute command with full path $(which orca) input_opt > opt.out
Script de soumission sur la partition GPU
Soumission impossible.
Remarques
- Les jobs ont tous des ressources définies dans Slurm par une partition et une “Qualité de Service” QoS (Quality of Service) par défaut. Vous pouvez en modifier les limites en spécifiant une autre partition et/ou une QoS comme indiqué dans notre documentation détaillant les partitions et les Qos.
- Pour les comptes multi-projets ainsi que ceux ayant des heures CPU et GPU, il est indispensable de spécifier l'attribution d'heures sur laquelle décompter les heures de calcul du job comme indiqué dans notre documentation détaillant la gestion des heures de calcul.