Table des matières
LAMMPS sur Jean Zay
Présentation
LAMMPS est code de simulation de dynamique moléculaire classique spécialisé dans la modélisation de matériaux.
Liens utiles
Versions disponibles
Version | Variantes |
---|---|
2023.08.02 | lammps/20230802-mpi, lammps/20230802-mpi-cuda |
2023.03.28 | lammps/20230328-mpi, lammps/20230328-mpi-cuda |
2022.06.23 | lammps/20220623-mpi-cuda, lammps/20220623.2-mpi, lammps/20220623.2-mpi-plumed |
2021.09.29 | lammps/20210929-mpi |
2021.07.02 | lammps/20210702-mpi |
2020.10.29 | lammps/20201029-mpi |
2020.07.21 | lammps/20200721-mpi intel-mkl/2020.1 |
2020.06.30 | lammps/20200630-mpi-cuda-kokkos intel-mkl/2020.1 cuda/10.2 |
2019.06.05 | lammps/20190605-mpi intel-mkl/2019.4 |
2019.06.05 | lammps/20190605-mpi-cuda-kokkos intel-mkl/2019.4 cuda/10.1.1 |
2018.08.31 | lammps/20180831-mpi intel-mkl/2019.4 |
2017.09.22 | lammps/20170922-mpi intel-mkl/2019.4 |
2017.08.11 | lammps/20170811-mpi |
Remarques
- Un souci de blocage de code peut apparaitre avec la version 2023.08.02 CPU. Une version alternative a été installée. vous pouvez la charger en faisant :
module load gcc/12.2.0 openmpi/4.1.1 module load lammps/20230802-mpi
Script de soumission sur la partition CPU
- lammps.in
#!/bin/bash #SBATCH --nodes=1 # Number of Nodes #SBATCH --ntasks-per-node=40 # Number of MPI tasks per node #SBATCH --cpus-per-task=1 # Number of OpenMP threads #SBATCH --hint=nomultithread # Disable hyperthreading #SBATCH --job-name=rhodo # Jobname #SBATCH --output=%x.o%j # Output file %x is the jobname, %j the jobid #SBATCH --error=%x.o%j # Error file #SBATCH --time=10:00:00 # Expected runtime HH:MM:SS (max 100h) ## ## Please, refer to comments below for ## more information about these 4 last options. ##SBATCH --account=<account>@cpu # To specify cpu accounting: <account> = echo $IDRPROJ ##SBATCH --partition=<partition> # To specify partition (see IDRIS web site for more info) ##SBATCH --qos=qos_cpu-dev # Uncomment for job requiring less than 2 hours ##SBATCH --qos=qos_cpu-t4 # Uncomment for job requiring more than 20h (up to 4 nodes) # Cleans out the modules loaded in interactive and inherited by default module purge # Load the module module load lammps/20220623.2-mpi # Execute commands srun lmp -i rhodo.in
Script de soumission sur la partition GPU
- lammps_gpu.slurm
#!/bin/bash #SBATCH --nodes=1 # Number of Nodes #SBATCH --ntasks-per-node=40 # Number of MPI tasks per node #SBATCH --cpus-per-task=1 # Number of OpenMP threads #SBATCH --gres=gpu:4 # Allocate 4 GPUs/node #SBATCH --hint=nomultithread # Disable hyperthreading #SBATCH --job-name=rhodo # Jobname #SBATCH --output=%x.o%j # Output file %x is the jobname, %j the jobid #SBATCH --error=%x.o%j # Error file #SBATCH --time=10:00:00 # Expected runtime HH:MM:SS (max 100h for V100, 20h for A100) ## ## Please, refer to comments below for ## more information about these 4 last options. ##SBATCH --account=<account>@v100 # To specify gpu accounting: <account> = echo $IDRPROJ ##SBATCH --partition=<partition> # To specify partition (see IDRIS web site for more info) ##SBATCH --qos=qos_gpu-dev # Uncomment for job requiring less than 2 hours ##SBATCH --qos=qos_gpu-t4 # Uncomment for job requiring more than 20h (up to 16 GPU, V100 only) # Cleans out the modules loaded in interactive and inherited by default module purge # Load the module module load lammps/20220623-mpi-cuda # Execute commands srun lmp -i rhodo.in
Remarques
- Les jobs ont tous des ressources définies dans Slurm par une partition et une “Qualité de Service” QoS (Quality of Service) par défaut. Vous pouvez en modifier les limites en spécifiant une autre partition et/ou une QoS comme indiqué dans notre documentation détaillant les partitions et les Qos.
- Pour les comptes multi-projets ainsi que ceux ayant des heures CPU et GPU, il est indispensable de spécifier l'attribution d'heures sur laquelle décompter les heures de calcul du job comme indiqué dans notre documentation détaillant la gestion des heures de calcul.