Exécutez un test GROMACS reproductible sur un RTX 4090 à l'aide de l'image optimisée pour le GPU de Compute. Ce guide explique comment vérifier l'accès au processeur graphique, installer correctement GROMACS et exécuter un test de base sans avoir à deviner.
Cet article est pas un manuel de résolution des problèmes et pas une promesse de configuration en un clic. Il s'agit d'un chemin pratique et reproductible qui correspond au fonctionnement réel des instances Compute aujourd'hui.
Avant de commencer (lisez ceci)
Ce guide part du principe que :
- Vous utilisez Image optimisée pour le GPU de Compute
- Vous avez accès au niveau utilisateur uniquement (pas de machine virtuelle complète, pas de modification permanente du système)
- Vous êtes à l'aise pour exécuter des commandes dans un shell Linux
Les instances de calcul sont des environnements conteneurisés. Vous ne devez pas partir du principe que « apt-get anything I want » ou « build once and forget » persisteront lors des redémarrages. Si vous avez besoin d'un environnement fixe à long terme, créez un modèle personnalisé.
Étape 1 : Lancer une instance RTX 4090
- Accédez à Calcul → Instances
- Cliquez Lancer une nouvelle instance
- Choisissez la taille de votre GPU (RTX 4090)
- Ajoutez votre clé SSH
- Quand vous atteignez Choisissez un modèle, sélectionnez :
Image optimisée pour le GPU
- Ubuntu 24.04
- CUDA 12,6
- JupyterLab 4.4.2
- PyTorch 2.8.0
- SDK Vulkan
Faire pas supposons que GROMACS est préinstallé. Ça ne l'est pas.
Lancez l'instance.
Étape 2 : connexion et vérification de l'accès au GPU
Connectez-vous à l'instance via SSH à l'aide de la commande affichée dans l'interface utilisateur.
Vérifiez d'abord que le GPU est visible :
nvidia-smi
Vous devriez voir le RTX 4090 répertorié.
Si nvidia-smi échoue ou n'affiche aucun GPU, arrêtez-vous ici. Mettez fin à l'instance et réessayez. Si cela se reproduit, il s'agit d'un problème de plate-forme et vous devez contacter le support.
Étape 3 : Décidez comment vous allez exécuter GROMACS
Vous disposez de deux chemins pris en charge. Choisissez-en un et tenez-vous-y.
Option A (recommandée) : utiliser le conteneur officiel GROMACS
Cela évite les incohérences entre CUDA, compilateur et build.
Vérifiez que Docker ou un environnement d'exécution de conteneur compatible est disponible :
docker --version
Exécutez ensuite :
docker run --rm --gpus all gromacs/gromacs:2024.1 gmx --version
Si cela fonctionne et affiche une version compatible GPU, vous êtes prêt à exécuter des tâches à l'aide du conteneur.
Il s'agit de l'option la plus sûre sur Compute aujourd'hui.
Option B : créer GROMACS dans l'instance
Ne le faites que si vous savez que vous avez besoin d'une version personnalisée.
À un niveau élevé, cela signifie :
- Installation des dépendances de build
- Configuration de GROMACS avec le support CUDA
- Compiler avec CMake
Suivez le guide d'installation officiel de GROMACS et assurez-vous que le support CUDA est activé. Ne mélangez pas les instructions des blogs ou des guides plus anciens.
Attention : la persistance des modifications effectuées de cette manière n'est pas garantie d'un cycle de vie à l'autre des instances, sauf si vous convertissez le résultat en un modèle personnalisé.
Étape 4 : Préparez votre système de test
Créez un répertoire de travail :
mkdir -p ~/gromacs
cd ~/gromacs
Vous avez besoin d'un .tpr fichier à exécuter mdrun.
Si vous en avez déjà un, copiez-le ici.
Si ce n'est pas le cas, générez-le à partir des entrées existantes :
gmx grompp -f mdp -c conf.gro -p topol.top -o system.tpr
Étape 5 : Exécuter un benchmark déchargé du GPU
Exécutez GROMACS avec des indicateurs GPU explicites :
banc gmx mdrun -s system.tpr -deffnm \
-nb gpu -pme gpu -mise à jour du gpu -pin activé
Pendant son exécution, confirmez l'activité du GPU dans un autre shell :
nvidia-smi
Vous devriez constater un taux d'utilisation différent de zéro.
À la fin de la course, notez les performances signalées (ns/jour).
À quoi ressemble le succès
gmx --versionrapporte la prise en charge du GPUnvidia-smimontre l'activité pendant la course- Les performances se stabilisent après l'échauffement
- Aucune erreur CUDA ou d'exécution n'apparaît dans le journal
Si ces conditions ne sont pas remplies, il ne s'agit pas d'un indice de référence valide.
Modes de défaillance courants (et leur signification)
« GROMACS est introuvable »
Vous avez sélectionné l'image optimisée pour le GPU. GROMACS n'est pas préinstallé. Utilisez le conteneur ou installez-le explicitement.
Erreurs CUDA ou GPU lors de l'exécution
Vous mélangez des versions de CUDA incompatibles ou le conteneur n'a pas accès au GPU. Vérifiez auprès de nvidia-smi et gmx --version.
Performances incohérentes entre les courses
Vous modifiez la taille de l'instance, l'allocation du processeur ou la version du conteneur. Les repères n'ont de sens que si l'environnement est stable.
À propos des chiffres de performance
Les performances dépendent des facteurs suivants :
- Version GROMACS
- Version CUDA
- Threads du processeur utilisés
- Taille du système et paramètres PME
Les chiffres de cet article ne sont fournis qu'à titre indicatif. Comparez toujours votre propre charge de travail.
Quand ne pas utiliser ce guide
- Vous recherchez des diagnostics de support
- Vous avez besoin d'une mise à l'échelle MPI multi-nœuds
- Vous voulez un environnement GROMACS permanent et clé en main
Dans ces cas, cet article va vous frustrer. Créez un modèle personnalisé ou contactez le support à la place.
Essayez Compute dès aujourd'hui
Démarrez une instance GPU avec un modèle compatible CUDA (par exemple, Ubuntu 24.04 LTS/CUDA 12.6) ou votre propre image GROMACS. Profitez d'une facturation flexible à la seconde avec modèles personnalisés et la possibilité de démarrer, d'arrêter et de reprendre vos sessions à tout moment. Vous n'êtes pas sûr des exigences du FP64 ? Contactez le support pour vous aider à sélectionner le profil matériel le mieux adapté à vos besoins informatiques.
