← Back

GPU GROMACS sur cloud (RTX 4090) : démarrage rapide et kit d'auto-évaluation

Exécutez un test GROMACS reproductible sur un RTX 4090 à l'aide de l'image optimisée pour le GPU de Compute. Ce guide explique comment vérifier l'accès au processeur graphique, installer correctement GROMACS et exécuter un test de base sans avoir à deviner.

Cet article est pas un manuel de résolution des problèmes et pas une promesse de configuration en un clic. Il s'agit d'un chemin pratique et reproductible qui correspond au fonctionnement réel des instances Compute aujourd'hui.

Avant de commencer (lisez ceci)

Ce guide part du principe que :

  • Vous utilisez Image optimisée pour le GPU de Compute
  • Vous avez accès au niveau utilisateur uniquement (pas de machine virtuelle complète, pas de modification permanente du système)
  • Vous êtes à l'aise pour exécuter des commandes dans un shell Linux

Les instances de calcul sont des environnements conteneurisés. Vous ne devez pas partir du principe que « apt-get anything I want » ou « build once and forget » persisteront lors des redémarrages. Si vous avez besoin d'un environnement fixe à long terme, créez un modèle personnalisé.

Étape 1 : Lancer une instance RTX 4090

  1. Accédez à Calcul → Instances
  2. Cliquez Lancer une nouvelle instance
  3. Choisissez la taille de votre GPU (RTX 4090)
  4. Ajoutez votre clé SSH
  5. Quand vous atteignez Choisissez un modèle, sélectionnez :

Image optimisée pour le GPU

  • Ubuntu 24.04
  • CUDA 12,6
  • JupyterLab 4.4.2
  • PyTorch 2.8.0
  • SDK Vulkan

Faire pas supposons que GROMACS est préinstallé. Ça ne l'est pas.

Lancez l'instance.

Étape 2 : connexion et vérification de l'accès au GPU

Connectez-vous à l'instance via SSH à l'aide de la commande affichée dans l'interface utilisateur.

Vérifiez d'abord que le GPU est visible :

nvidia-smi

Vous devriez voir le RTX 4090 répertorié.

Si nvidia-smi échoue ou n'affiche aucun GPU, arrêtez-vous ici. Mettez fin à l'instance et réessayez. Si cela se reproduit, il s'agit d'un problème de plate-forme et vous devez contacter le support.

Étape 3 : Décidez comment vous allez exécuter GROMACS

Vous disposez de deux chemins pris en charge. Choisissez-en un et tenez-vous-y.

Option A (recommandée) : utiliser le conteneur officiel GROMACS

Cela évite les incohérences entre CUDA, compilateur et build.

Vérifiez que Docker ou un environnement d'exécution de conteneur compatible est disponible :

docker --version

Exécutez ensuite :

docker run --rm --gpus all gromacs/gromacs:2024.1 gmx --version

Si cela fonctionne et affiche une version compatible GPU, vous êtes prêt à exécuter des tâches à l'aide du conteneur.

Il s'agit de l'option la plus sûre sur Compute aujourd'hui.

Option B : créer GROMACS dans l'instance

Ne le faites que si vous savez que vous avez besoin d'une version personnalisée.

À un niveau élevé, cela signifie :

  • Installation des dépendances de build
  • Configuration de GROMACS avec le support CUDA
  • Compiler avec CMake

Suivez le guide d'installation officiel de GROMACS et assurez-vous que le support CUDA est activé. Ne mélangez pas les instructions des blogs ou des guides plus anciens.

Attention : la persistance des modifications effectuées de cette manière n'est pas garantie d'un cycle de vie à l'autre des instances, sauf si vous convertissez le résultat en un modèle personnalisé.

Étape 4 : Préparez votre système de test

Créez un répertoire de travail :

mkdir -p ~/gromacs
cd ~/gromacs

Vous avez besoin d'un .tpr fichier à exécuter mdrun.

Si vous en avez déjà un, copiez-le ici.

Si ce n'est pas le cas, générez-le à partir des entrées existantes :

gmx grompp -f mdp -c conf.gro -p topol.top -o system.tpr

Étape 5 : Exécuter un benchmark déchargé du GPU

Exécutez GROMACS avec des indicateurs GPU explicites :

banc gmx mdrun -s system.tpr -deffnm \
-nb gpu -pme gpu -mise à jour du gpu -pin activé

Pendant son exécution, confirmez l'activité du GPU dans un autre shell :

nvidia-smi

Vous devriez constater un taux d'utilisation différent de zéro.

À la fin de la course, notez les performances signalées (ns/jour).

À quoi ressemble le succès

  • gmx --version rapporte la prise en charge du GPU
  • nvidia-smi montre l'activité pendant la course
  • Les performances se stabilisent après l'échauffement
  • Aucune erreur CUDA ou d'exécution n'apparaît dans le journal

Si ces conditions ne sont pas remplies, il ne s'agit pas d'un indice de référence valide.

Modes de défaillance courants (et leur signification)

« GROMACS est introuvable »
Vous avez sélectionné l'image optimisée pour le GPU. GROMACS n'est pas préinstallé. Utilisez le conteneur ou installez-le explicitement.

Erreurs CUDA ou GPU lors de l'exécution
Vous mélangez des versions de CUDA incompatibles ou le conteneur n'a pas accès au GPU. Vérifiez auprès de nvidia-smi et gmx --version.

Performances incohérentes entre les courses
Vous modifiez la taille de l'instance, l'allocation du processeur ou la version du conteneur. Les repères n'ont de sens que si l'environnement est stable.

À propos des chiffres de performance

Les performances dépendent des facteurs suivants :

  • Version GROMACS
  • Version CUDA
  • Threads du processeur utilisés
  • Taille du système et paramètres PME

Les chiffres de cet article ne sont fournis qu'à titre indicatif. Comparez toujours votre propre charge de travail.

Quand ne pas utiliser ce guide

  • Vous recherchez des diagnostics de support
  • Vous avez besoin d'une mise à l'échelle MPI multi-nœuds
  • Vous voulez un environnement GROMACS permanent et clé en main

Dans ces cas, cet article va vous frustrer. Créez un modèle personnalisé ou contactez le support à la place.

Essayez Compute dès aujourd'hui

Démarrez une instance GPU avec un modèle compatible CUDA (par exemple, Ubuntu 24.04 LTS/CUDA 12.6) ou votre propre image GROMACS. Profitez d'une facturation flexible à la seconde avec modèles personnalisés et la possibilité de démarrer, d'arrêter et de reprendre vos sessions à tout moment. Vous n'êtes pas sûr des exigences du FP64 ? Contactez le support pour vous aider à sélectionner le profil matériel le mieux adapté à vos besoins informatiques.

← Back