← Back

Machines virtuelles vCPU : quand vous n'avez pas besoin de GPU

Les GPU font la une des journaux, mais beaucoup de travail réel se produit avant et après l'étape des GPU. Les téléchargements, le prétraitement, l'empaquetage, l'orchestration, le collage d'API et la « mise en œuvre fiable » sont souvent des tâches du processeur. Payer le prix du GPU tout en travaillant sur le processeur est l'un des moyens les plus simples de brûler des crédits sans aucun avantage.

Sur Calculez avec Hivenet, vous pouvez lancer une machine virtuelle (VM) sans processeur graphique. Vous obtenez la même forme de « vrai serveur Linux », juste alimenté par des vCPU au lieu de GPU.

Si vous êtes toujours en train de décider si vous voulez une machine virtuelle, commencez ici : [[Interlink : VM or container : how to choose in 60 seconds]]. Si votre question est « Ai-je besoin d'une machine virtuelle GPU ? » celui-ci aide à : Machine virtuelle GPU : qu'est-ce que c'est et qui en a réellement besoin.

Qu'est-ce qu'une machine virtuelle vCPU, en anglais clair

Une machine virtuelle vCPU est une machine Linux complète sans GPU connectés. Vous choisissez un système d'exploitation, vous vous connectez via SSH, vous installez des packages avec sudo, vous exécutez des services d'arrière-plan et vous maintenez un environnement système qui se comporte comme un serveur normal.

Cette partie « contrôle total du système d'exploitation » est la raison d'utiliser une machine virtuelle, même pour les charges de travail utilisant uniquement le processeur. Si vous n'avez pas besoin de contrôler le système d'exploitation, une instance de conteneur est souvent le choix le plus simple.

Quand une machine virtuelle vCPU est le bon outil

Utilisez une machine virtuelle vCPU lorsque vous avez besoin d'un environnement de type serveur, mais que votre charge de travail ne bénéficie pas de l'accélération GPU.

Exemples courants :

La préparation des données et l'ETL qui alimente le GPU fonctionnent plus tard.
Le téléchargement de jeux de données, la conversion de formats, l'extraction d'archives, le nettoyage du texte, le redimensionnement d'images, le découpage de documents et la création d'entrées d'entraînement/d'inférence sont souvent liés au processeur.

Exécution de « services de support » pour votre stack d'IA.
Cela inclut des API légères, des files d'attente de tâches, des planificateurs, des proxys inverses et des outils internes qui coordonnent les tâches GPU. Si le GPU est inactif pendant l'exécution du service, conservez-le sur le vCPU.

Inférence du processeur pour les charges de travail petites ou non critiques en termes de latence.
Certains modèles et certaines tâches fonctionnent correctement sur le processeur, en particulier lorsque le débit et la latence ne sont pas stricts. Si les performances sont acceptables sur un processeur virtuel, n'achetez pas de GPU par habitude. Si ce n'est pas acceptable, changez. C'est simple.

Constructions, empaquetage et tâches de type CI.
La compilation de dépendances, la création de roues, l'empaquetage d'artefacts, la création d'images de conteneurs, l'exécution de tests ou la préparation de bundles déployables sont généralement des tâches du processeur. Si Docker fait partie du flux de travail, il est souvent plus facile d'utiliser une machine virtuelle : Exécutez Docker de la manière habituelle sur une machine virtuelle de calcul.

Une machine « d'établi » à longue durée de vie.
Si vous souhaitez un environnement cohérent auquel vous pouvez revenir sans cesse (chaînes d'outils, scripts, services), mais que vous n'avez pas besoin d'un GPU connecté en permanence, les machines virtuelles vCPU constituent une base pratique.

Si tout cela ressemble à « Je veux un serveur Linux que je contrôle », une machine virtuelle vCPU est la solution idéale.

Quand devriez-vous utiliser un contenant à la place

Utilisez une instance de conteneur (même sur un processeur virtuel) lorsque votre objectif est « d'exécuter cette charge de travail » et que vous ne souhaitez pas gérer le système d'exploitation.

Les conteneurs sont généralement le bon choix pour :

  • Scripts éphémères et exécutions répétables.
  • Un service unique qui ne nécessite pas de services système ni de personnalisation approfondie du système d'exploitation.
  • Des charges de travail qui correspondent parfaitement à un modèle ou à une configuration conteneurisée.

Si votre conteneur continue de vous bloquer, c'est le signal pour passer à une machine virtuelle : Quand cela vaut la peine de passer d'une instance de conteneur à une machine virtuelle.

Quand devriez-vous encore payer pour un GPU

Utilisez un GPU lorsque la charge de travail en bénéficie réellement, en particulier pour charges de travail informatiques modernes accélérées par GPU.

Cela inclut généralement :

  • Entraînement et mise au point.
  • Inférence à grande échelle lorsque les performances du processeur ne sont pas acceptables.
  • Services d'inférence sensibles à la latence où le temps de réponse est important.

Si vous ne savez pas si le GPU en vaut la peine, voici l'approche la plus simple : effectuez d'abord un petit test sur le processeur virtuel. Si les performances ne sont clairement pas suffisantes, passez au GPU en toute confiance.

Un modèle économique qui fonctionne bien

Divisez votre pipeline.

Configurez les étapes les plus gourmandes en ressources processeur sur le vCPU (préparation, orchestration, téléchargements, empaquetage). Ne lancez les GPU que pour les étapes gourmandes en ressources graphiques (entraînement, inférence lourde), y compris Charges de travail liées à l'IA courantes pour les PME. Arrêtez l'instance GPU dès que c'est terminé.

C'est la même logique que celle de notre article sur les prix, mais appliquée de manière pratique : Tarification des machines virtuelles GPU dans le cloud : ce pour quoi vous payez réellement.

Si vous avez besoin de Docker pour votre pile de processeurs, n'enterrez pas les instructions dans un article de blog. Utilisez le didacticiel Docs : Installation de Docker sur une machine virtuelle de calcul. Pour les fournisseurs qui réfléchissent à l'aspect offre de ce modèle, notre entretien avec Le premier fournisseur de GPU certifié de Hivenet montre comment la capacité du GPU peut passer du minage à l'IA.

L'accès et la mise en réseau sont toujours importants

Le rapport entre le processeur et le GPU ne change pas la façon dont vous accédez à la machine ou exposez les services.

Si vous testez une interface utilisateur en privé, la redirection de port SSH est souvent la solution la plus simple. Si vous avez besoin d'un lien public, utilisez HTTPS. Si vous avez besoin de connexions clients directes, utilisez TCP ou UDP.

Ne vous laissez pas surprendre par la persévérance

L'arrêt et le démarrage sont utiles, mais ne considérez pas une instance arrêtée comme un stockage à long terme.

Quel système d'exploitation choisir ?

Si vous n'avez pas de préférence, Ubuntu est généralement l'option la moins surprenante. Si vous vous intéressez davantage à la stabilité ou à de nouveaux outils, Debian et Fedora peuvent vous convenir.

Essayez Compute

Si vous payez pour des GPU tout en travaillant sur le processeur, une machine virtuelle vCPU est la solution la plus simple. Lancez une petite machine virtuelle vCPU, exécutez-y les étapes du processeur, puis n'activez les GPU que lorsque vous en avez réellement besoin.

← Back