Lorsque vous créez une machine virtuelle (VM) sur Hivenet's Compute, vous choisissez un système d'exploitation Linux. Les options sont familières : Ubuntu, Debian et Fedora.
La plupart des gens peuvent choisir Ubuntu et passer à autre chose. Ce n'est pas une solution. C'est la valeur par défaut lorsque vous souhaitez une compatibilité étendue et que vous ne voulez pas vous soucier des détails du système d'exploitation dès le premier jour.
Si vous envisagez d'utiliser une machine virtuelle compatible GPU sur Ubuntu, vous pouvez exécuter des tâches graphiques ou informatiques exigeantes dans un environnement isolé, en obtenant des performances presque équivalentes à celles d'une machine nue. La technologie NVIDIA Virtual GPU (vGPU) permet de partager une seule carte graphique physique entre plusieurs machines virtuelles sur Ubuntu, réduisant ainsi les coûts et maximisant l'utilisation du matériel. Remarque : le logiciel NVIDIA vGPU nécessite souvent des licences distinctes et coûteuses pour les configurations avancées de partage de GPU. Des technologies telles que NVIDIA vGPU permettent à plusieurs machines virtuelles de partager un seul GPU physique, optimisant ainsi l'utilisation du matériel et réduisant le besoin de plusieurs cartes coûteuses. La création et la gestion de vGPU impliquent l'ajout d'un ou plusieurs vGPU à une machine virtuelle et la définition des paramètres de plug-in nécessaires. Pour gérer les ressources GPU des machines virtuelles, les utilisateurs doivent sélectionner le profil vGPU approprié en fonction des exigences de l'application. Vous devez préparer le GPU pour l'utilisation du vGPU en suivant des étapes de configuration spécifiques. La surveillance des performances du GPU peut être effectuée à l'aide de l'outil nvidia-smi depuis un hyperviseur, ce qui vous permet de visualiser les informations et les mesures de performance du GPU.
Le GPU Passthrough permet à une machine virtuelle cliente d'atteindre des performances GPU proches de celles du cloud, ce qui est idéal pour le rendu 3D, l'encodage vidéo et les jeux vidéo. Pour obtenir des performances natives, les utilisateurs peuvent utiliser la transmission PCI des GPU (cartes) supplémentaires du système. La configuration du relais GPU nécessite des connaissances avancées, notamment la prise en charge de l'IOMMU dans le BIOS/UEFI et une liaison précise des périphériques PCI. L'activation de l'unité de gestion de la mémoire d'entrée-sortie (IOMMU) est une condition préalable au transfert PCI des GPU dans les machines virtuelles. La complexité de la configuration implique la nécessité d'un support matériel spécifique pour l'IOMMU et implique souvent des modifications manuelles du noyau et un réglage du BIOS. La configuration d'une machine virtuelle GPU sur Ubuntu implique d'activer IOMMU dans le BIOS, d'isoler le GPU à l'aide de pilotes VFIO et de transmettre le périphérique PCI à la machine virtuelle. Il est important d'identifier le domaine et la carte PCI appropriés lors de la configuration du relais. Vous pouvez vérifier la présence de messages IOMMU/DMAR dans les messages de votre noyau de démarrage et utiliser les commandes système pour filtrer et répertorier les périphériques PCI. Recherchez les lignes où se trouve votre GPU. Vous devrez peut-être créer une liste bloquée de modprobe pour empêcher le chargement de certains pilotes (comme Nouveau), car le pilote Nouveau open source par défaut entre en conflit avec les pilotes NVIDIA dans Ubuntu et doit être désactivé pour une installation correcte. Lors de la configuration ou des mises à jour du système, vous devrez peut-être copier des fichiers de configuration ou des commandes dans le cadre du processus. Le niveau d'intégration ou de contrôle requis pour les configurations matérielles avancées telles que le relais PCI et les périphériques médiatisés peut être significatif.
Un périphérique médiatisé est essentiellement le partitionnement d'un périphérique matériel à l'aide des fonctionnalités du microprogramme et du pilote hôte. La virtualisation offre également une meilleure sécurité en isolant les charges de travail, garantissant ainsi qu'une panne ou un incident de sécurité sur une machine virtuelle n'affecte pas le système hôte ou les autres machines virtuelles. Pour configurer un client de licence du système de licences NVIDIA, commencez par générer un jeton de configuration client.
L'exécution de TensorFlow ou PyTorch dans un conteneur ou une machine virtuelle Ubuntu prend en charge la formation AI/ML et tire parti de Les GPU dans l'informatique moderne pour les charges de travail parallèles. Le kit d'outils CUDA peut être téléchargé depuis NVIDIA pour permettre le calcul parallèle pour les tâches d'IA et d'apprentissage automatique, en particulier en association avec Docker. Ces fonctionnalités sont conformes à principales tendances en matière d'IA que les PME peuvent exploiter grâce au cloud GPU pour adopter l'IA de manière efficace et abordable. Pour configurer une machine virtuelle Ubuntu accélérée par GPU, vous devez sélectionner un hôte compatible, connecter le matériel et installer des pilotes spécifiques.
Si vous hésitez encore entre une instance de machine virtuelle et une instance de conteneur, commencez ici : [[Interlink : VM or container : how to choose in 60 seconds]]. Si vous souhaitez une mise à jour rapide du produit sur les machines virtuelles, lisez : Compute prend désormais en charge les machines virtuelles (VM).
Présentation des systèmes d'exploitation
Votre système d'exploitation contrôle tout ce qui se trouve dans votre environnement informatique. Il gère les ressources matérielles et fournit la plate-forme sur laquelle les applications s'exécutent. Dans les machines virtuelles cloud, le choix de votre système d'exploitation influe sur les étapes d'installation, la configuration et les performances de votre environnement.
Ubuntu fonctionne bien pour les configurations de machines virtuelles dans le cloud. Cette distribution Linux a un processus d'installation simple : téléchargez l'image officielle, créez votre machine virtuelle et suivez les étapes guidées. Le support communautaire et la documentation d'Ubuntu vous aident à trouver des instructions pour la plupart des cas d'utilisation. Vous pouvez configurer des environnements de développement ou déployer des charges de travail de production sans trop de problèmes.
La prise en charge du GPU est importante si vous avez besoin d'un calcul accéléré. Ubuntu et les autres distributions Linux prennent bien en charge les GPU. Vous pouvez donc installer et configurer le logiciel NVIDIA vGPU pour les tâches les plus performantes. Si vous avez besoin des fonctionnalités vGPU, consultez la documentation officielle pour les instructions d'installation et de configuration, et réfléchissez à la manière dont Les GPU cloud intégrés à l'informatique moderne peuvent accélérer les charges de travail liées à l'IA et à la science. Cela garantit que votre machine virtuelle gère les applications exigeantes.
Vous devez configurer correctement les systèmes d'exploitation hôte et invité lors de la création d'une machine virtuelle. QEMU vous permet d'exécuter un système d'exploitation invité, comme une autre distribution Linux ou Windows, sur un système hôte. QEMU vous offre des options pour définir la version du noyau, allouer le processeur et la mémoire et configurer les paramètres réseau. Vous pouvez adapter votre machine virtuelle à vos besoins spécifiques, surtout si vous y avez bien réfléchi questions clés avant de choisir un fournisseur de calcul distribué.
Vérifiez la configuration de votre machine virtuelle à l'aide du système de fichiers virtuel sysfs. Il affiche des informations détaillées sur le matériel et les paramètres du noyau. Vous pouvez consulter les fichiers sysfs pour vérifier les pilotes chargés, confirmer la disponibilité du GPU et vérifier la configuration de votre système. D'autres outils sont également utiles : utilisez la commande top pour surveiller l'utilisation des ressources ou sysctl pour ajuster les paramètres du noyau. Ces outils vous aident à améliorer les performances et la fiabilité.
Configurez votre système d'exploitation pour qu'il fonctionne avec l'infrastructure cloud sous-jacente. Vous devrez peut-être définir une version spécifique du noyau, ajuster les options réseau ou allouer les ressources appropriées à votre charge de travail. De nombreux fournisseurs de cloud, dont Compute with Hivenet, proposent des ressources et une documentation supplémentaires pour vous aider à tirer le meilleur parti de votre machine virtuelle, et vous pouvez explorer pourquoi les développeurs choisissent Compute with Hivenet pour les charges de travail GPU lors de la planification de votre environnement, y compris des informations provenant de Le premier fournisseur de GPU certifié de Hivenet explique comment passer des charges de travail minières aux charges de travail d'IA.
Comprendre comment installer, configurer et vérifier votre système d'exploitation garantit la sécurité, l'efficacité et la disponibilité de vos machines virtuelles pour tous les cas d'utilisation. Vous pouvez exécuter des formations à l'IA à l'aide de GPU ou de services de production stables. Utilisez les bons outils et suivez les meilleures pratiques pour créer un système qui répond à vos besoins dans le cloud.
En quoi ces trois différences dans la pratique
Ubuntu est le choix « la plupart des tutoriels correspondent à cela ». De nombreux conseils sur l'IA, le ML, le CUDA et Docker disponibles sur Internet sont rédigés en pensant à Ubuntu, ce qui vous permet de passer moins de temps à traduire les instructions, y compris les guides étape par étape pour servir Llama 3.1‑8B sur une machine virtuelle Ubuntu.
Debian est le choix « stable par défaut ». Il est souvent utilisé pour les services de longue durée et les configurations prudentes dans lesquelles vous privilégiez la prévisibilité par rapport aux packages les plus récents.
Fedora est le choix de la « nouvelle chaîne d'outils ». Il a tendance à obtenir les versions les plus récentes du logiciel système plus tôt, ce qui peut être très utile pour les travaux de développement, mais cela peut également vous permettre d'être plus à la pointe du changement.
Aucune de ces options n'est « meilleure ». Ce sont des compromis différents.
Si vous n'avez pas de préférence marquée, choisissez Ubuntu
Ubuntu est l'option la moins surprenante pour la plupart des utilisateurs de Compute. C'est généralement le moyen le plus simple de suivre des guides tiers, d'installer des outils courants et de faire fonctionner une charge de travail d'IA sans difficultés supplémentaires.
C'est plus important que les gens ne l'admettent. Une grande partie du « temps de configuration » correspond simplement aux hypothèses d'un didacticiel. Ubuntu réduit cette incompatibilité.
Si votre principale raison d'utiliser une machine virtuelle est Docker, Ubuntu est également une solution par défaut confortable. Ce billet de blog explique pourquoi. Pour connaître les étapes de configuration exactes, utilisez : Installation de Docker sur une machine virtuelle de calcul.
Choisissez Debian si votre machine virtuelle doit se comporter comme un serveur
Debian est un bon choix lorsque votre instance doit fonctionner pendant un certain temps et que vous voulez que le système d'exploitation reste ennuyeux.
Cela inclut des cas tels que :
Une API d'inférence durable qui vous permet de réduire le nombre de surprises liées au système d'exploitation.
Un service axé sur la production dans lequel vous accordez de l'importance à la stabilité et à des décisions de mise à niveau claires.
Un environnement d'équipe dans lequel vous préférez vous tenir au courant de votre emploi du temps plutôt que de rechercher les dernières versions.
Debian peut parfaitement exécuter des piles d'IA modernes. La différence est que vous pouvez parfois effectuer un peu plus de travail manuel lorsqu'un guide tiers suppose des packages Ubuntu ou des paramètres par défaut spécifiques à Ubuntu.
Choisissez Fedora si vous voulez un logiciel système plus récent pour le travail de développement
Fedora est un bon choix si vous souhaitez obtenir des versions récentes d'outils et de bibliothèques sans avoir à vous battre contre votre système d'exploitation.
Cela correspond souvent à :
Des environnements de développement dans lesquels vous effectuez des itérations rapides.
Charges de travail pour lesquelles vous avez besoin de nouveaux compilateurs, environnements d'exécution ou outils système.
Les équipes qui utilisent déjà Fedora et qui souhaitent que la machine virtuelle se sente comme « chez elles ».
Fedora peut être excellent sur Compute. Il a tendance à être un peu moins convivial pour « suivre Internet » qu'Ubuntu, car moins de tutoriels le supposent en premier.
La question que les gens se posent en fait : « Quel système d'exploitation dois-je utiliser pour l'IA ? »
Si vous exécutez des charges de travail de machine learning et que vous n'avez pas de préférence marquée pour le système d'exploitation, Ubuntu est généralement le choix le plus simple, car des outils et des instructions tiers s'y alignent le plus souvent.
Si vous avez déjà une base de serveur stable et que vous voulez que les choses restent prévisibles, Debian est la solution idéale.
Si vous effectuez un travail de développement intensif et que vous aimez les nouveaux logiciels système, Fedora peut sembler plus propre.
Si vous avez besoin d'aide pour choisir le moteur d'exécution avant même de choisir le système d'exploitation, voici la page de décision rapide : Machine virtuelle ou conteneur pour l'apprentissage automatique. Si vous ne savez toujours pas si vous avez besoin d'une machine virtuelle GPU, commencez ici : Machine virtuelle GPU : qu'est-ce que c'est et qui en a réellement besoin.
Un moyen pratique d'éviter les regrets
Ne considérez pas le choix du système d'exploitation comme une identité permanente. Traitez-le comme un point de départ.
Si vous faites des expériences, choisissez Ubuntu, lancez-vous à zéro et notez ce que vous avez installé et pourquoi. Si vous décidez plus tard que vous voulez la stabilité de Debian ou la nouvelle chaîne d'outils de Fedora, vous pouvez reconstruire l'environnement avec des exigences plus claires au lieu de deviner.
Une autre chose qui fait peur aux gens : accéder à votre application depuis le monde extérieur est une décision distincte de celle du système d'exploitation. Si vous exécutez une interface utilisateur Web ou une API sur la machine virtuelle, planifiez la manière dont vous y accéderez. Cette fiche explicative est la version rapide : SSH, HTTPS, TCP, UDP : comment exposer un service depuis une machine virtuelle de calcul. Le didacticiel Docs contient les étapes exactes : Exposer un service depuis une machine virtuelle de calcul : SSH, HTTPS, TCP et UDP.
Essayez Compute
Si vous souhaitez utiliser le chemin le plus fluide, lancez une machine virtuelle avec Ubuntu, connectez-vous via SSH et lancez votre flux de travail. Une fois que c'est vrai, vous pouvez décider si vous voulez une version plus conservatrice de Debian ou une version plus moderne de Fedora.
