CryptoServers
Guide d'achat · 9 min de lecture

VPS vs dédié bare-metal : quand changer

La plupart des workloads démarrent sur un VPS. Certains le dépassent. La question est rarement « VPS ou dédié ? » dans l'abstrait — c'est « à quel niveau de concurrence, de taille de dataset ou de tolérance aux noisy neighbours notre charge justifie-t-elle un hôte dédié ? » Ce guide répond avec les seuils que nous observons en production, pas des benchmarks fournis par les constructeurs.

Aucun KYC, jamais DMCA ignoré Aucun journal de trafic Opérationnel en 60 secondes

La vérité en une ligne

Si votre steal time CPU trace une courbe en crosse de hockey, vous avez déjà dépassé le VPS. Un steal soutenu au-dessus de 5 % signifie qu'un voisin gagne le scheduler — votre latence P99 le reflètera bien avant que votre charge moyenne paraisse mauvaise.

En dessous de ce seuil, un VPS est presque toujours le bon choix. KVM avec stockage NVMe local et AES-NI sur un cœur EPYC moderne vous place à 3–8 % du bare-metal pour des workloads web, VPN, mail, IRC et Lightning typiques. Les 92–97 % que vous conservez valent largement le delta de prix et l'ergonomie du live-resize.

Quand le VPS suffit encore — clairement

Sortie personnelle (votre propre endpoint WireGuard ou OpenVPN), un relais Tor en dessous de 25 MB/s soutenu, un serveur mail mono-utilisateur, un nœud Bitcoin élaguée, un nœud distant Monero servant moins de quelques centaines de portefeuilles, un homeserver Matrix pour une petite communauté, un serveur de jeux privé, une seedbox personnelle en dessous de 240 Go de working set — tout cela tourne confortablement sur un VPS et gagne très peu à passer en bare-metal.

Pourquoi : leur goulot d'étranglement est rarement le CPU brut. C'est la portée réseau, la réputation IP, la posture juridique et le fait que l'hôte bride le port 25 ou le trafic p2p. Un VPS vous offrant le root complet, des sockets bruts, un uplink illimité et un rDNS modifiable est fonctionnellement identique au bare-metal pour ces charges.

Les quatre signaux qu'un workload a dépassé le VPS

Steal CPU soutenu au-dessus de 5 %. Lancez `vmstat 1` pendant une heure de pointe. Si `st` dépasse régulièrement 5, vous partagez un cœur avec un voisin gourmand. Nous migrons les voisins quand le steal grimpe, mais un hôte dédié supprime entièrement cette variable.

Le working set dépasse 24 Go et est sensible à la latence. La contention mémoire sur KVM est rare sur nos hôtes (nous ne survendons pas la mémoire), mais un dataset de la taille d'un txindex Bitcoin (~120 Go sur disque, pages chaudes 10–30 Go) commence à heurter des patterns d'éviction ARC où une marge de 64 Go ECC change le comportement. Les nœuds de routage Lightning, Matrix Synapse avec 200+ rooms fédérées et les bases CI Postgres-intensives atteignent ce seuil plus tôt que prévu.

Bande passante d'écriture disque au-dessus de 400 MB/s soutenu. Un seul NVMe Gen4 gère cela sur un VPS. Deux NVMe Gen4 en miroir sur un niveau dédié le gère sans les pauses GC liées aux namespaces NVMe partagés.

Sortie réseau au-dessus de 5 Gbps soutenu. Nous vendons des offres VPS avec 10 Gbps illimité, et elles atteignent réellement 10 Gbps en rafales courtes — mais un 5+ Gbps soutenu pendant des heures est plus confortable sur du matériel dédié où la NIC vous appartient seul.

Où le dédié s'impose clairement

Les nœuds Bitcoin Core ou Ethereum archive que vous comptez opérer pendant des années sans re-IBD. L'IBD de 36 heures sur un EPYC single-socket avec 2× NVMe Gen4 en RAID logiciel est nuit et jour plus rapide que l'IBD de 3–4 jours sur un VPS Business, et une fois terminé, la fiabilité disque compte plus que le débit.

Hubs de routage Lightning visant 1 000+ canaux et une large capacité. Le débit HTLC est limité par le CPU en charge, et les cœurs dédiés éliminent la queue de steal-time qui provoque parfois un staleness de l'état des canaux.

Homeservers Matrix publics avec des milliers de rooms fédérées. Postgres sur son propre NVMe + workers Synapse sur l'autre NVMe + Redis sur un troisième namespace = trois lanes d'I/O sans aucune contention.

CI auto-hébergé avec des build farms faisant tourner Docker-in-Docker, sysbox ou des microVMs Firecracker à grande échelle. La virtualisation imbriquée fonctionne sur KVM, mais le bare-metal élimine la couche supplémentaire de surcharge paravirt.

Annonce BGP d'un /29 ou /48 avec votre propre AS-path. Nous provisionnons des sessions BGP sur les niveaux dédiés à partir du Bastion ; sur les offres VPS, vous partagez nos préfixes.

Le calcul économique

Un vps-pro à 54,99 $/mois vous donne 8 vCPU sur Xeon Gold 6430, 24 Go DDR5 ECC, 400 Go NVMe, 5 Gbps illimité. Un ded-shield à 79 $/mois vous donne 16 cœurs / 32 threads EPYC 7313P, 64 Go DDR4 ECC, 2× 1 To NVMe, 1 Gbps illimité. Le niveau dédié coûte 24 $/mois de plus pour environ 2× le CPU, 2,7× la RAM, 5× le disque, avec stockage mirroré.

Si votre workload est limité par le CPU, la RAM ou le stockage, la montée en gamme s'amortit le jour du provisioning. S'il est limité par le réseau à 5+ Gbps, le VPS reste gagnant jusqu'à ce que vous passiez à un Bastion ou supérieur avec 10 Gbps inclus.

La facturation crypto mensuelle sans minimum signifie que vous pouvez faire tourner du dédié un mois pendant vos tests de charge, puis revenir au VPS si le profil de charge s'avère plus léger que prévu. Aucun engagement annuel ne vous bloque.

Playbook de migration

Rsync + fenêtre de bascule : provisionnez l'hôte dédié dans la même juridiction, rsyncez votre dataset via le réseau local (nous avons 10+ Gbps en interne entre hôtes du même DC), mettez en place une page de maintenance sur le VPS, faites une synchronisation finale, basculez le DNS ou le failover IP. Downtime total : typiquement 2–10 minutes pour un dataset de quelques centaines de Go.

Si votre IP est importante (canaux Lightning, homeserver Matrix fédéré, rDNS mail), nous pouvons déplacer le /29 entre hôtes du même DC sans changer les IP — ouvrez un ticket panel et nous le faisons en 24 heures sur une fenêtre calme.

Si vous ne pouvez vous permettre aucun downtime : split-brain pour une journée. Gardez les deux hôtes actifs, configurez l'application pour écrire sur les deux, renvoyez les lectures vers le dédié, puis coupez les écritures une fois que le dédié fait autorité. C'est la forme de chaque migration de base de données que nous avons vu nos clients réussir.

Réponses rapides

Questions fréquentes

Comment savoir si j'ai un problème de noisy neighbour ?
Lancez vmstat 1 60 pendant une heure de pointe et observez la colonne st. Tout ce qui est soutenu au-dessus de 5 % est mauvais ; des pics à 10–15 % pendant les pointes sont tolérables mais indiquent qu'une migration est en retard. Ouvrez un ticket panel avec le résultat et nous planifierons une migration live vers un hôte plus calme dans les 24 heures — sans frais.
Puis-je repasser du dédié au VPS plus tard ?
Oui — aucun contrat ni engagement. Provisionnez le VPS, rsyncez votre dataset, basculez, et nous détruisons l'hôte dédié. Vous recevrez un remboursement au prorata de la partie non utilisée du mois en crypto. Cela arrive étonnamment souvent — les gens testent en charge sur du dédié, constatent que leur charge réelle est plus légère et redescendent vers un niveau Pro ou Scale.
Le hot-resize fonctionne-t-il sur le dédié, ou seulement sur le VPS ?
Le hot-resize fonctionne pour les vCPU et la RAM sur chaque offre VPS — le disque nécessite un redémarrage. Les niveaux dédiés ne font pas de hot-resize du matériel (les cœurs et DIMMs sont physiques), mais vous pouvez empiler un deuxième hôte dédié à côté et équilibrer la charge au niveau applicatif. Nous l'avons fait pour des clusters de serveurs de jeux et des build farms CI ; le fabric de filtrage L4 gère proprement le DNAT entrant.
Un dédié vaut-il vraiment plusieurs VPS ?
Pour les workloads limités par le CPU, oui — un EPYC 7313P 16 cœurs dépasse généralement trois instances VPS à 6 vCPU sous la même charge, principalement parce que la surcharge hyperviseur et le steal-time disparaissent. Pour les workloads limités par l'I/O, l'écart est encore plus grand car vous arrêtez de partager les namespaces NVMe. Pour les workloads purement réseau (VPNs, seedboxes), le prix au vCPU du VPS est difficile à battre jusqu'à saturation du réseau.
Et la latence — le dédié réduit-il le P99 ?
Sensiblement, oui. La latence médiane est similaire (à 1–2 ms près pour les requêtes intra-réseau), mais le P99 se resserre considérablement quand on supprime les interférences voisines. Nous observons des chutes de P99 de ~80 ms à ~25 ms sur le même workload en passant d'un hôte VPS chargé à un dédié. Si vos SLOs sont gouvernés par la latence de queue, c'est la principale raison de passer au dédié.
Appliquer

Workloads concernés par ce guide

Chaque carte ouvre une page dédiée au workload avec des recommandations de dimensionnement et une FAQ niveau sysadmin.

Assez lu ? Déployer en 60 secondes

Aucune vérification d'e-mail, aucun document, aucun compte. Choisissez une offre, payez en cryptomonnaie, obtenez le root.