Comment gérez-vous une infra zero downtime / fault tolerent ?
Au niveau open source, en vraie HA (pas du heartbeat à bascule), y'a des soluces autour de Xen, on avait testé ça en 2010. Le vrai Xen libre, pas le XenServer proprio (qui a ce qu'il faut de son coté je crois mais qui a d'autres limites aussi, sans compter le coût).
Ca nécessite un max de débit entre les machines physiques (nous on avait 2x1 Gbps bindées par serveur). Le résultat n'était pas rapide en soit (mais c'était un lab avec des CM intel à 40 €, des CPU genre dual-core et au max 2 à 4 Go de ram + des RAID10 de 4x2 To WD black pro).
Il était poilant de voir un dl de plusieurs Go se freezer un temps imperceptible (genre 2/10ème de seconde) et reprendre alors qu'on venait (au choix) d'arracher la prise secteur d'un des serveurs, enlever à chaud une barette ram, un câble sata ou même - on l'a fait - sortir un CPU sous tension...
C'était fondé sur Xen, remus et drdb. Voir aujourd'hui du coté de Ganeti (ma prochaine infra en 2020, les gens en ont l'air content) ou de tout autres soluces (Suze en a aussi autour de Xen mais je ne connais).
Ce qu'il faut retenir c'est que la vraie HA, avec ce coté poilant de "machine immortelle" peut être scalé (histoire de sécu, en mode minimal, c'est 2, normal c'est 3, en mode nucléaire c'est 4 dédiés physiques minimum pour assurer la continuité de service d'un seul dédié aec toutes ses VM) mais avec un coût (non négligeable) de perf ou de matos haut de gamme. À réserver à l'application qui l'exige.
- Evangélisme Xen
Je parle de Xen uniquement car j'ai abandonné tout autre virtu serveurs depuis 10 ans. C'est ultra léger*, Debian natif et impeccablement fiable. En plus ça rebouge bien depuis 5 ans. Donc c'est parfait (pour moi).
* Mes sauvegardes secondaires (genre des lots de 500 Mo avec Burp) tournent sur des OVH/KS avec des Atom 2600, 4 Go et 2 To pour un hyperviseur et deux VM... Et ça gaze parfaitement.
Sinon sur des gros serveurs OVH de techno 2013 (on va renouveler en 2020), ça bronche pas non plus.
Des uptimes de deux ans sur une machine avec 12 VM dont certaines sont chargées sont juste normaux. J'avais testé 8,5 Gbps entre l'hyper et les VM et 4,5 Gbps entre deux VM (je n'ai pas de VM de routage, c'est l'hyperviseur Xen/Linux - bien paramétré au niveau réseau, bridge, fw et sysctl qui fait le job = on gagne bien perf avec en gros seulement 3 fichiers de paramètres à gérer : sysctl, network et firewall).
- Limites du cloud et des dédiés (pardon machines on-prem :)
Le cloud c'est cher et ça tombe aussi, parfois plus qu'un pool de dédié bien géré. C'est pas la solution miracle. Dire que la réponse n'est pas (aussi) dans l'infra sous entend qu'on a des applics standard ou des trucs qu'on a dockerisés en prenant le temps, un déficit de compétence en infra et qu'on est prêt à mettre plus d'argent que nécessaire dans l'infra : la nécessité faisant loi, on prend du cloud dans ce cas car c'est la solution (no war, ça évite un animal chiant nommé l'adminsys et son salaire).
Le dédié, c'est pas cher et très performant mais ça demande de l'expertise, donc de la veille et du temps, donc ça coûte aussi - mais l'indépendance et la maîtrise ont un prix, c'est donc une affaire de stratégie...