Le 14 août 2010 à 10:39, Greg a écrit :
Je ne suis pas d'accord, les candidats idéaux à de la virtualisation sont les deux extrèmes (serveur qui ne fout rien, serveur qui travaille beaucoup) car, justement, les moyens des uns font les moyens des autres et, ainsi, tu peux mutualiser plus avant tes serveurs.
Dans le second cas, la virtualisation n'est utile que pour gagner du temps, des sysadmins : on clic pour ajouter une ressource. Mais ça a un coût: il faut entre 30 et 50% de serveurs en plus que pour obtenir la même chose. Sinon Google, Facebook et Twitter ferait de la virtualisation (ils le font peut-être, mais pas pour l'architecture de prod).
Gagner du temps sur le déploiement c'est un problème résolu par des solutions de provisionning (genre MDT pour Microsoft, Spacewalk pour Red Hat ou des solutions plus custom), pas spécifiquement par la virtualisation.
Le chiffre de 30 à 50% de machines en plus pour obtenir la même chose, je veux bien savoir d'où il sort. Surtout que depuis l'arrivée des processeurs avec VT-d et assimilé, l'overhead de la virtualisation est très réduite. Le dernier problème qu'on peut avoir c'est la contention sur les I/O. Du coup je pense que la virtualisation est intéressante quand on a des workloads faibles à mutualiser sur un seul serveur ou des workloads plus dimensionnées par le CPU que par les I/O.
Pour Google, Facebook ou Twitter, ça peut être simplement que la virtualisation n'est pas adaptée à leurs workloads et/ou ils ont commencé à construire leurs infra avant que la virtualisation ne soit suffisamment performante. Ils sont peut-être plus intéressés par des solutions de ce type : http://en.community.dell.com/dell-blogs/direct2dell/b/direct2dell/archive/20...
Et ils ont quand même la facilité de déploiement grâce à des solutions de provisionning maison. Mais les gros cloud providers eux sont basés sur de la virtualisation (de mémoire, AWS sur Xen, Rackspace sur VMWare, Azure sur Hyper-V...).
Je trouve que ta vision de la virtualisation est un peu dépassée.
-- Vincent Morel