Ici je commence à jouer avec iSCSI sur IB (RDMA) avec multipath sur 2 réseaux (switchs) différents. Le choix de IB c'est simplement le prix, pour 3000 € j'ai eu 2 switchs 24p 8Gbps, 12 HBA et les câbles qui vont bien.
Le SAN est un Sun Storage cluster qui gère le thin provisioning, les snapshots et la déduplication.
On va faire tourner plusieurs centaine de K€ de CA par an sur le SAN donc une solution bricolée maison n'était pas envisageable. La seule autre solution qui me plaisait était de l'Equallogic en 10G mais à 60K€ la tête de 3 To utiles ce n'était pas possible.
Je vais déjà tester les perfs de KVM par rapport à Xen (PV) sur du matériel dernier cri (Xeon 5600) et ferai un retour sur la liste. J"ai aussi prévu de documenter la partie iSCSI sur IB avec le stockage Sun.
Fred.
Je ne saurais que trop te conseiller de tester en fiber direct, parce que toutes mes expériences avec le iscsi se sont soldés par des échecs. Pas que cela ne marchait pas, mais c'était souvent lent, instable, surtout sur les clients, et au final source de trop d'emmerdements. Au prix actuel des cartes Fiber et d'un Fabric je me demande vraiment si cela vaut le coup de s'embêter avec iscsi. Sinon quitte à ne pas faire du bricoler maison, il peut être intéressant d'évaluer vmware. C'est peut être pas libre et payant, mais l'intégration est vraiment bonne, et les performances pas si en retrait par rapport à KVM ou Xen. Enfin cela dépend surtout de ce que l'on veut faire tourner comme guest. Pour du linux c'est sur que Xen ou KVM explose tout. (en PV).
Reste un conseil d'ordre général sur la virtualisation. La virtualisation c'est bien, mais pas pour tout, et il faut bien réfléchir a ce que l'on veut faire tourner dessus. (exemple débile : pas de bases de données :)