Le 10/12/2013 16:14, Gilles Mocellin a écrit :
J'ai demandé récemment à un dev, et le truc qui pourrait remplacer une géo-réplication qu'il n'y aura pas de si tôt. Le snapshot incremental : http://ceph.com/dev-notes/incremental-snapshots-with-rbd/
L'idée :
- Avoir un cluster Ceph, indépendants, dans deux datacenters.
- Envoyer régulièrement (par scripts), des diffs des volumes que l'on souhaite
protéger en Disaster Recovery.
Oui donc on parle de disaster recovery dans le cas où l'on peut se permettre de perdre les x dernières minutes (suivant la granularité). Je n'ai aucune idée de la chose mais la génération des diff doivent bien prendre quelques I/O non ?
Et dans ce cas, je vois mal de la live migration (mais j'ai peut être pas compris un truc).
On a aussi la partie stockage d'OpenStack : Swift. Là, ça prend en charge la géo-réplication. Mais, c'est pas fait pour des volumes en mode block, faisant tourner des VMs...
<mode pas testé> Oui aussi mais ça a l'air d'une usine à gaz à monter </mode>
Je crois que le Graal n'existe pas (encore)...
Alors je pense que je vais vraiment me faire un lab avec glusterfs. Au final, ça fait à peu près tout ce qu'il me faut : accès natif depuis qemu/kvm, réplication sync et async et metadata distribuées
Et un peu de lecture : http://member.wide.ad.jp/~shima/publications/20120924-dfs-performance.pdf
Ca date un peu (notamment, pas ne notion de support gluster natif dans KVM) mais ça donne déjà une bonne idée en fonction de vos besoins.
Et pour y ajouter ça : http://www.gluster.org/community/documentation/images/9/9d/QEMU_GlusterFS.pd... Ca c'est moins impartial dirons-nous.
Julien
P.S. : merci pour l'idée de XtreemFS en privé mais les métadonnées centralisées, ça m'inquiète