Ok, merci
Et niveau performance ça donne quoi ceph si on utilise librbd /qemu ? (si on se compare à un autre système distribué genre Refs, ocfs2,...)
+
Le 23 juin 2017 12:02 PM, "Laurent Cligny" lcligny@neocom.fr a écrit :
Le 23/06/2017 à 11:32, Jean-Baptiste COUPIAC a écrit :
En parlant de Ceph, c'est stable ?
C'est stable et plutôt robuste d'ailleurs. Notre cluster de 3 noeud (4 OSD par noeud) sous Ceph Kraken a résisté sans pb à une maintenance sauvage d'un UPS dans une baie, un noeud par terre par coupure courant, ça a continué tranquillement à fonctionner et ça c'est recontruit tout seul quand le noeud est remonté. On héberge le stockage des VM dessus, tout a continué à tourner sans ralentissement visible.
Niveau target, ISCSI et NFS sont t'ils fonctionnels ?
Il n'y a pas de target iSCSI ni NFS sur Ceph mais un client natif (rbd) et une gateway objet qui fait S3 et swift. La solution, en attendant que XenServer par exemple propose de brancher les SR en rbd natif, est de mapper le rbd comme un block device sur chaque noeud Ceph OSD (fonction native de Ceph) et de mettre un tartget ISCSI ou NFS dessus comme n'importe quel disque standard.
Ensuite on peut carrément faire du multipath IO en iSCSI depuis Xenserver en se connectant sur tous les targets à la fois, ce qui donne de la haute dispo niveau connectivité et stockage.