Bonjour à tous, pour éviter de me "coincer" avec VSAN de vmware, un presta me propose de passer par StorMagic qui semble plus souple que VSAN surtout pour la partie accés disques (direct, FC, ISCSI ...), certain d'entre vous on un retour d'expérience la dessus ?
merci par avance jerome :)
Le 23 juin 2017 à 18:55, frsag@jack.fr.eu.org a écrit :
Aucune idée, je n'ai jamais utilisé les deux projets dont tu parles
Attention cependant, Ceph n'a pas vraiment le même usage que les deux fs que tu cites (qui sont des fs, alors que Ceph fait du stockage object, stockage de block dans le cas de rbd)
Niveau performance, je trouve cela très confortable en lecture, un poil moins en écriture (le fix qui corrige ce problème de design arrive dans la prochaine release, dont la RC1 est sortie aujourd'hui)
Cela dépends également du matériel que tu utilises (j'ai la version du pauvre, c'est à dire que les journaux ne sont pas sur SSD)
On 23/06/2017 13:34, Jean-Baptiste COUPIAC wrote:
Ok, merci
Et niveau performance ça donne quoi ceph si on utilise librbd /qemu ? (si on se compare à un autre système distribué genre Refs, ocfs2,...)
Le 23 juin 2017 12:02 PM, "Laurent Cligny" lcligny@neocom.fr a écrit :
Le 23/06/2017 à 11:32, Jean-Baptiste COUPIAC a écrit :
En parlant de Ceph, c'est stable ?
C'est stable et plutôt robuste d'ailleurs. Notre cluster de 3 noeud (4
OSD
par noeud) sous Ceph Kraken a résisté sans pb à une maintenance sauvage d'un UPS dans une baie, un noeud par terre par coupure courant, ça a continué tranquillement à fonctionner et ça c'est recontruit tout seul quand le noeud est remonté. On héberge le stockage des VM dessus, tout a continué à tourner sans ralentissement visible.
Niveau target, ISCSI et NFS sont t'ils fonctionnels ?
Il n'y a pas de target iSCSI ni NFS sur Ceph mais un client natif (rbd)
et
une gateway objet qui fait S3 et swift. La solution, en attendant que XenServer par exemple propose de brancher les SR en rbd natif, est de mapper le rbd comme un block device sur chaque noeud Ceph OSD (fonction native de Ceph) et de mettre un tartget ISCSI ou NFS dessus comme
n'importe
quel disque standard.
Ensuite on peut carrément faire du multipath IO en iSCSI depuis Xenserver en se connectant sur tous les targets à la fois, ce qui donne de la haute dispo niveau connectivité et stockage.
Liste de diffusion du FRsAG http://www.frsag.org/
-- "UNIX was not designed to stop its users from doing stupid things, as that would also stop them from doing clever things." – Doug Gwyn _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/