Le 18 oct. 2012 à 15:11, "Pierre Chapuis" catwell@archlinux.us a écrit :
J'ai vu passer GlusterFS, Ceph et MooseFS. Je n'ai de vraie expérience de prod avec aucun et je n'ai juste jamais testé Moose et Ceph, mais en gros :
- Moose ressemble pas mal à GFS donc *s'il marche bien* ça devrait être un
bon choix (encore une fois, jamais testé). Il est censé être fiable et scalable.
- Gluster est simple à configurer et à comprendre niveau architecture,
c'est juste un maitre + des esclaves. Par contre du coup il est très rapide en écriture, un peu moins scalable en lecture (mais bien plus que NFS).
- Ceph est complètement distribué, donc pas de SPOF, par contre ça le
rend assez compliqué, probablement un peu plus gourmand en espace et difficile à administrer. Ça m'a l'air un peu overkill pour tes besoins.
Pour simplement remplacer un NFS qui a des problèmes de perfs, Gluster me parait pas mal (c'est probablement celui qui s'en approche le plus), sinon peut-être Moose (quelqu'un a testé ?). Les trois sont en standard dans le noyau Linux maintenant. À voir s'ils sont dispo selon les distributions par contre.
Bonjour,
J'ai du GlusterFS (une vieille version, 3.0.2) en production depuis 4 ans, sur des volumes assez importants, et notamment énormément de petits fichiers, avec un setup 2 master (full réplication) et une 20aine de noeuds. L'écriture se fait sur les noeuds, et ça réplique sur les masters.
En termes de stabilité, aucun soucis. En termes de rapidité de lecture, sur les petits fichiers, une fois mis en cache sur les nodes, pas de soucis non-plus. Une désynchro master / slave en 4 ans due à un problème réseau => un coup de rsync et ça repart.
Bonne journée