Ceph commence a marcher plutot bien, plusieurs Cloudproviders europeens sont en production avec et le code est activement developpe. Il est je pense plus flexible que glusterfs.

Le 12/12/14 12:32, frsag@jack.fr.eu.org a écrit :
J'ai regardé les divers projets pour cette problématique (et n'en
utilise aucun actuellement), est :

glusterfs ne m'a pas donné l'impression d'être un projet "qui a classe".
J'ai plutôt eu l'impression d'avoir une paire de script, qui marchent,
mais pas trop
Ceph est, je trouve, beaucoup plus intéressant (mieux fait, au niveau de
la conception, de ce que tu peux en faire etc etc). Cependant, c'est
peut-être un peux trop jeune pour s'en servir massivement (enfin, vu que
des gens utilisent butterfs en production, pourquoi pas ..)

Je me demande si une solution plus classique ne serait pas envisageable
(surtout si tu utilises zfs / mdadm) : export des nodes en iscsi,
construction d'un raid (ou raid-like) par dessus
Évidement, cela signifie que tu as un point d'entrée unique au système
En cas de perte d'un node, tu peux le remplacer et reconstruire le raid
En cas de perte du maître, tu devrait pouvoir déplacer l'ensemble des
points de montages sur une autre machine, avec l'IP

À tester;

On 12/12/2014 12:14, Jerome LE TANOU wrote:
Bonjour,

- Nous souhaitons mettre un oeuvre une solution de stockage d'au moins
200To utiles qui seront accédés en mode fichiers (NFS, CIFS).
- Il faudrait que l'on puisse disposer d'une redondance permettant de
pallier à la panne d'un ou plusieurs disques ou d'un noeud.
- Il est acceptable d'avoir une interruption de service pour redémarrer
le service en cas de panne majeure dans la limite de 4H.

- A noter qu'actuellement nos utilisateurs utilisent énormément de
petits fichiers (plus de 400 millions de fichiers de moins de 128ko).
- A noter que pour convenance du service, les systèmes hôtes seront sous
Debian.

Au vue des différents articles, documentations que nous avons consulté,
nous penchons vers le choix de GlusterFS.
Toujours à la suite de nos lectures, nous pensons partir sur une
implémentation en "Distributed Replicated Volume" basée sur 2 briques
(qui seront hébergées sur  2 sites distants interconnectés en 10Gbps)
composées chacune d'au moins 2 noeuds (voire 4).

Bien entendu, avant d'investir et de partir en production nous allons
maquetter cela.
Toutefois, on se dit que plusieurs d'entre nous ont surement testés cela
voire même mis en oeuvre ce type de solution et pourraient nous faire
gagner du temps voire nous suggérer d'autres implémentations.

Du coup, comme vous l'avez surement compris nous sommes intéressé pour
tout retour sur l'utilisation de GlusterFS, notamment sur les choix que
vous avez pu faire.
De même nous serions intéressé pour avoir des retours sur un couplage
GlusterFS et ZFS.

Si vous avez également des retours heureux sur d'autres systèmes de
stockage distribué qui pourraient satisfaire nos besoins, nous sommes
intéressés.

Merci d'avance.

Jérôme LE TANOU



--

  Jean-Marie Verdun
  Splitted-Desktop Systems
  President
  Batiment Aristote
  Parc des Algorithmes
  Route de l'orme des merisiers
  91190 Saint Aubin FRANCE

  jean-marie.verdun@splitted-desktop.com

 
Splitted-Desktop Systems is a proud member of the Open Compute Foundation
and a Gold member till July '15. We can provide you consulting and engineering
services related to any OCP hardware. We also drive RuggedPOD and Daap Open
Hardware projects