Bonjour,

Plus simple dans Proxmox tu fais deux noeuds en zfs local et tu mets des tâches programmées de réplication.

C'est pas temps réel mais c'est pour moi le plus safe quand tu as de la latence entre deux hosts voir pire de la gigue.

Ceph de mes tests n'apprécie pas plus de 5ms de latence il refuse de créer un cluster et s'il a été créé avant, il se met à faire du split brain où chaque noeud estime qu'il est seul.

Notre but était de faire un cluster kube sur plusieurs providers avec un ceph partagé entre eux.

Le 02/10/2020 à 10:11, Julien Escario a écrit :
Bonjour,
Je relance le débat ;-)

Donc, nous tombons d'accord que pour deux nœuds, un cluster CEPH ne fera
pas le job.

J'aimerais votre opinion sur une autre possibilité : le RDB mirroring
(https://docs.ceph.com/en/latest/rbd/rbd-mirroring/).

Admettons que l'on ai deux nœuds, en particulier si ils sont
géographiquement séparés (donc latence, toussa).

Mettons deux disques dans le premier nœud et la crush-map qui va bien
pour faire un 'simili' raid1 entre les deux disques avec size=2 (et
min_size=1).
Le nœud est également MON et MGR.

On a un 'cluster' Ceph autonome, non répliqué. On perd évidemment toute
la partie résilience de Ceph, ok.

Maintenant, on créé un second noeud de la même manière et on configure
le rdb-mirror pour synchroniser le pool Ceph complet de noeud1 vers noeud2.

C'est du one-way mais rien n'empêche de créer un second pool qui va
fasse l'inverse, tant que l'espace disque suite et donc de faire tourner
des VMs de chaque côté.

On pourrait même envisager de faire du two-way mirror mais là, ca
devient dangereux dans le sens où il faut un mécanisme s'assurant qu'une
VM ne tourne pas des deux côtés simultannément sinon c'est la perte de
données assurée (et massive). Peut être que le cluster Proxmox peut
assurer ce rôle, je ne sais pas.

Je vais probablement me lancer dans un lab sur ce postulat mais avant de
perdre du temps sur un détail qui m'échapperait, certains d'entre vous
ont-ils un avis ?

Note : ca ferait l'objet d'un magnifique tuto si ça fonctionne.

Merci,
Julien


Le 18/09/2020 à 14:00, Richard DEMONGEOT a écrit :
Bonjour,

Le 2020-09-18 13:48, Stéphane Rivière a écrit :
Ceph c'est bien à partir de 4 noeuds pour être tranquille.
Je ne connais pas ceph et pose certainement une question idiote...

Quel serait l'avantage d'avoir a minima 4 nœuds (par rapport à, par
exemple, 2 nœuds de prod + un nœud d'arbitrage - ça je comprends
l'idée) ?
CEPH étant (massivement) distribué, il deviens de plus en plus
performant avec le volume de disques que tu lui affecte.
Selon la documentation, le minimum préconisé est de faire "3 copies",
sur "3 machines différentes".

CEPH préfère par ailleurs un accès direct au disque, et ne pas avoir de
raid sur les disques.

Setup standard CEPH :

+--------------+   +--------------+   +--------------+
| Hôte1        |   | Hôte2        |   | Hôte3        |
| HDD1    HDD2 |   | HDD3    HDD4 |   | HDD5    HDD6 |
+--------------+   +--------------+   +--------------+

Ton premier bloc sera sur les disques 1, 3 et 5;
Ton second sur les disques 2, 4 et 5;
Etc. CEPH s'ammusera à les placer différement à chaque fois.

Du coup, si tu n'as que 3 disques, les 3 seront "identiques", mais la
fragmentation va te faire perdre en performance vis à vis de DRBD.
Si tu as 12 disques ou plus, réparti dans plusieurs châssis, tu va
pouvoir tirer parti de l'ensemble des axes / ports disques. Et plus tu
rajoutes de disque, plus ta performance s'améliore :).

Cordialement,
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/