Salut,

Merci pour ce précis retour.

Plus qu'a passer la seconde maintenant et commander le matos.

Merci à tous pour vos réponses

 

Le 24/02/2023 à 16:08, Yann Richard a écrit :
Salut,

Chez nous on a une petite infra de dev sous proxmox avec deux hyperviseurs sur lesquels on a (de souvenir) :
  • configuré multipath,
  • présenté un Virtual Volume a chaque HV proxmox (chez nous via une baie HPE 3PAR qui exporte un volume via un réseau SAN FC)
  • utiliser LVM ( https://pve.proxmox.com/wiki/Storage - le ² dans la colonne LVM : It is possible to use LVM on top of an iSCSI or FC-based storage. That way you get a shared LVM storage.)
    • créer un PV et un Volume Group
    • chaque disque utilisé par une VM sera un LV dans le VG,
On a un peu plus de 60 VM qui tournent et 60 de plus en état arrêté actuellement.

Exemple de ce que ca donne en console :

root@c:~# multipath -ll
mpatha (360002ac00000000000000***********) dm-5 3PARdata,VV
size=4.0T features='1 queue_if_no_path' hwhandler='1 alua' wp=rw
`-+- policy='round-robin 0' prio=50 status=active
  |- 1:0:0:1 sdb 8:16 active ready running
  |- 2:0:0:1 sdd 8:48 active ready running
  |- 1:0:1:1 sdc 8:32 active ready running
  `- 2:0:2:1 sde 8:64 active ready running

root@c:~# ls -alh /dev/mapper/mpatha
lrwxrwxrwx 1 root root 7 Jan  4 14:18 /dev/mapper/mpatha -> ../dm-5

root@c:~# ls -alh /dev/mapper/mpatha-part1
lrwxrwxrwx 1 root root 7 Feb 24 11:39 /dev/mapper/mpatha-part1 -> ../dm-6

root@c:~# pvdisplay
  --- Physical volume ---
  PV Name               /dev/mapper/mpatha-part1
  VG Name               pve-datastore
  PV Size               <4.00 TiB / not usable <12.02 MiB
  Allocatable           yes
  PE Size               4.00 MiB
  Total PE              1048567
  Free PE               389760
  Allocated PE          658807

root@c:~# pvs
  PV                       VG            Fmt  Attr PSize    PFree
  /dev/mapper/mpatha-part1 pve-datastore lvm2 a--    <4.00t <1.49t


root@c:~# vgs
  VG            #PV #LV #SN Attr   VSize    VFree
  pve-datastore   1 343   0 wz--n-   <4.00t <1.49t


root@c:~# lvs
  LV               VG            Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  vm-100-cloudinit pve-datastore -wi-a-----    4.00m                                                    
  vm-100-disk-0    pve-datastore -wi-a-----   10.00g                                                    
  vm-101-disk-0    pve-datastore -wi-ao----   10.00g                                                    
  vm-102-cloudinit pve-datastore -wi-------    4.00m                                                    
  vm-102-disk-0    pve-datastore -wi-------    2.00g                                                    
  vm-102-disk-1    pve-datastore -wi-------   50.00g                                                    
  vm-103-cloudinit pve-datastore -wi-------    4.00m                                                    
  vm-103-disk-0    pve-datastore -wi-------   10.00g                                                    
  vm-103-disk-1    pve-datastore -wi-------    2.00g                                                    
  vm-104-disk-0    pve-datastore -wi-------   10.00g                                                    
  vm-105-cloudinit pve-datastore -wi-------    4.00m                                                    
  vm-105-disk-0    pve-datastore -wi-------   30.00g    
  [...]

et on voit exactement la même chose sur le second hyperviseur.
                                                
Dans proxmox pour chaque hyperviseur on peux voir dans Disk > LVM :


++



De: "Ludovic Scotti" <tontonlud@gmail.com>
À: mysolo@cynetek.com
Cc: "French SysAdmin Group" <frsag@frsag.org>
Envoyé: Vendredi 24 Février 2023 13:59:53
Objet: [FRsAG] Re: Promox - stockage partagé
Bonjour,

Une baie MSA qu'elle soit Fiber Channel, iSCSI, ou SAS se comporte de la même manière, elle présente une LUN à un host.

Donc en présentant une même LUN à 2, 3, 4 hosts avec un système de fichier partagé qu'il soit NFS, VMFS, NTFS/ReFS, QueSais-jeFS, on peut faire des opérations de Live Migration, Storage vMotion, etc.

@job-1/-3  j'en ai installé/utlisé avec de l'Hyper-V Failover Cluster, du cluster vSphere HA. Jamais testé avec Proxmox mais j'imagine que ca doit fonctionner pareil.

En fouillant un peu sur le net j'ai trouvé cet article : https://forum.proxmox.com/threads/proxmox-with-hp-msa-2040-storage.38955/

Bonne fin de semaine à tous.
Ludovic


Le ven. 24 févr. 2023, 00:57, mysolo@cynetek.com <mysolo@cynetek.com> a écrit :

Je rejoins David,

Il aurait mieux fallut 2 serveurs relié chacun a 2 baies. Tu as toujours une redondance si un équipement a des problèmes.


Le 23/02/2023 à 13:35, HYVERNAT Philippe Responsable Informatique CHAVS a écrit :

oui je comprends.

c'est pas full redondé mais c'est une bonne entrée en matière et limite un peu les coûts.



est ce que quelqu'un l'a déjà essayé ?
 
C'est la question initiale ;)

 

Le 23/02/2023 à 13:18, David Ponzone a écrit :
Pas de réseau mais t’as quand même un seul chassis MSA.
Je sais que c’est très solide, mais quand on me parle de HA et que je vois un SPOF, euh, comment dire….

Le 23 févr. 2023 à 13:04, HYVERNAT Philippe Responsable Informatique CHAVS <phhyvernat@ch-avs.fr> a écrit :

Une baie MSA 2050 avec port SAS pour connecter les 3 serveurs DL donc pas de réseau entre les hôtes et le stockage

sous vmware on voit le stockage comme du stockage interne mais je voulais m'assurer que sur Proxmox on est la même réaction.

_______________________________________________
Liste de diffusion du %(real_name)s
http://www.frsag.org/

_______________________________________________
Liste de diffusion du %(real_name)s
http://www.frsag.org/

_______________________________________________
Liste de diffusion du %(real_name)s
http://www.frsag.org/


_______________________________________________
Liste de diffusion du %(real_name)s
https://antiphishing.vadesecure.com/v4?f=Q3ZQNmU2SnpsRFlRbUF3dn74UHaOJxuoBVu42ymMEhlE-lmdIyDHiKsmkpuTv227&i=SXVFem5DOGVpUU1rNjdmQs96J8_ee3pOyehJVucRT2c&k=syJL&r=bWt1djZ5QzcyUms5R1Nzas0TwoF52TN0f15QStDWbiK7FghhpDFRSodZ0P4OiGD_&s=2be3b7254dc52bfc6e86462f043521ded01ccbdb845dbcb43173b933898c88e6&u=http%3A%2F%2Fwww.frsag.org%2F