Merci pour les réponses.
      
      Je n'avais pas testé le changement de controlleur disque sur la
      vm.
      Je suis passé de virtio-scsi-pci (proposé par défault dans
      proxmox) à lsi et cela fonctionne, ma vm démarre bien.
      
      Je vais voir si j'arrive à trouver une explication plus précise.
      
      
      Reno.
      Le 04/06/2021 à 12:59, Pierre Bourgin
        a écrit :
      
      autre
        piste: Côté hyperviseur, peut-etre une sensibilité au "BIOS"
        émulé par proxmox ou VMware ? 
        
        booter ta VM avec un ISO live les commandes lsblk, blkid &
        co permettrait peut-etre aussi de se faire une idée ? 
        
        On 6/4/21 12:55 PM, Pierre Bourgin wrote: 
        oula, j'ai pas vu que tu atterissais
          dans *grub*, pardon. 
          
          c'est quelle version de grub ? 
          
          faut peut-etre generer grub après avoir rajouté ton 2e disque
          dans ta conf LVM ? 
          
          On 6/4/21 12:47 PM, Pierre Bourgin wrote: 
          hello, 
            
            On 6/4/21 11:59 AM, Renaud Galante wrote: 
            Bonjour à tous 
              
              J'ai un petit problème à vous soumettre. 
              
              Au redémarrage d'une vm sous debian, j'ai le message
              d'erreur suivant dès le chargement de grub (le menu
              n’apparaît pas) 
              
              error: disk 'lvmid/xxxxxxxxxxxxxxxxxxxxxxxx/YYYYYYYYY' not
              found 
              
              et j’atterris dans le grub rescue. 
            
            
            donc l'id LVM est bien référencé dans ton env mais pas
            trouvé. 
            Peut-etre que le disque qui contient ce qui manque n'est pas
            détecté ? 
            
            Pour t'y retrouver, essaye les commandes pour déterminer si
            ca vient d'un disque non vu, puis du LVM physical volume qui
            est censé être dessus, puis des LVM vg et enfin du LVM lv. 
            
            
            - lsblk : liste les "block devices" qui sont visibles
            (disques, partitions, LVM LV) 
            - blkid : liste les uuid 
            - pvdisplay : qu'en pense-t-il ? 
            - vgdisplay : qu'en pense-t-il ? 
            - pvscan : pleins d'options, notamment "mettre à jour le
            cache" 
            - vgscan:  (idem pvscan) 
            
            Pour reproduire le problème, je suis
              dans les conditions suivantes: 
                - Ma partition / est un LV situé sur 2 disques (il y
              avait un seul disque à l'origine, mais un deuxième a été
              rajouté par la suite suite à un soucis d'espace) 
                - Je n'ai pas de /boot dédié 
                - La VM tourne sous proxmox 
              
              Le message est certainement dû au fait que le deuxième
              disque ne soit pas "lu" au démarrage. J'ai testé
              différentes configs pour le deuxième disque, à savoir coté
              LVM ce disque est intégré entièrement (donc pas de
              partition) ou alors un partitionnement de type dos et
              gpt,suivi d'un grub-install sur le nouveau disque 
            
            
            il faut vérifier dans l'ordre: les LVM Physical Volume, puis
            LVM vg et enfin LVM lv. 
            
            Je reproduis ce cas sur des vms
              vierges avec une install debian (buster et bullseye) toute
              fresh. 
              Dès que je rajoute un disque supplémentaire et que je le
              rajoute à ma partition / avec toutes les opérations lvm
              qui vont bien, au reboot, j'atteris sur le grub rescue. 
              
              Cependant, si je réalise cette même opération sous vmware,
              la vm redémarre bien. 
              
              Mon problème est vite résolu en agrandissant directement
              le disque principal, en créant une nouvelle partition, ou
              en agrandissant la partition si cela est possible, mais je
              trouve cela tellement plus simple et sécurisant de le
              faire par lvm. Et cela rend la réduction d'espace plus
              simple aussi dans le cas de besoin d'espace temporaire et
              que le client est incapable de mettre toutes ces données à
              un endroit particulier. 
              
              Je me demande donc ce qui pourrait expliquer cette
              différence de comportement entre 2 techno différentes (KVM
              et vmware) et s'il y a un moyen de faire fonctionner ce
              principe avec proxmox / kvm 
            
            
            si il y a une différence, c'est la "présentation" des
            disques de l'enveloppe de virtu à l'OS qu'elle contient. 
            
            si les 2 disques sont sur 2 type de controlleurs differents
            sous promox, peut-etre que tu n'a pas le driver du 2e
            controlleur dans l'initramfs de ton OS ? ce serait vraiment
            tordu mais bon ... 
            
            Anecdote: avec RHV (kvm/qemu sauce Red Hat), il arrive que
            y'ai des échanges de nom de disque apres reboot vu depuis
            l'OS, genre sdb devient sdc, et sdc devient sdb. 
            Heureusement avec LVM et les uuid, on survit (le nom de
            disque n'a presque plus d'importance) 
            
            SI quelqu'un a une idée, 
              
              
              Merci et bon vendredi à tous ! 
              
              Reno. 
              
              
              _______________________________________________ 
              Liste de diffusion du FRsAG 
              http://www.frsag.org/
              
              
            
            _______________________________________________ 
            Liste de diffusion du FRsAG 
            http://www.frsag.org/
            
          
        
      
      
      
      
      _______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/