Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révision
Révision précédente
pve_ceph [2022/11/12 11:57] – créée nekanpve_ceph [2022/11/19 14:18] (Version actuelle) – [Mise en place] nekan
Ligne 25: Ligne 25:
   * L'installation passe par ''apt'', il nous faut donc valider la demande sur la console :   * L'installation passe par ''apt'', il nous faut donc valider la demande sur la console :
 <image shape="thumbnail">{{ :proxmox:ceph_003.png |}}</image> <image shape="thumbnail">{{ :proxmox:ceph_003.png |}}</image>
- 
 <callout type="warning" title="Déconnexion" icon="true">Lors de l'installation de ''Ceph'', le réseau peut se réinitialiser, entraînant une déconnexion de l'interface web. N'hésitez pas à vous reconnecter.</callout> <callout type="warning" title="Déconnexion" icon="true">Lors de l'installation de ''Ceph'', le réseau peut se réinitialiser, entraînant une déconnexion de l'interface web. N'hésitez pas à vous reconnecter.</callout>
   * Une fois l'installation terminée, on clique sur ''Suivant'' :   * Une fois l'installation terminée, on clique sur ''Suivant'' :
 <image shape="thumbnail">{{ :proxmox:ceph_004.png |}}</image> <image shape="thumbnail">{{ :proxmox:ceph_004.png |}}</image>
-  Liste à puce+<callout type="info" title="Autres nœud " icon="true">Pour les autres nœud, la page suivante indique ''Configuration already initialized''. On passe donc directement à la suite.</callout> 
 +  * Ici, nous allons indiquer : 
 +    * l'adresse de contact du cluster ''Ceph'' 
 +    * l'adresse du réseau des VMs 
 +    * le nombre de réplique au sein du cluster 
 +    * le nombre minimal de réplique avant erreur 
 +  * Une fois les champs renseignés, on passe à la suite en cliquant sur ''Suivant''
 +<image shape="thumbnail">{{ :proxmox:ceph_005.png |}}</image> 
 +  * Cette fenêtre est juste un récapitulatif des étapes restantes, on clique sur ''Terminé''
 +<image shape="thumbnail">{{ :proxmox:ceph_006.png |}}</image> 
 +  * Une fois tous les nœuds initialisés, on ajoute chaque serveur (exception faîte du 1er) en tant que moniteur. Pour cela, on va sur le nœud à ajouter, ''Ceph'', ''Moniteur'' et on clique sur ''Créer'' dans la zone ''Moniteur''
 +<image shape="thumbnail">{{ :proxmox:ceph_007.png |}}</image> 
 +  * On clique sur ''Créer''
 +<image shape="thumbnail">{{ :proxmox:ceph_008.png |}}</image> 
 +  * On passe ensuite à l'ajout en tant que manager. On clique alors sur ''Créer'' dans la zone ''Manager'' cette fois ci : 
 +<image shape="thumbnail">{{ :proxmox:ceph_009.png |}}</image> 
 +  * Comme précédemment, on clique sur ''Créer''
 +<image shape="thumbnail">{{ :proxmox:ceph_010.png |}}</image> 
 +  * Maintenant, il nous faut intégrer les disques dans le cluster ''Ceph'' (ajout d'un disque par nœud). Pour cela, sur chaque nœud, on clique sur ''OSD'' puis ''Créer: OSD''
 +<image shape="thumbnail">{{ :proxmox:ceph_011.png |}}</image> 
 +  * On sélectionne le disque libre et on clique sur ''Créer''
 +<image shape="thumbnail">{{ :proxmox:ceph_012.png |}}</image> 
 +  * Quand tous les disques ont été ajoutés, il ne nous reste plus qu'à créer l'espace de stockage partagé. Pour cela, on va dans ''Pools'' et on clique sur ''Créer''
 +<image shape="thumbnail">{{ :proxmox:ceph_013.png |}}</image> 
 +  * On choisit le nom de l'espace et on clique sur ''Créer''
 +<image shape="thumbnail">{{ :proxmox:ceph_014.png |}}</image> 
 +  Une fois créé, l'espace apparaît alors sur tous les nœuds. L'onglet ''Ceph'' permet alors de superviser l'état du partage : 
 +<image shape="thumbnail">{{ :proxmox:ceph_015.png |}}</image> 
 + 
 +<callout type="warning" title="Mémoire" icon="true">Attention. ''Ceph'' peut être assez gourmand en RAM sur des petits serveurs. Dans de telles configurations, il peut être intéressant de limiter son usage de la mémoire à 1Go en ajoutant dans le fichier de configuration ''/etc/ceph/ceph.conf'' la ligne suivante : 
 +<sxh bash>osd_memory_target = 1073741824</sxh></callout> 
 +  
 +<callout type="success" title="Félicitations" icon="true">Et voilà, vous avez désormais un espace disque partagé par tous les nœuds de votre cluster Proxmox. Vous pouvez maintenant y déplacer vos VMs existantes ou y créer de nouvelles.</callout> 
 + 
 +~~DISCUSSION~~
  • pve_ceph.1668250637.txt.gz
  • Dernière modification : 2022/11/12 11:57
  • de nekan