Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
pve_ceph [2022/11/12 16:52] nekanpve_ceph [2022/11/19 14:18] (Version actuelle) – [Mise en place] nekan
Ligne 25: Ligne 25:
   * L'installation passe par ''apt'', il nous faut donc valider la demande sur la console :   * L'installation passe par ''apt'', il nous faut donc valider la demande sur la console :
 <image shape="thumbnail">{{ :proxmox:ceph_003.png |}}</image> <image shape="thumbnail">{{ :proxmox:ceph_003.png |}}</image>
- 
 <callout type="warning" title="Déconnexion" icon="true">Lors de l'installation de ''Ceph'', le réseau peut se réinitialiser, entraînant une déconnexion de l'interface web. N'hésitez pas à vous reconnecter.</callout> <callout type="warning" title="Déconnexion" icon="true">Lors de l'installation de ''Ceph'', le réseau peut se réinitialiser, entraînant une déconnexion de l'interface web. N'hésitez pas à vous reconnecter.</callout>
   * Une fois l'installation terminée, on clique sur ''Suivant'' :   * Une fois l'installation terminée, on clique sur ''Suivant'' :
 <image shape="thumbnail">{{ :proxmox:ceph_004.png |}}</image> <image shape="thumbnail">{{ :proxmox:ceph_004.png |}}</image>
 +<callout type="info" title="Autres nœud " icon="true">Pour les autres nœud, la page suivante indique ''Configuration already initialized''. On passe donc directement à la suite.</callout>
   * Ici, nous allons indiquer :   * Ici, nous allons indiquer :
     * l'adresse de contact du cluster ''Ceph''     * l'adresse de contact du cluster ''Ceph''
Ligne 38: Ligne 38:
   * Cette fenêtre est juste un récapitulatif des étapes restantes, on clique sur ''Terminé'' :   * Cette fenêtre est juste un récapitulatif des étapes restantes, on clique sur ''Terminé'' :
 <image shape="thumbnail">{{ :proxmox:ceph_006.png |}}</image> <image shape="thumbnail">{{ :proxmox:ceph_006.png |}}</image>
 +  * Une fois tous les nœuds initialisés, on ajoute chaque serveur (exception faîte du 1er) en tant que moniteur. Pour cela, on va sur le nœud à ajouter, ''Ceph'', ''Moniteur'' et on clique sur ''Créer'' dans la zone ''Moniteur'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_007.png |}}</image>
 +  * On clique sur ''Créer'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_008.png |}}</image>
 +  * On passe ensuite à l'ajout en tant que manager. On clique alors sur ''Créer'' dans la zone ''Manager'' cette fois ci :
 +<image shape="thumbnail">{{ :proxmox:ceph_009.png |}}</image>
 +  * Comme précédemment, on clique sur ''Créer'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_010.png |}}</image>
 +  * Maintenant, il nous faut intégrer les disques dans le cluster ''Ceph'' (ajout d'un disque par nœud). Pour cela, sur chaque nœud, on clique sur ''OSD'' puis ''Créer: OSD'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_011.png |}}</image>
 +  * On sélectionne le disque libre et on clique sur ''Créer'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_012.png |}}</image>
 +  * Quand tous les disques ont été ajoutés, il ne nous reste plus qu'à créer l'espace de stockage partagé. Pour cela, on va dans ''Pools'' et on clique sur ''Créer'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_013.png |}}</image>
 +  * On choisit le nom de l'espace et on clique sur ''Créer'' :
 +<image shape="thumbnail">{{ :proxmox:ceph_014.png |}}</image>
 +  * Une fois créé, l'espace apparaît alors sur tous les nœuds. L'onglet ''Ceph'' permet alors de superviser l'état du partage :
 +<image shape="thumbnail">{{ :proxmox:ceph_015.png |}}</image>
 +
 +<callout type="warning" title="Mémoire" icon="true">Attention. ''Ceph'' peut être assez gourmand en RAM sur des petits serveurs. Dans de telles configurations, il peut être intéressant de limiter son usage de la mémoire à 1Go en ajoutant dans le fichier de configuration ''/etc/ceph/ceph.conf'' la ligne suivante :
 +<sxh bash>osd_memory_target = 1073741824</sxh></callout>
 + 
 +<callout type="success" title="Félicitations" icon="true">Et voilà, vous avez désormais un espace disque partagé par tous les nœuds de votre cluster Proxmox. Vous pouvez maintenant y déplacer vos VMs existantes ou y créer de nouvelles.</callout>
  
 +~~DISCUSSION~~
  • pve_ceph.1668268358.txt.gz
  • Dernière modification : 2022/11/12 16:52
  • de nekan