From 5c6ec19fe710deed021253152e4a368a89390cdc Mon Sep 17 00:00:00 2001 From: Benjamin Graillot Date: Tue, 8 Nov 2022 14:43:53 +0100 Subject: [PATCH] =?UTF-8?q?[infrastructure/ceph]=202=C3=A8me=20proposition?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- infrastructure/ceph.md | 38 +++++++++++++++++++++++++++++++------- 1 file changed, 31 insertions(+), 7 deletions(-) diff --git a/infrastructure/ceph.md b/infrastructure/ceph.md index 6724506..693030c 100644 --- a/infrastructure/ceph.md +++ b/infrastructure/ceph.md @@ -1,13 +1,13 @@ # Ceph -Pour stocker les données des utilisateur⋅ices, d'administrations et les disques +Pour stocker les données des utilisateur⋅ices, d'administration et les disques des machines virtuelles, on utilise ceph. C'est un système de stockage distribué sur le réseau qui permet de conserver l'accessibilité des données même en cas de panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée -en quelques mots, c'est un raid mais sur le réseau. +en quelques mots, c'est un RAID mais sur le réseau. ## Daemons -Ceph fonctionne grâce à une collection de daemons qui s'occupe chacun de taches -bien spécifique. +Ceph fonctionne grâce à une collection de daemons qui s'occupent chacun de tâches +bien spécifiques. ### Moniteurs Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui @@ -24,7 +24,7 @@ est son intermediaire avec le reste du réseau. Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins un manager par nœud sur le réseaux. -### MDS +### MDSs Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais fouiller la doc plus tard :p @@ -45,7 +45,31 @@ réduire les temps de transit. En particulier, Cela demande de créer une crush map pertinente et d'éviter de migrer des vms trop souvent. -## Infrastructure (proposition de « quelqu'un d'autre ») + +## Infrastructure (proposition de esum) +Les MONs, MGRs, OSDs et MDSs sont déployés sur les trois nœuds de stockage : +tealc, cameron et un troisième serveur via l'intégration ceph de proxmox qui +permet d'avoir une interface d'administration jolie et accessible et une +configuration répliquée automatiquement avec corosync. À mon avis ça rend +l'infrastructure fool-proof et future-proof. + +Pour celà on créé un cluster proxmox dédié sur le vlan ceph (vlan id 5) et on +créé un cluster ceph avec comme subnet public un réseau sur le vlan san (vlan id +4) et comme subnet de cluster un réseau sur le vlan ceph. + +Sur les deux clusters de virtualisation on ajoute un stockage RBD sur la bonne +pool (vm pour les VMs Crans et vm-adh pour les VMs adhérents). + +Enfin on créé un cephfs nommé crans avec trois dossiers : + * `/home` pour les homes des adhérents + * `/mail` pour les mails des adhérents + * `/nounou` pour les homes des nounous + + +## Infrastructure (proposition de «quelqu'un d'autre») ## Déploiement -Soon^TM +SoonTM + +### Création de clients +SoonTM