[infrastructure/ceph] 2ème proposition

ceph
_benjamin 2022-11-08 14:43:53 +01:00
parent d1d422c712
commit 5c6ec19fe7
1 changed files with 31 additions and 7 deletions

View File

@ -1,13 +1,13 @@
# Ceph
Pour stocker les données des utilisateur⋅ices, d'administrations et les disques
Pour stocker les données des utilisateur⋅ices, d'administration et les disques
des machines virtuelles, on utilise ceph. C'est un système de stockage distribué
sur le réseau qui permet de conserver l'accessibilité des données même en cas de
panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée
en quelques mots, c'est un raid mais sur le réseau.
en quelques mots, c'est un RAID mais sur le réseau.
## Daemons
Ceph fonctionne grâce à une collection de daemons qui s'occupe chacun de taches
bien spécifique.
Ceph fonctionne grâce à une collection de daemons qui s'occupent chacun de tâches
bien spécifiques.
### Moniteurs
Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui
@ -24,7 +24,7 @@ est son intermediaire avec le reste du réseau.
Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins
un manager par nœud sur le réseaux.
### MDS
### MDSs
Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais
fouiller la doc plus tard :p
@ -45,7 +45,31 @@ réduire les temps de transit. En particulier,
Cela demande de créer une crush map pertinente et d'éviter de migrer des vms
trop souvent.
## Infrastructure (proposition de «quelqu'un d'autre»)
## Infrastructure (proposition de esum)
Les MONs, MGRs, OSDs et MDSs sont déployés sur les trois nœuds de stockage :
tealc, cameron et un troisième serveur via l'intégration ceph de proxmox qui
permet d'avoir une interface d'administration jolie et accessible et une
configuration répliquée automatiquement avec corosync. À mon avis ça rend
l'infrastructure fool-proof et future-proof.
Pour celà on créé un cluster proxmox dédié sur le vlan ceph (vlan id 5) et on
créé un cluster ceph avec comme subnet public un réseau sur le vlan san (vlan id
4) et comme subnet de cluster un réseau sur le vlan ceph.
Sur les deux clusters de virtualisation on ajoute un stockage RBD sur la bonne
pool (vm pour les VMs Crans et vm-adh pour les VMs adhérents).
Enfin on créé un cephfs nommé crans avec trois dossiers :
* `/home` pour les homes des adhérents
* `/mail` pour les mails des adhérents
* `/nounou` pour les homes des nounous
## Infrastructure (proposition de «quelqu'un d'autre»)
## Déploiement
Soon^TM
Soon<sup>TM</sup>
### Création de clients
Soon<sup>TM</sup>