[infrastructure/ceph] 2ème proposition
parent
d1d422c712
commit
5c6ec19fe7
|
@ -1,13 +1,13 @@
|
|||
# Ceph
|
||||
Pour stocker les données des utilisateur⋅ices, d'administrations et les disques
|
||||
Pour stocker les données des utilisateur⋅ices, d'administration et les disques
|
||||
des machines virtuelles, on utilise ceph. C'est un système de stockage distribué
|
||||
sur le réseau qui permet de conserver l'accessibilité des données même en cas de
|
||||
panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée
|
||||
en quelques mots, c'est un raid mais sur le réseau.
|
||||
en quelques mots, c'est un RAID mais sur le réseau.
|
||||
|
||||
## Daemons
|
||||
Ceph fonctionne grâce à une collection de daemons qui s'occupe chacun de taches
|
||||
bien spécifique.
|
||||
Ceph fonctionne grâce à une collection de daemons qui s'occupent chacun de tâches
|
||||
bien spécifiques.
|
||||
|
||||
### Moniteurs
|
||||
Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui
|
||||
|
@ -24,7 +24,7 @@ est son intermediaire avec le reste du réseau.
|
|||
Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins
|
||||
un manager par nœud sur le réseaux.
|
||||
|
||||
### MDS
|
||||
### MDSs
|
||||
Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais
|
||||
fouiller la doc plus tard :p
|
||||
|
||||
|
@ -45,7 +45,31 @@ réduire les temps de transit. En particulier,
|
|||
Cela demande de créer une crush map pertinente et d'éviter de migrer des vms
|
||||
trop souvent.
|
||||
|
||||
## Infrastructure (proposition de « quelqu'un d'autre »)
|
||||
|
||||
## Infrastructure (proposition de esum)
|
||||
Les MONs, MGRs, OSDs et MDSs sont déployés sur les trois nœuds de stockage :
|
||||
tealc, cameron et un troisième serveur via l'intégration ceph de proxmox qui
|
||||
permet d'avoir une interface d'administration jolie et accessible et une
|
||||
configuration répliquée automatiquement avec corosync. À mon avis ça rend
|
||||
l'infrastructure fool-proof et future-proof.
|
||||
|
||||
Pour celà on créé un cluster proxmox dédié sur le vlan ceph (vlan id 5) et on
|
||||
créé un cluster ceph avec comme subnet public un réseau sur le vlan san (vlan id
|
||||
4) et comme subnet de cluster un réseau sur le vlan ceph.
|
||||
|
||||
Sur les deux clusters de virtualisation on ajoute un stockage RBD sur la bonne
|
||||
pool (vm pour les VMs Crans et vm-adh pour les VMs adhérents).
|
||||
|
||||
Enfin on créé un cephfs nommé crans avec trois dossiers :
|
||||
* `/home` pour les homes des adhérents
|
||||
* `/mail` pour les mails des adhérents
|
||||
* `/nounou` pour les homes des nounous
|
||||
|
||||
|
||||
## Infrastructure (proposition de «quelqu'un d'autre»)
|
||||
|
||||
## Déploiement
|
||||
Soon^TM
|
||||
Soon<sup>TM</sup>
|
||||
|
||||
### Création de clients
|
||||
Soon<sup>TM</sup>
|
||||
|
|
Loading…
Reference in New Issue