[infrastructure/ceph] 2ème proposition
parent
d1d422c712
commit
5c6ec19fe7
|
@ -1,13 +1,13 @@
|
||||||
# Ceph
|
# Ceph
|
||||||
Pour stocker les données des utilisateur⋅ices, d'administrations et les disques
|
Pour stocker les données des utilisateur⋅ices, d'administration et les disques
|
||||||
des machines virtuelles, on utilise ceph. C'est un système de stockage distribué
|
des machines virtuelles, on utilise ceph. C'est un système de stockage distribué
|
||||||
sur le réseau qui permet de conserver l'accessibilité des données même en cas de
|
sur le réseau qui permet de conserver l'accessibilité des données même en cas de
|
||||||
panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée
|
panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée
|
||||||
en quelques mots, c'est un raid mais sur le réseau.
|
en quelques mots, c'est un RAID mais sur le réseau.
|
||||||
|
|
||||||
## Daemons
|
## Daemons
|
||||||
Ceph fonctionne grâce à une collection de daemons qui s'occupe chacun de taches
|
Ceph fonctionne grâce à une collection de daemons qui s'occupent chacun de tâches
|
||||||
bien spécifique.
|
bien spécifiques.
|
||||||
|
|
||||||
### Moniteurs
|
### Moniteurs
|
||||||
Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui
|
Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui
|
||||||
|
@ -24,7 +24,7 @@ est son intermediaire avec le reste du réseau.
|
||||||
Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins
|
Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins
|
||||||
un manager par nœud sur le réseaux.
|
un manager par nœud sur le réseaux.
|
||||||
|
|
||||||
### MDS
|
### MDSs
|
||||||
Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais
|
Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais
|
||||||
fouiller la doc plus tard :p
|
fouiller la doc plus tard :p
|
||||||
|
|
||||||
|
@ -45,7 +45,31 @@ réduire les temps de transit. En particulier,
|
||||||
Cela demande de créer une crush map pertinente et d'éviter de migrer des vms
|
Cela demande de créer une crush map pertinente et d'éviter de migrer des vms
|
||||||
trop souvent.
|
trop souvent.
|
||||||
|
|
||||||
## Infrastructure (proposition de « quelqu'un d'autre »)
|
|
||||||
|
## Infrastructure (proposition de esum)
|
||||||
|
Les MONs, MGRs, OSDs et MDSs sont déployés sur les trois nœuds de stockage :
|
||||||
|
tealc, cameron et un troisième serveur via l'intégration ceph de proxmox qui
|
||||||
|
permet d'avoir une interface d'administration jolie et accessible et une
|
||||||
|
configuration répliquée automatiquement avec corosync. À mon avis ça rend
|
||||||
|
l'infrastructure fool-proof et future-proof.
|
||||||
|
|
||||||
|
Pour celà on créé un cluster proxmox dédié sur le vlan ceph (vlan id 5) et on
|
||||||
|
créé un cluster ceph avec comme subnet public un réseau sur le vlan san (vlan id
|
||||||
|
4) et comme subnet de cluster un réseau sur le vlan ceph.
|
||||||
|
|
||||||
|
Sur les deux clusters de virtualisation on ajoute un stockage RBD sur la bonne
|
||||||
|
pool (vm pour les VMs Crans et vm-adh pour les VMs adhérents).
|
||||||
|
|
||||||
|
Enfin on créé un cephfs nommé crans avec trois dossiers :
|
||||||
|
* `/home` pour les homes des adhérents
|
||||||
|
* `/mail` pour les mails des adhérents
|
||||||
|
* `/nounou` pour les homes des nounous
|
||||||
|
|
||||||
|
|
||||||
|
## Infrastructure (proposition de «quelqu'un d'autre»)
|
||||||
|
|
||||||
## Déploiement
|
## Déploiement
|
||||||
Soon^TM
|
Soon<sup>TM</sup>
|
||||||
|
|
||||||
|
### Création de clients
|
||||||
|
Soon<sup>TM</sup>
|
||||||
|
|
Loading…
Reference in New Issue