[Infrastructure] Ajout de ceph.md

ceph
_shirenn 2022-11-08 14:08:46 +01:00
parent d5cfcf4b09
commit d1d422c712
1 changed files with 51 additions and 0 deletions

View File

@ -0,0 +1,51 @@
# Ceph
Pour stocker les données des utilisateur⋅ices, d'administrations et les disques
des machines virtuelles, on utilise ceph. C'est un système de stockage distribué
sur le réseau qui permet de conserver l'accessibilité des données même en cas de
panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée
en quelques mots, c'est un raid mais sur le réseau.
## Daemons
Ceph fonctionne grâce à une collection de daemons qui s'occupe chacun de taches
bien spécifique.
### Moniteurs
Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui
répartissent les données entre les différents nœuds et qui servent de frontend
pour beaucoup d'opérations utilisateur⋅ices. Tout ce qui est de la création de
pool ou de système de fichiers passent par eux.
### OSDs
Les OSDs sont les daemons qui gèrent directement les données. Pour chacun des
disques qu'on rend disponible sur le réseau, on lance un osd correspondant qui
est son intermediaire avec le reste du réseau.
### Manageurs
Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins
un manager par nœud sur le réseaux.
### MDS
Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais
fouiller la doc plus tard :p
## Infrastructure (proposition de shirenn)
La plupart des OSDs sont concentrées sur trois nœuds de stockage: tealc,
cameron et un troisième (sur l'infrastructure de test il s'agit de tealch,
kameron et otter (other <-> otter, tu as compris x)). Le lien public du réseau
est située sur san (vlan 4) et le lien privé du cluster sur zef (vlan 5). Les
autres nœuds sur le réseau sont les serveurs des deux clusters proxmox. Chacun
d'entre eux dispose d'un moniteur pour permettre l'intégration proxmox de ceph.
Il peut être pertinent d'avoir quelques osds sur les serveurs directement
pourque certaines données puissent être partiellement stockée en local pour
réduire les temps de transit. En particulier,
1. les homes
2. les disques des machines virtuelles hébergées sur le nœud
Cela demande de créer une crush map pertinente et d'éviter de migrer des vms
trop souvent.
## Infrastructure (proposition de «quelqu'un d'autre»)
## Déploiement
Soon^TM