From d1d422c712c120104792510607cae3bdf829f8d4 Mon Sep 17 00:00:00 2001 From: shirenn Date: Tue, 8 Nov 2022 14:08:46 +0100 Subject: [PATCH] [Infrastructure] Ajout de ceph.md --- infrastructure/ceph.md | 51 ++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 51 insertions(+) create mode 100644 infrastructure/ceph.md diff --git a/infrastructure/ceph.md b/infrastructure/ceph.md new file mode 100644 index 0000000..6724506 --- /dev/null +++ b/infrastructure/ceph.md @@ -0,0 +1,51 @@ +# Ceph +Pour stocker les données des utilisateur⋅ices, d'administrations et les disques +des machines virtuelles, on utilise ceph. C'est un système de stockage distribué +sur le réseau qui permet de conserver l'accessibilité des données même en cas de +panne ou de maintenance d'une partie des nœuds du réseaux. Pour donner une idée +en quelques mots, c'est un raid mais sur le réseau. + +## Daemons +Ceph fonctionne grâce à une collection de daemons qui s'occupe chacun de taches +bien spécifique. + +### Moniteurs +Les moniteurs sont chargés de maintenir la cartographie du réseau. C'est eux qui +répartissent les données entre les différents nœuds et qui servent de frontend +pour beaucoup d'opérations utilisateur⋅ices. Tout ce qui est de la création de +pool ou de système de fichiers passent par eux. + +### OSDs +Les OSDs sont les daemons qui gèrent directement les données. Pour chacun des +disques qu'on rend disponible sur le réseau, on lance un osd correspondant qui +est son intermediaire avec le reste du réseau. + +### Manageurs +Ils permettent de suivre l'état du réseaux. Il est reccomandé de lancer au moins +un manager par nœud sur le réseaux. + +### MDS +Wallah aucune idée je crois qu'ils servent à des trucs avec cephfs mais j'irais +fouiller la doc plus tard :p + + +## Infrastructure (proposition de shirenn) +La plupart des OSDs sont concentrées sur trois nœuds de stockage : tealc, +cameron et un troisième (sur l'infrastructure de test il s'agit de tealch, +kameron et otter (other <-> otter, tu as compris x)). Le lien public du réseau +est située sur san (vlan 4) et le lien privé du cluster sur zef (vlan 5). Les +autres nœuds sur le réseau sont les serveurs des deux clusters proxmox. Chacun +d'entre eux dispose d'un moniteur pour permettre l'intégration proxmox de ceph. + +Il peut être pertinent d'avoir quelques osds sur les serveurs directement +pour que certaines données puissent être partiellement stockée en local pour +réduire les temps de transit. En particulier, + 1. les homes + 2. les disques des machines virtuelles hébergées sur le nœud +Cela demande de créer une crush map pertinente et d'éviter de migrer des vms +trop souvent. + +## Infrastructure (proposition de « quelqu'un d'autre ») + +## Déploiement +Soon^TM