Stockage Distribué

Ceph. Le stockage qui
ne s'arrête jamais.

Clusters NVMe en réplica 3, réseau fibre dédié 4×10 Gb/s. Vos données sont répliquées, performantes et résilientes.

Demander un devis
Réplica par défaut
NVMe
100% flash, zéro disque mécanique
4×10G
Réseau fibre inter-nœuds
0
Single point of failure
La technologie

Qu'est-ce que Ceph ?

Ceph est un système de stockage distribué open source conçu pour offrir performance, fiabilité et scalabilité. Au lieu de stocker vos données sur un serveur unique, Ceph les répartit automatiquement sur plusieurs nœuds.

Si un disque ou un serveur tombe en panne, Ceph reconstruit les données manquantes à partir des autres copies. Aucune intervention humaine, aucune interruption de service. Le système s'auto-répare.

Développé initialement par Inktank (racheté par Red Hat, puis IBM), Ceph est aujourd'hui le standard de fait du stockage distribué open source. Il est utilisé par le CERN, Deutsche Telekom, Bloomberg et des milliers d'infrastructures critiques dans le monde.

Composants d'un cluster Ceph

OSD
Object Storage Daemon

Chaque disque NVMe est géré par un OSD. C'est lui qui stocke les données, gère la réplication et la reconstruction.

MON
Monitor

Maintient la carte du cluster (CRUSH map). Les monitors forment un quorum pour garantir la cohérence.

MGR
Manager

Collecte les métriques, expose le dashboard et les API de gestion du cluster.

Notre architecture stockage

Chaque choix technique est fait pour maximiser la performance et la résilience de vos données.

NVMe everywhere

Tous nos OSD tournent sur SSD NVMe. Latence sub-milliseconde en lecture comme en écriture, débit séquentiel massif. Zéro disque mécanique dans nos clusters.

Réplica 3

Chaque bloc de données est écrit 3 fois, sur 3 nœuds physiques distincts. La perte d'un serveur complet n'a aucun impact sur la disponibilité de vos données.

Réseau fibre 4×10G

Chaque nœud est connecté via 4 liens fibre 10 Gb/s agrégés (LACP). Le trafic stockage circule sur un réseau dédié, isolé du trafic client.

Block Storage

RBD : des volumes bloc distribués

Nos clusters Ceph exposent des volumes RBD (RADOS Block Device) à notre infrastructure Proxmox VE. Chaque VPS voit un disque local classique, mais derrière, les données sont distribuées et répliquées sur l'ensemble du cluster.

C'est ce qui permet à vos serveurs de bénéficier de la performance du NVMe et de la résilience du distribué, sans aucune complexité de votre côté.

Live migration

Déplacement de VPS entre nœuds physiques sans interruption. Le stockage étant partagé, seule la mémoire est transférée.

Snapshots instantanés

Ceph RBD supporte les snapshots copy-on-write. Sauvegarde instantanée, sans impact sur les performances.

Thin provisioning

L'espace disque est alloué à la demande. Pas de gaspillage, utilisation optimale de la capacité du cluster.

Zéro SPOF stockage

Pas de contrôleur RAID, pas de SAN centralisé. Le stockage est distribué par conception.

Avantages

Pourquoi Ceph chez Datacampus

Résilience

Auto-healing intégré. En cas de panne d'un disque ou d'un nœud, Ceph re-réplique automatiquement les données sur les nœuds restants. Aucune intervention manuelle.

Performance

NVMe + réseau fibre dédié = latence faible et débit élevé. Les IOPS se répartissent sur l'ensemble des OSD du cluster.

Scalabilité

Besoin de plus de capacité ou de débit ? On ajoute des nœuds à chaud. Ceph redistribue les données automatiquement, sans interruption de service.

Open source

Licence LGPL, communauté active, code auditable. Pas de vendor lock-in, pas de licence par To. Votre stockage ne dépend d'aucun éditeur propriétaire.

Souveraineté

Vos données restent en France, dans notre datacenter au Futuroscope. Pas de cloud tiers, pas de dépendance à un hyperscaler américain.

Supervision

Dashboard Ceph intégré, métriques temps réel, alerting automatique. Nous surveillons l'état de santé de chaque OSD, la latence et le taux de remplissage 24/7.

Vos données méritent mieux qu'un RAID

Stockage distribué, répliqué, auto-réparant. Et c'est inclus dans chaque VPS.