Ceph. Le stockage qui
ne s'arrête jamais.
Clusters NVMe en réplica 3, réseau fibre dédié 4×10 Gb/s. Vos données sont répliquées, performantes et résilientes.
Demander un devisQu'est-ce que Ceph ?
Ceph est un système de stockage distribué open source conçu pour offrir performance, fiabilité et scalabilité. Au lieu de stocker vos données sur un serveur unique, Ceph les répartit automatiquement sur plusieurs nœuds.
Si un disque ou un serveur tombe en panne, Ceph reconstruit les données manquantes à partir des autres copies. Aucune intervention humaine, aucune interruption de service. Le système s'auto-répare.
Développé initialement par Inktank (racheté par Red Hat, puis IBM), Ceph est aujourd'hui le standard de fait du stockage distribué open source. Il est utilisé par le CERN, Deutsche Telekom, Bloomberg et des milliers d'infrastructures critiques dans le monde.
Composants d'un cluster Ceph
Chaque disque NVMe est géré par un OSD. C'est lui qui stocke les données, gère la réplication et la reconstruction.
Maintient la carte du cluster (CRUSH map). Les monitors forment un quorum pour garantir la cohérence.
Collecte les métriques, expose le dashboard et les API de gestion du cluster.
Notre architecture stockage
Chaque choix technique est fait pour maximiser la performance et la résilience de vos données.
NVMe everywhere
Tous nos OSD tournent sur SSD NVMe. Latence sub-milliseconde en lecture comme en écriture, débit séquentiel massif. Zéro disque mécanique dans nos clusters.
Réplica 3
Chaque bloc de données est écrit 3 fois, sur 3 nœuds physiques distincts. La perte d'un serveur complet n'a aucun impact sur la disponibilité de vos données.
Réseau fibre 4×10G
Chaque nœud est connecté via 4 liens fibre 10 Gb/s agrégés (LACP). Le trafic stockage circule sur un réseau dédié, isolé du trafic client.
RBD : des volumes bloc distribués
Nos clusters Ceph exposent des volumes RBD (RADOS Block Device) à notre infrastructure Proxmox VE. Chaque VPS voit un disque local classique, mais derrière, les données sont distribuées et répliquées sur l'ensemble du cluster.
C'est ce qui permet à vos serveurs de bénéficier de la performance du NVMe et de la résilience du distribué, sans aucune complexité de votre côté.
Déplacement de VPS entre nœuds physiques sans interruption. Le stockage étant partagé, seule la mémoire est transférée.
Ceph RBD supporte les snapshots copy-on-write. Sauvegarde instantanée, sans impact sur les performances.
L'espace disque est alloué à la demande. Pas de gaspillage, utilisation optimale de la capacité du cluster.
Pas de contrôleur RAID, pas de SAN centralisé. Le stockage est distribué par conception.
Pourquoi Ceph chez Datacampus
Résilience
Auto-healing intégré. En cas de panne d'un disque ou d'un nœud, Ceph re-réplique automatiquement les données sur les nœuds restants. Aucune intervention manuelle.
Performance
NVMe + réseau fibre dédié = latence faible et débit élevé. Les IOPS se répartissent sur l'ensemble des OSD du cluster.
Scalabilité
Besoin de plus de capacité ou de débit ? On ajoute des nœuds à chaud. Ceph redistribue les données automatiquement, sans interruption de service.
Open source
Licence LGPL, communauté active, code auditable. Pas de vendor lock-in, pas de licence par To. Votre stockage ne dépend d'aucun éditeur propriétaire.
Souveraineté
Vos données restent en France, dans notre datacenter au Futuroscope. Pas de cloud tiers, pas de dépendance à un hyperscaler américain.
Supervision
Dashboard Ceph intégré, métriques temps réel, alerting automatique. Nous surveillons l'état de santé de chaque OSD, la latence et le taux de remplissage 24/7.
Vos données méritent mieux qu'un RAID
Stockage distribué, répliqué, auto-réparant. Et c'est inclus dans chaque VPS.