Correction prérequis nœuds Ceph : 3 minimum, 5 optimal

Add reference to Ceph benchmark article showing scale-out benefits
This commit is contained in:
Tellsanguis 2025-11-22 23:59:27 +01:00
parent 0a5c9728e6
commit 3540e10945
2 changed files with 4 additions and 4 deletions

View file

@ -58,7 +58,7 @@ Ceph est la solution de stockage distribué la plus mise en avant par Proxmox. E
**Inconvénients :**
- **Consommation importante de ressources** : CPU et RAM significatifs pour les processus MON, MGR et OSD
- **Recommandation officielle de 5 nœuds minimum** pour une configuration optimale (3 MON + répartition des OSD)
- **3 nœuds minimum, mais [5 recommandés](https://ceph.io/en/news/blog/2019/part-3-rhcs-bluestore-performance-scalability-3-vs-5-nodes/)** pour des performances optimales (scalabilité quasi-linéaire grâce à l'architecture scale-out de Ceph)
- **Nécessite un réseau 10 Gbps** pour des performances acceptables
- Complexité opérationnelle élevée malgré la simplification apportée par Proxmox
@ -107,7 +107,7 @@ Au regard des contraintes de mon homelab, Linstor DRBD m'a semblé être le choi
| Critère | Ceph | ZFS Réplication | Linstor DRBD |
|---------|------|-----------------|--------------|
| Nombre de nœuds minimum | 5 (optimal) | 2 | 3 (2 + témoin) |
| Nombre de nœuds minimum | 3 ([5 optimal](https://ceph.io/en/news/blog/2019/part-3-rhcs-bluestore-performance-scalability-3-vs-5-nodes/)) | 2 | 3 (2 + témoin) |
| Réseau recommandé | 10 Gbps | 1 Gbps | 1 Gbps (optimal 10 Gbps) |
| Type de réplication | Synchrone | Asynchrone | Synchrone |
| Live migration | Oui | Non | Oui |

View file

@ -58,7 +58,7 @@ Ceph is the distributed storage solution most promoted by Proxmox. It's directly
**Disadvantages:**
- **High resource consumption**: significant CPU and RAM for MON, MGR, and OSD processes
- **Official recommendation of 5 nodes minimum** for optimal configuration (3 MON + OSD distribution)
- **3 nodes minimum, but [5 recommended](https://ceph.io/en/news/blog/2019/part-3-rhcs-bluestore-performance-scalability-3-vs-5-nodes/)** for optimal performance (near-linear scalability thanks to Ceph's scale-out architecture)
- **Requires 10 Gbps network** for acceptable performance
- High operational complexity despite Proxmox's simplification efforts
@ -107,7 +107,7 @@ Given my homelab's constraints, Linstor DRBD seemed to be the most suitable choi
| Criterion | Ceph | ZFS Replication | Linstor DRBD |
|-----------|------|-----------------|--------------|
| Minimum nodes | 5 (optimal) | 2 | 3 (2 + witness) |
| Minimum nodes | 3 ([5 optimal](https://ceph.io/en/news/blog/2019/part-3-rhcs-bluestore-performance-scalability-3-vs-5-nodes/)) | 2 | 3 (2 + witness) |
| Recommended network | 10 Gbps | 1 Gbps | 1 Gbps (optimal 10 Gbps) |
| Replication type | Synchronous | Asynchronous | Synchronous |
| Live migration | Yes | No | Yes |