Sytuacja
Uruchamianie naprawdę małego klastra ceph:
- z trzema węzłami (każdy zawierający mon, osd i mds)
- admin VM (zawierająca także usługę mgr)
- pula replikująca się trzykrotnie
Aby się pobawić, usunąłem program ane osd i ponownie dodałem go jako nowy za pomocą
ceph-deploy --overwrite-conf osd --zap-disk <host>:<disk>
Teraz po udanym dodaniu klaster jest degradowany i odzyskuje się zgodnie z oczekiwaniami. Ale jest więcej obiektów zdegradowanych niż się spodziewałem (informacje zaczerpnięte z interfejsu sieciowego mgr):
Health check update: Degraded data redundancy: 15970/11538 objects degraded (138.412%), 52 pgs degraded (PG_DEGRADED)
Pytanie
Jak to możliwe, że więcej obiektów ulega degradacji niż w ogóle istnieje?
linux
data-recovery
cluster
michi.0x5d
źródło
źródło
ceph log last
aby uzyskać kilka wierszy szczegółowego stanu. To wyjście jest również częścią pulpitu nawigacyjnego ceph-mgr-widocznego przez sieć.