Ponad 100% obiektów ulega degradacji, jak to możliwe?

1

Sytuacja

Uruchamianie naprawdę małego klastra ceph:

  • z trzema węzłami (każdy zawierający mon, osd i mds)
  • admin VM (zawierająca także usługę mgr)
  • pula replikująca się trzykrotnie

Aby się pobawić, usunąłem program ane osd i ponownie dodałem go jako nowy za pomocą

ceph-deploy --overwrite-conf osd --zap-disk <host>:<disk>

Teraz po udanym dodaniu klaster jest degradowany i odzyskuje się zgodnie z oczekiwaniami. Ale jest więcej obiektów zdegradowanych niż się spodziewałem (informacje zaczerpnięte z interfejsu sieciowego mgr):

Health check update: Degraded data redundancy: 15970/11538 objects degraded (138.412%), 52 pgs degraded (PG_DEGRADED)

Pytanie

Jak to możliwe, że więcej obiektów ulega degradacji niż w ogóle istnieje?

michi.0x5d
źródło
Cześć Michi i witaj w Superuser. Nie jestem pewien, dlaczego twoje pytanie zostało odrzucone. Być może możesz dodać więcej szczegółów na temat konfiguracji? Może zawierać także polecenia wydane w celu wygenerowania udostępnionego raportu z kontroli.
Saaru Lindestøkke,
Dziękuję za ciepłe przyjęcie. Obecna wersja „luminous” ceph rejestruje te komunikaty w dzienniku monitora. Można to sprawdzić za pomocą, ceph log lastaby uzyskać kilka wierszy szczegółowego stanu. To wyjście jest również częścią pulpitu nawigacyjnego ceph-mgr-widocznego przez sieć.
michi.0x5d,