어제 보석상에서 Ceph 클러스터를 Luminous로 업데이트했습니다. 내가 "ceph osd require-osd-release luminous"명령을 실행할 때까지 모든 것이 겉으로보기에는 괜찮았다. 그 후 내 클러스터의 데이터를 완전히 알 수 없습니다. 주어진 PG에 대한 상세보기를하면 "active + clean"이 표시됩니다. 그 집단은 그들이 타락하고 부정하다고 생각합니다. 여기에 내가보고하고 내용은 다음과 같습니다데이터가 Ceph Update 이후에 100 % 알려지지 않음
CRUSH의 MAP
-1 10.05318 root default
-2 3.71764 host cephfs01
0 0.09044 osd.0 up 1.00000 1.00000
1 1.81360 osd.1 up 1.00000 1.00000
2 1.81360 osd.2 up 1.00000 1.00000
-3 3.62238 host cephfs02
3 hdd 1.81360 osd.3 up 1.00000 1.00000
4 hdd 0.90439 osd.4 up 1.00000 1.00000
5 hdd 0.90439 osd.5 up 1.00000 1.00000
-4 2.71317 host cephfs03
6 hdd 0.90439 osd.6 up 1.00000 1.00000
7 hdd 0.90439 osd.7 up 1.00000 1.00000
8 hdd 0.90439 osd.8 up 1.00000 1.00000
건강
cluster:
id: 279e0565-1ab4-46f2-bb27-adcb1461e618
health: HEALTH_WARN
Reduced data availability: 1024 pgs inactive
Degraded data redundancy: 1024 pgs unclean
services:
mon: 2 daemons, quorum cephfsmon02,cephfsmon01
mgr: cephfsmon02(active)
mds: ceph_library-1/1/1 up {0=cephfsmds01=up:active}
osd: 9 osds: 9 up, 9 in; 306 remapped pgs
data:
pools: 2 pools, 1024 pgs
objects: 0 objects, 0 bytes
usage: 0 kB used, 0 kB/0 kB avail
pgs: 100.000% pgs unknown
1024 unknown
HEALTH_WARN
감소 데이터 가용성 : 1024의 PGS 비활성; 열화 데이터 중복성 1024 감소 된 데이터 가용성 PG_AVAILABILITY 부정 PGS : 1024의 PGS은 PG의 1.e6가 2239.530584 비활성 멈춤 비활성이 현재 상태 알 지난 작용은 [] PG의 1.e8 현재 상태 미지 2239.530584 동안 비활성 붙어있다, 마지막으로 연기 [] 페이지의 1.e9은 2239.530584 비활성 붙어 현재 상태를 알 수없는, 마지막 연기는 []
은 클러스터의 모든 PG에 대해 다음과 같이 보인다. 내가 이것 때문에의 PGS 또는 OSDS에 스크럽 또는 수리 실행할 수 없습니다
"stats": {
"version": "57'5211",
"reported_seq": "4527",
"reported_epoch": "57",
"state": "active+clean",
PG의 상세
:
ceph의 OSD 수리 osd.0 은 OSD를 지시하는 데 실패 (들) 수리 0 (연결되지 않음)
아이디어가 있으십니까?