2017-09-06 26 views
1

어제 보석상에서 Ceph 클러스터를 Luminous로 업데이트했습니다. 내가 "ceph osd require-osd-release luminous"명령을 실행할 때까지 모든 것이 겉으로보기에는 괜찮았다. 그 후 내 클러스터의 데이터를 완전히 알 수 없습니다. 주어진 PG에 대한 상세보기를하면 "active + clean"이 표시됩니다. 그 집단은 그들이 타락하고 부정하다고 생각합니다. 여기에 내가보고하고 내용은 다음과 같습니다데이터가 Ceph Update 이후에 100 % 알려지지 않음

CRUSH의 MAP

-1  10.05318 root default        
-2  3.71764  host cephfs01       
0  0.09044   osd.0   up 1.00000 1.00000 
1  1.81360   osd.1   up 1.00000 1.00000 
2  1.81360   osd.2   up 1.00000 1.00000 
-3  3.62238  host cephfs02       
3 hdd 1.81360   osd.3   up 1.00000 1.00000 
4 hdd 0.90439   osd.4   up 1.00000 1.00000 
5 hdd 0.90439   osd.5   up 1.00000 1.00000 
-4  2.71317  host cephfs03       
6 hdd 0.90439   osd.6   up 1.00000 1.00000 
7 hdd 0.90439   osd.7   up 1.00000 1.00000 
8 hdd 0.90439   osd.8   up 1.00000 1.00000 

건강

cluster: 
    id:  279e0565-1ab4-46f2-bb27-adcb1461e618 
    health: HEALTH_WARN 
      Reduced data availability: 1024 pgs inactive 
      Degraded data redundancy: 1024 pgs unclean 

    services: 
    mon: 2 daemons, quorum cephfsmon02,cephfsmon01 
    mgr: cephfsmon02(active) 
    mds: ceph_library-1/1/1 up {0=cephfsmds01=up:active} 
    osd: 9 osds: 9 up, 9 in; 306 remapped pgs 

    data: 
    pools: 2 pools, 1024 pgs 
    objects: 0 objects, 0 bytes 
    usage: 0 kB used, 0 kB/0 kB avail 
    pgs:  100.000% pgs unknown 
      1024 unknown 

HEALTH_WARN

감소 데이터 가용성 : 1024의 PGS 비활성; 열화 데이터 중복성 1024 감소 된 데이터 가용성 PG_AVAILABILITY 부정 PGS : 1024의 PGS은 PG의 1.e6가 2239.530584 비활성 멈춤 비활성이 현재 상태 알 지난 작용은 [] PG의 1.e8 현재 상태 미지 2239.530584 동안 비활성 붙어있다, 마지막으로 연기 [] 페이지의 1.e9은 2239.530584 비활성 붙어 현재 상태를 알 수없는, 마지막 연기는 []

은 클러스터의 모든 PG에 대해 다음과 같이 보인다. 내가 이것 때문에의 PGS 또는 OSDS에 스크럽 또는 수리 실행할 수 없습니다

"stats": { 
       "version": "57'5211", 
       "reported_seq": "4527", 
       "reported_epoch": "57", 
       "state": "active+clean", 

PG의 상세

:

ceph의 OSD 수리 osd.0 은 OSD를 지시하는 데 실패 (들) 수리 0 (연결되지 않음)

아이디어가 있으십니까?

답변

1

방화벽에 문제가 있습니다. 나는 각 호스트에서 방화벽을 반송하고 즉시 pgs를 발견했다.