2017-04-24 16 views
0

여러 변수가있는 두 개의 데이터 프레임이 있습니다. 각 데이터 프레임은 한 명의 평가자에게 속합니다. 두 개의 데이터 프레임 사이의 신뢰도 (Cohen 's Kappa)를 계산하고 싶습니다. 예를 들어두 데이터 프레임의 Cohen 's Kappa

:

Rater1 <- matrix(c(1,0,0,1,0,0,0,0,1),ncol=3,byrow=TRUE) 
colnames(Rater1)<-c("V1","V2","V3") 
Rater2 <- matrix(c(0,1,0,1,0,1,0,0,1),ncol=3,byrow=TRUE) 
colnames(Rater2)<-c("V1","V2","V3") 

그것은 'IRR'패키지와 함께 할 수있는 뭔가가 있어야하지만 난 정말 어떻게 알아낼 수 없습니다. 올바른 방향으로 어떤 도움을 주셔서 감사합니다. 사용자가 제공 한 데이터를 사용하여

+0

각 데이터 프레임에는 3 개의 행과 3 개의 열이 있습니다. 행이나 열의 등급이 정해져 있습니까? 그렇다면 다른 차원은 무엇입니까? – Gladwell

답변

1

, 다음 코드 사용하여 각 변수의 카파를 계산할 수 있습니다

for (dimension in 1:3) { 
    v = paste0("V", dimension) 
    print(irr::kappa2(cbind(Rater1[, v], Rater2[, v]))) 
} 

당신은 우리가 어떻게 든 붕괴 할 필요가 의미, 당신은 그러나 두 데이터 프레임 사이의 카파를 원했다 데이터 프레임을 두 개의 벡터로 변환합니다. 당신이해야 할 일은 평가 대상에 대한 변수가되도록 과목의 정의를 변경하는 것입니다. 평가자 (독립적이지 않은 사람)와 평가받는 사람 (독립적이지 않은 사람)의 특징 사이에 합의에 관심이 있기 때문에 주제가 동일한 출처에서 온다는 사실을 본질적으로 무시할 수 있습니다.

irr::kappa2(cbind(matrix(Rater1), matrix(Rater2))) 
+0

첫 번째 옵션은 매력처럼 작동합니다. 감사합니다. Gladwell! 두 번째 해결 방법이 작동하지 않는 것 같습니다. (kappa2의 오류 (cbind (as.vector (D), as.vector (M))) : 평가자의 수 2. kappam.fleiss 또는 kappam.light를 시도하십시오. 첫 번째 해결책은 제 목적을 충족시키기에 충분합니다. 다시 한번 감사드립니다. –

+0

나는 투표를하고 글 래드 웰 (Gladwell)을 선택했으나, 15 점 미만 이었기 때문에 공식적으로 공개적으로 이용 가능하지 않다. –

+0

@DavidMaij 위의 수정 된 버전을 사용해보십시오. 하나의 숫자가 변수 당 숫자 대신 합의 정도를 나타내는 것이 유용 할 수 있습니다. – Gladwell