1
1 : 내 음 이항 모델 모두 NaN이 이것처럼 제조 dnbinom에서는 (Y, 뮤 = (μ)의 크기 = K = TRUE 로그) NaN이이
내 코드를 생성 :
# data
x <- c(0.35,0.45,0.90,0.05,1.00,0.50,0.45,0.25,0.15,0.40,0.26,0.37,0.43,0.34,0.00,0.11,0.00,0.00,0.00,0.41,0.14,0.80,0.60,0.23,0.17,0.31,0.30,0.00,0.23,0.33,0.30,0.00,0.00)
y <- c(1,10,0,0,67,0,9,5,0,0,0,82,36,0,32,7,7,132,14,33,0,67,11,39,41,67,9,1,44,62,111,52,0)
# log-likelihood function
negbinglmLL = function(beta,gamma,k) {
mu= exp(beta+gamma*x)
-sum(dnbinom(y,mu=mu, size=k, log=TRUE))
}
# maximum likelihood estimator
model <- mle2(negbinglmLL, start=list(beta=mean(y), gamma= 0, k=mean(y)^2/(var(y)-mean(y))))
이러한 경고의 의미는 무엇이며, 심각한 문제인 경우 어떻게해야합니까?
답변 해 주셔서 감사합니다. 첫 번째 대안을 사용하기로 결정했습니다. model <- mle2 (negbinglmLL, start = list (베타 = 평균 (y), 감마 = 0, k = 평균 (y)^2/(var (y) -man (y))), 방법 = "L-BFGS-B", 하위 = c (베타 = -Inf, 감마 = -Inf, k = 0), 상 = c (베타 = Inf, 감마 = Inf, k = Inf)) –
유일한 문제는 method = L-BFGS-B를 사용할 때 계수의 표준 오차가 glm.nb 함수를 사용하여 얻은 것과 상당히 다르다는 것입니다. 당신은 옳았습니다, 나는 glm.nb를 사용하지 않을 것이기 때문에 로그와 같은 함수에 용어를 추가하려고 합니다만,이 간단한 경우에는 유사한 결과를 기대하고있었습니다. –
흠, "상당히 다른"의미는 무엇입니까? 'mle2'와'L-BFGS-B'와'glm.nb'을 비교하면, 나는 절편에 대해 0.445와 0.460의 표준 오차를 얻었고, 0.266과 0.249는 기울기에 대한 표준 오차를 얻었습니다 ... 여러분이 가진 오차의 크기입니다 걱정? 그들은 "비슷한"것 같습니다 ... –