이 질문은 비 주기적 이기종 또는 이종 데이터 구조의 컬렉션을 데이터 프레임으로 변환하기위한 일반적인 메커니즘에 대한 것입니다. 이것은 많은 JSON 문서 또는 사전 배열 인 큰 JSON 문서의 처리를 처리 할 때 특히 유용 할 수 있습니다. 깊게 중첩 된 JSON 구조를 조작하고 plyr, lapply 등과 같은 기능을 사용하여 데이터 프레임으로 변환하는
누군가가 내가 생각한 것보다 다음과 같은 조합을 계산하는 방법에 대한 아이디어가 있는지 궁금합니다. > library(lubridate)
> df <- data.frame(x=sample(now()+hours(1:3), 100, T), y=sample(1:4, 100, T))
> with(df, as.data.frame(table(x, y)))
저는 R에 상당히 익숙하며 변수 중 하나의 범위 값을 사용하여 두 데이터 프레임간에 부분 집합과 재결합에 대해 질문합니다. x y
[1,] 79.00 19.63
[2,] 79.01 19.58
[3,] 79.02 19.57
[4,] 79.03 19.58
[5,] 79.04 19.60
[6,] 79.05 19.65
[7,
R에서 다음 코드를 최적화하고 싶습니다.이 루프는 실행하는 데 오랜 시간이 걸립니다. 달리기에 시간이 걸리므로 누군가이 코드를 최적화하는 데 도움이 될지 궁금합니다. 감사합니다. SIN_FM5 : 약 300.000 개의 행과 7 개의 열이있는 데이터베이스입니다. # Make Combination
SIN_FM5$Combination=(SIN_FM5$SIN
날짜를 결합으로 사용하는 두 개의 data.table에 가입하고 싶습니다. 음, 정확히 일치하지 않았으며이 경우 가장 가까운 날짜를 찾으려합니다. 내 문제는 SQL에 대한이 게시물과 매우 유사합니다. SQL Join on Nearest less than date data.table 구문은 SQL과 유사하지만 이것을 코딩 할 수는 없습니다. 올바른 구문은 무
감안할 때 데이터를 배 열을 변환합니다. new.names <- sort(unique(DT$x))
DT[, paste0('col', new.names) := lapply(new.names, function(i) DT$x==i), with=FALSE]
을하지만 이것은 아마도 data.table 대안보다 느린 성가신 lapply를 사용하고,이 솔루션은