데이터 처리를위한 모범 사례를 찾고 있습니다. 그래서, 그것이 내가 지금까지 얻은 것입니다 : "A"타입의 1.000.000 노드. 모든 "A"노드는 유형 "B"의 1-1000 노드와 유형 "C"의 1-10 노드에 연결할 수 있습니다.큰 데이터 세트 처리 (neo4j, mongo db, hadoop)
저는 neo4j 그래프로 데이터를 가져 오기 위해 RESTful 서비스 (Java, Jersey)를 작성했습니다. 노드 "A"(노드 만, 더 이상 데이터가없는 노드 만)를 가져온 후 neo4j db가 ~ 2.4GB로 증가했음을 알았습니다.
neo4j에 추가 필드 (이름, 설명, ...)를 저장하는 것이 좋은 생각입니까? 또는 데이터 액세스를 위해 키/값 조합을 사용하도록 mongoDB/hadoop을 설정해야합니까?
내 의견으로는, 1 백만 노드/수 GB는 하둡으로가는 것을 보증하기에 충분하지 않습니다. –