0
메모리 구성에 대한 질문이 있습니다. Spark, Cassandra, Hadoop, Thrift 및 Yarn으로 3 노드 클러스터를 실행 중입니다. hdfs에 파일을 저장하고 싶기 때문에 hadoop을로드했습니다. 내 쿼리를 실행할 때 메모리가 부족하다는 것을 알았습니다. 필자는 4GB 미만으로 실행되도록 카산드라를 제한하는 방법을 파악할 수있었습니다. 거기 hadoop에 대한 설정이 있습니까? 어때요? 난 단지 내 평면 파일을로드하는 데 사용하는 hadoop, 나는 1 또는 2 기가 바이트 그것을 잘 설정해야한다고 생각합니다. 내 상자에는 32GB의 RAM과 16 개의 코어가 있습니다.메모리 구성
고맙습니다! 확인하고 시도해 보겠습니다. –