나는 가능한 한 Stackoverflow를 통해 es-hadoop/es-spark 프로젝트에서 대량 인덱싱을 사용합니다. 그렇지 않으면 기본 batchsize는 BulkProcessor (5Mb)에 따른 것입니다. 이를 변경하기위한 구성이 있습니까?Elasticsearch hadoop 대량 일괄 처리 크기를 구성
코드에 JavaEsSparkSQL.saveToEs(dataset,index)
을 사용하고 있으며 성능을 조정하는 데 사용할 수있는 구성이 무엇인지 알고 싶습니다. 이것은 데이터 집합의 분할과도 관련이 있습니다. 배치에 대한 그들의 구성 페이지 (바이트)
es.batch.size.bytes (default 1mb)
크기에