partitioning

    1

    1답변

    나는 100 개의 파티션을 가진 하나의 테이블을 가지고있다. 그리고 나는 데이터 파티션을 현명하게 읽는 절차를 가지고있다. I 프로 exec xyz('P0'); 가 500K 행에 대해 실행로 3 분 걸리는 경우를 실행한다고 가정 P0 1 개 파티션이다. 하지만 100 개 세션을 생성하고 그것은 왜 그 일어나는 사람이 설명 할 수 50M 행 1 시간 소요

    1

    2답변

    Postgres DB의 내 테이블에 많은 행이 있습니다. 나는 20 분마다이 테이블에 삽입하고, 오래된 항목을 매일 지우고 그 중에서 2 개의 선택 옵션 만 있습니다. 그래서 시간을 최적화하고 선택을 기다리고 싶습니다. 첫 번째 선택은 가지입니다 : Select * from table where item=<item_id> 둘째 가지입니다 : Select

    0

    2답변

    여러 날 동안 데이터가 포함 된 csv 파일에서 날짜 분할 테이블을로드하는 방법을 이해하려고합니다. 필자는 정확한 열을 올바른 파티션에 자동으로로드하는 것을 담당하는 특정 열에 대한 파티셔닝과 함께 관계형 데이터베이스와 유사한 기능을 찾고 있습니다. bigquery를 사용하면 파티션을 동적으로 할당하는 유일한 방법은 CSV에서 모든 레코드를 순차적으로로드해

    1

    1답변

    큰 파티션 테이블이있어서 각 파티션에 얼마나 많은 항목이 있는지 알아 내려고 일 파티션입니다. 지금까지 스크립트에서 for loop을 사용했지만 더 간단한 방법이 있어야합니다. Google이 나를 도와주지 않았습니다. 누구든지 올바른 쿼리를 알고 있습니까? 감사

    0

    1답변

    RepositoryItemReader를 사용하여 데이터베이스에서 데이터 세트를 읽습니다. 각 페이지의 데이터를 분할하고 TaskExecutor를 사용하여 개별 스레드에서 해당 파티션을 실행하고 싶습니다. 나는 이것을 달성하기 위해해야 ​​할 일에 관해서는 단서가 없다. 모든 지침/입력 사항을 크게 높이 평가할 것입니다.

    0

    1답변

    Google Bigquery에서 파티션 기능을 사용하려고합니다. 테이블을 입력하는 로그가 테이블에 늦게 반영된 것으로 보입니다. 로그가 13시에 발생한 경우 테이블에 약 15 분의 차이가 있습니다. 분할 된 테이블에 실시간을 적용 할 수있는 방법이 있습니까? ?

    0

    1답변

    배열의 첫 번째 절반에있는 각 요소가 배열의 두 번째 절반에있는 각 요소보다 작도록 배열을 분할하려고합니다. 이것은 빠른 정렬에서 사용되는 것과 동일한 파티션 알고리즘입니다. 어떤 이유로 배열 A = [2, 8, 7, 1, 3, 5, 6, 4]을 사용할 수 있지만 A = [7, 3, 6, 1, 9, 5, 4, 8]은 작동하지 않습니다. def partiti

    -1

    1답변

    내 pl \ sql 프로세스에서 "alter table exchange parition .."실행 중 일부 테이블에 이 있습니다. 이 조작 중에 다른 사용자가 목표 테이블에 액세스하려고 할 수 있습니다. 해당 테이블에서 선택 쿼리를 실행 한 프로세스 중 하나 인이 오류가 발생했습니다 : ORA-08103 개체가 더 이상 존재하지 않습니다. '개체 또는보기가

    0

    1답변

    봄 부팅시 비동기 태스크 실행자을 사용하여 청크 크기가 1000이고 그리드 크기가 10 만인 내 데이터를 파티셔닝하려고합니다. 데이터베이스에서 특정 파티션 된 데이터를 가져 오기 위해 Item Reader 이전 단계의 StepExecution을 사용하여 Partitioner Class에서 파티션 된 데이터의 시작 및 끝 인덱스를 가져 왔습니다. 문제는 하나

    0

    1답변

    나는 수년간 (실제로 1991 년 이후 다양한 형태로) 실행 되어온 데스크톱 데이터베이스 애플리케이션을 대체하기 위해 Grails 애플리케이션을 개발하고 있습니다. 25 년 전의 판매가 포함 된 판매 테이블이 있습니다. 내가 대부분의 시간에 관심이있는 것은 판매 활동 일뿐입니다. 아마도 한 달 정도 거슬러 올라갈 것입니다. 엄청난 양의 오래된 데이터에 의해