현재로서는 현재 날짜와 시간에 대해서만 Amazon S3에서 Amazon Redshift로 AWS 데이터 파이프 라인을 사용하여 데이터를 복사했습니다. S3에서 Redshift로 30 분마다 데이터를 복사하고 싶습니다. 또한 마지막으로 처리 된 S3 파일 이름은 다른 Redshift 테이블에 저장됩니다.S3의 마지막으로 처리 된 파일을 Redshift 데이터베이스에 저장하는 방법
누군가가이 질문에 답변 할 수 있습니까?
현재로서는 현재 날짜와 시간에 대해서만 Amazon S3에서 Amazon Redshift로 AWS 데이터 파이프 라인을 사용하여 데이터를 복사했습니다. S3에서 Redshift로 30 분마다 데이터를 복사하고 싶습니다. 또한 마지막으로 처리 된 S3 파일 이름은 다른 Redshift 테이블에 저장됩니다.S3의 마지막으로 처리 된 파일을 Redshift 데이터베이스에 저장하는 방법
누군가가이 질문에 답변 할 수 있습니까?
RedshiftCopyActivity
data pipeline object을 정확하게 사용할 수 있습니다. RedshiftCopyActivity
개체의 schedule
필드는 30 분 간격으로 실행될 수있는 data pipeline schedule object을 허용합니다. 모든 AWS 리소스 정보 (Redshift 데이터 노드, EC2 인스턴스, S3 버킷 & 키)를 포함하여 full pipeline in JSON을 정의해야합니다. JSON 템플릿의 소스 데이터 파일에 대한 파일 경로는 데이터를 생성하는 모든 방법으로 30 분마다 덮어 쓰는 정적 파일을 가리킬 수 있습니다.