아래 템플릿을 사용하여 cloudformation을 사용하여 작업 정의를 만듭니다. 나는이 템플릿을 업로드 할 때 나는 오류를 얻고있다 : "템플릿 유효성 검사 오류 : 잘못된 템플릿 속성 또는 속성 [JobDefinition]" 내가 내 템플릿에 뭔가를 그리워 했습니까? {
"JobDefinition": {
"Type": "AWS::Ba
출력값을 선언하는 작업 대기열 템플릿을 만들어서 다른 대기열로 작업 저장을 가져올 수 있습니다. 템플릿 : {
"Resources": {
"MyJobQueue": {
"Type": "AWS::Batch::JobQueue",
"Properties": {
"ComputeEnvironmentOrder": [
{
안녕하세요, AWS를 처음 사용하고 S3 Bucket에서받은 입력 파일을 기반으로 Amazon RDS DB에서 대량 업데이트를 처리해야하는 유스 케이스가 있습니다. 이 유스 케이스에서 내 솔루션의 유효성을 검사하고 내가 틀렸다면 수정하십시오. S3 버킷에 파일 도착시 AWS 람다 함수를 사용하여 EC2를 사용하여 처리를 수행하고 RDS에 업데이트를 쓰는 A
CSV 파일에서 많은 양의 데이터를 처리하는 데 AWS 단계 함수를 사용하려고하지만 이것이 최선의 선택인지는 확실하지 않습니다. 사례 : - 많은 양의 줄 (50K와 같이)이있는 CSV를 업로드하고 각 줄마다 작은 특성을 처리합니다 (각 특성은 람다 함수로 처리됩니다). 현재 CSV의 각 줄을 DynamoDB에 삽입하고 각 줄마다 람다 함수를 시작하는 것이
AWS 배치 작업과 관련된 세부 사항이 얼마나 오래 유지되는지 알고 싶습니다. 예를 들어, Kinesis limits page은 각 스트림이 기본적으로 7 일까지 연장 가능한 24 시간 보존 기간으로 설정되는 방식을 설명합니다. AWS Batch limits page에는 작업에 허용되는 최대 시간 또는 허용 개수에 대한 세부 정보가 포함되어 있지 않습니다.
저는 AWS Batch를 처음 접했습니다. 배치 구현의 이전 경험이 있습니다. 나는 this 링크를 통해 사라와 AWS에 배치를 구성하는 방법을 얻었다. 내가 들어오는 파이프로 구분 된 파일을 읽어 파일에서 데이터를 판독, 그 데이터에 어떤 변환을 수행 한 다음 S3에서 별도의 파일로 각 행을 저장할 간단한 배치를 구현해야한다. 하지만 내가 구현 부분을 볼