Cloud Storage에 저장된 특정 데이터 저장소 * .backup_info 파일을 수집하고 종류별로 최신 "backup_info 파일로 복사하는 가장 좋은 전략을 찾고 있습니다. 따라서 각 종류의 고정 위치가 있습니다. , 가장 최근의 backup_info 파일이있는 곳.최신 데이터 저장소 백업을 자동으로 유지
gs://MY-PROJECT.appspot.com/latest/Comment.backup_info
기본적으로 Cloud Datastore에 데이터가있는 Google App Engine 앱 (Python 표준)이 있습니다. docs Scheduled Backups에 설명 된대로 자동 및 정기적으로 백업을 수행하기 위해 cron-job을 실행할 수 있으며 수동으로 트리거되는 백업 작업을 실행하는 약간의 Python 코드를 쓸 수도 있습니다 (described in this SO answer). 주어진 종류의 가장 최근 backup_info 파일을 찾고 원하는 위치로 복사/이름 바꾸기 작업을 수행 할 작은 Python cron 작업을 작성할 계획입니다.
어떤 방법 으로든 원래의 백업 위치는 하루 동안 많은 파일과 폴더로 가득 차게됩니다. 특히 특정 종류의 백업이 두 개 이상있는 경우 특히 그렇습니다. gs://MY-PROJECT.appspot.com/
의 예를 들어 내가 발견 할 것이다 :
VeryLoooooongRandomLookingString.backup_info
OtherStringForSecondBackup.backup_info
OtherStringForThirdBackup.backup_info
문자열은 모든 백업 실행을위한 고유 식별자가 될 것으로 보인다. 여기에는 백업의 각 종류에 대한 * .backup_info 파일 목록이 포함되어 있다고 가정합니다.
VeryLoooooongRandomLookingString.Comment.backup_info
OtherStringForSecondBackup.Comment.backup_info
OtherStringForThirdBackup.Comment.backup_info
백업의 모든 종류에 대해. "논평". 그것은이 종류 및이 백업에 대한 실제 백업 데이터의 목록을 포함하고있는 것 같습니다.
datastore_backup_CUSTOM_PREFIX_2017_09_20_Comment/
datastore_backup_CUSTOM_PREFIX_2017_09_20_1_Comment/
datastore_backup_CUSTOM_PREFIX_2017_09_20_2_Comment/
각 백업 및 종류에 대한 데이터 폴더. 여기에 친절한 "Comment"를 위해 9/20에 세 번 백업되었습니다.
- 이
/_ah/datastore_admin/backup.create
를 호출 할 때 명시 적으로 쿼리 매개 변수 (또는 HTTP의 헤더)와 같은 사용자 정의 UID를 지정할 수 있습니다 :내 질문은 데이터 저장소 및/또는 저장 관련이 있습니다?
- 그렇지 않으면 백업이 완료된 후 UID가있는 메시지를 후크 등에 보낼 수 있습니까?
- (1)과 (2)가 불가능한 경우 : 스토리지에서 어떤 종류의 최신 * .backup_info 파일을 찾으려면 어떤 방법이 가장 좋을까요? listbucket()이 필터링을 허용하지 않는 것 같아요. 특정 이름 패턴을 찾는 수백 또는 수천 개의 파일을 반복하는 것이 효율적일 것이라고 생각하지 않습니다.