Django와 Celery를 처음으로 장고 셀러리를 추출합니다. 다음은 내가 지금까지/연락처 /에 ... 나는 다음과 같은 오류가 RuntimeError에 노력 최대 재귀 깊이가 나는 SQS와 메시지 브로커를 사용하고 을 초과 업로드 한 것입니다 . settings.py # Celery
import djcelery
djcelery.setup_loade
장고 셀러리 (Amazon SQS 사용)에 대한 다음 작업이 있습니다. @task
def upload_task(request, **kwargs):
file = request.FILES['file']
ContactCSVModel.import_from_file(file)
return True
이 파일이 성공적으로 내 데이터베이스
CSV 데이터를 매핑 된 모델에 업로드하고 데이터를 채우는 간단한보기가 있습니다. 이 작업은 완벽하지만 지금은 Celery을 통합하려고합니다. 다음 작업을 수행하는 데 정말로 어려움을 겪고 있습니다. 내가 장고와 함께 셀러리를 시도하고 Amazon SQS. 이 작업을 실행 내 view.py의 주요 부분이다 : def upload(request):
저는 Python의 itertools를 통해 많은 제품 목록을 생성하는 프로그램을 가지고 있습니다. 기본적으로 단어의 다양한 조합의 큰 세트. products() 함수를 통해 실행할 여러 세트가 있습니다. 제가하고 싶은 것은 Celery가 각 세트에 다른 Celery Task를 부여한 다음,이를 결국 결합하는 것입니다. 나의 이해는 화음이 이것을하는 방법이
django-celery은 내 개발 시스템에서 로컬로 작업하고 싶습니다. 난 장고, djcelery, cellery 및 브로커 (아마존 SQS)를 실행합니다. 그것은 일을 보내고 단지 일합니다. 로컬로 (예 : 컴퓨터 모두에서) 수행 한 것처럼이 설정을 완료 할 수 있지만 작업을 다른 컴퓨터/공유 작업 등에 배포하려는 경우 어떻게됩니까? 현재 컴퓨터 (Dj
django-nose을 사용하는 django 프로젝트가 있습니다. 프로젝트에 django-celery을 추가하고 싶습니다. 나는 단위 테스트를 사용한다. django-nose와 django-celery 모두 settings.py 파일에 TEST_RUNNER 설정이 필요합니다. 특히 : TEST_RUNNER = 'django_nose.NoseTestSuite
나는 PyCharm를 사용하고 있는데 내 작업이 완료되지 않는 셀러리 작업자 프로세스에 디버거를 연결할 때주의하고이 오류가 콘솔에 기록됩니다 Traceback (most recent call last):
File "<string>", line 1, in <module>
ImportError: No module named pydevd
이 메시지
나는 즉시 셀프 작업을 비동기식으로 만들려고합니다. 비동기 적으로 시작되는 1000 개의 작업이 있고 작업을 실행하기 위해 하나의 celeryd 프로세스 만 실행한다고 가정 해보십시오. 이러한 작업을 처리하기 위해 샐러리가 작성하는 스레드는 몇 개입니까? 셀러 리가 자동으로 작업 대기열을 처리하기 시작하는 스레드가 여러 개있는 경우 주어진 시점에서 100
Heroku에서 django-celery로 실행하는 간단한 작업이 있습니다. 같은 뭔가 : 기원 CSV 파일입니다 @task
Simple_task():
for line in csv.reader(origin):
process_line(line)
process_line(line):
fields = parse_line(line)