누군가이 모든 파일을 처리 한 이유를 설명 할 수 있습니까? 그게 날 미친 운전. 감사합니다 private void HP3BackgroundWorker_DoWork(object sender, DoWorkEventArgs e)
{
BackgroundWorker hp3worker = (BackgroundWorker) sender;
나는 이것이 일반적인 방법으로 가능하다고 생각하지 않지만,이 장황한 코드와 같은 것 : For Each s As String In myStringList Step -1
//' Do stuff here
Next
기존 For..Each 루프보다 먼저 myString 오브젝트를 반전시켜야 할 것입니다.
나는 목록 (HTML 표 행, Beautiful Soup로 추출 됨) 목록을 가지고 있으며 목록을 반복하고 짝수와 홀수 요소 (색인을 의미 함)를 가져와야합니다. 각 루프가 실행됩니다. 내 코드는 다음과 같습니다 for top, bottom in izip(table[::2], table[1::2]):
#do something with top
이것은 빠른/쉬운 것입니다. 맞춤 템플릿 태그를 통해이 문제를 해결할 수있는 방법을 알고 있지만, 내가보고있는 다른 방법이 있다면 궁금합니다. 나는 내 블로그를 위해 일종의 갤러리 기능을 만들었고 모든 갤러리에 페이지 목록을 만드는 갤러리 목록 페이지가 있습니다. 이제는 각 갤러리에 20 개의 이미지가있는 경우 5 개의 게시물에 페이지를 매기면 100 개의
단일 웹 요청의 경우 외부 시스템에서 1000 개가 넘는 데이터 행을 가져오고 데이터를 표시하기 전에 더 나은 표현 형식으로 데이터의 형식을 다시 지정해야합니다 웹 페이지의 최종 사용자에게 ASPX 페이지의 데이터를 반복 할 때 CPU의 95 % 이상을 사용하는 하드 루프 (또는 꽉 루프)가 생성됩니다. CPU 스파이크를 피하고 프로세스를 가능한 빨리 완료
int x;
int iHateDataRows = dt.Rows.Count + 2;
System.Data.DataRow[] dra = new System.Data.DataRow[1000];
for(x = 0; x < iHateDataRows; ++x)
그래서 이것은 분명히 루프입니다. 그러나 제 문제는 ++x이 도달 할 수 없다고 말합니다. 이것이
내가 코드를 단순화하기 위해 노력했다 : header = []
header.append(header1)
header.append(header2)
header.append(header3)
header.append(header4)
header.append(header5)
he
이것은 내가 파고있는 개인 프로젝트입니다. 기본적으로, 나는 StreamReader를 사용하여 텍스트 파일 (20MB에서 최대 1GB까지)을 파싱한다. 성능은 꽤 견고하지만 여전히 ... 바이너리로 구문 분석하면 어떤 일이 생길지 가려워졌습니다. 오해하지 마라, 나는 성급하게 최적화하지 않는다. 나는 defintely 단지 "볼"목적에 마이크로 최적화하고