나는 이미지 마이닝 프로젝트에서 작업하고 있으며 배열 대신 Hashset을 사용하여 URL을 수집하는 동안 중복 된 URL을 추가하지 않으므로 코드 포인트에 도달하여 포함 된 Hashset을 반복합니다. 주요 URL 및 반복 내에서 주요 URL의 페이지를 다운로드하여 Hashet에 추가하고 계속 진행하고 반복되는 동안 모든 검색 한 URL을 제외해야하며 끝나는 모든 URL을 제외 (제거)해야합니다. jpg, URL 카운트의 Hashet가 0에 도달 할 때까지, 질문은 내가 URL (URL을 얻을 수 있음)을 얻을 수있는이 반복에서 끝없는 반복에 직면했다는 것입니다.반복하는 동안 루프에 끼어 들지 않도록하기위한 Hashset 처리
-1 나는 URL의 페이지를 스캔합니다. X 2 - X 페이지의 모든 URL 가져 오기 (필터 적용) 3- 추가 3- unioinwith 사용하여 HashSet의에 대한 URL은 "스캔으로 다시
내가 사전과 키를 사용해야한다 스캔 할 때 URL을 Y 중 하나가, X를 가져올 때 문제가 여기 오는 스캔의 URL X에게
을 제거 "?? 나는 시도하고 여기에 결과를 게시, 질문을 게시 후 미안 해요 내 마음에 온다 ...
나는 하나의 URL을 해결하기 위해 관리하지만, 그것은 다른 URL과 함께 루프를 생성하는 것 같은데, 그래서 어떻게 링크를 제거한 후에도 중복을 피하기 위해 Hashset을 처리하기 위해 ,,, 요점은 분명하다. 모든
while (URL_Can.Count != 0)
{
tempURL = URL_Can.First();
if (tempURL.EndsWith("jpg"))
{
URL_CanToSave.Add(tempURL);
URL_Can.Remove(tempURL);
}
else
{
if (ExtractUrlsfromLink(client, tempURL, filterlink1).Contains(toAvoidLoopinLinks))
{
URL_Can.Remove(tempURL);
URL_Can.Remove(toAvoidLoopinLinks);
}
else
{
URL_Can.UnionWith(ExtractUrlsfromLink(client, tempURL, filterlink1));
URL_Can.UnionWith(ExtractUrlsfromLink(client, tempURL, filterlink2));
URL_Can.Remove(tempURL);
richTextBox2.PerformSafely(() => richTextBox2.AppendText(tempURL + "\n"));
}
}
toAvoidLoopinLinks = tempURL;
}