Python 3.2부터는 병렬 작업을 시작하는 데 concurrent.futures
을 사용할 수 있습니다.
체크 아웃이 ThreadPoolExecutor
예 :
http://docs.python.org/dev/library/concurrent.futures.html#threadpoolexecutor-example
그것은 HTML을 검색 할 스레드를 생성합니다 그들이 수신 될 때 응답에 역할을합니다.
import concurrent.futures
import urllib.request
URLS = ['http://www.foxnews.com/',
'http://www.cnn.com/',
'http://europe.wsj.com/',
'http://www.bbc.co.uk/',
'http://some-made-up-domain.com/']
# Retrieve a single page and report the url and contents
def load_url(url, timeout):
conn = urllib.request.urlopen(url, timeout=timeout)
return conn.readall()
# We can use a with statement to ensure threads are cleaned up promptly
with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor:
# Start the load operations and mark each future with its URL
future_to_url = {executor.submit(load_url, url, 60): url for url in URLS}
for future in concurrent.futures.as_completed(future_to_url):
url = future_to_url[future]
try:
data = future.result()
except Exception as exc:
print('%r generated an exception: %s' % (url, exc))
else:
print('%r page is %d bytes' % (url, len(data)))
위의 예는 스레딩을 사용합니다. 오히려 스레드보다, 또한 프로세스의 풀을 사용하는 유사한 ProcessPoolExecutor
있습니다 :
http://docs.python.org/dev/library/concurrent.futures.html#processpoolexecutor-example
import concurrent.futures
import urllib.request
URLS = ['http://www.foxnews.com/',
'http://www.cnn.com/',
'http://europe.wsj.com/',
'http://www.bbc.co.uk/',
'http://some-made-up-domain.com/']
# Retrieve a single page and report the url and contents
def load_url(url, timeout):
conn = urllib.request.urlopen(url, timeout=timeout)
return conn.readall()
# We can use a with statement to ensure threads are cleaned up promptly
with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor:
# Start the load operations and mark each future with its URL
future_to_url = {executor.submit(load_url, url, 60): url for url in URLS}
for future in concurrent.futures.as_completed(future_to_url):
url = future_to_url[future]
try:
data = future.result()
except Exception as exc:
print('%r generated an exception: %s' % (url, exc))
else:
print('%r page is %d bytes' % (url, len(data)))
Way Overkill. 내가 필요한 것은 스크립트 내에서 동시 http 호출이다 (커맨드 라인 등에서 프로세스를 호출 할 필요가 없다). 콜백 기능 만 있으면되지만 파이썬에서는이 프로세스를 찾을 수 없습니다. 더 많은 연구가 urllib2를 이끌고 있습니다. – kasceled
잔인 함? 스레드는 명령 행에서 프로세스를 호출하는 것과 아무런 관련이 없습니다. – Falmarri
tippytop, 물론 운송을위한 urllib2 .. 그러나 당신은 여전히 그들을 병렬로 스폰 할 필요가 있습니다. 스레딩, 멀티 프로세싱, concurrent.futures 또는 asynch i/o 기반 솔루션을 수행 할 수 있습니다. –