많은 수의 반복에도 큰 배열을 곱할 수 있습니다.파이썬에서 대형 배열을 곱하면
나는 약 1500 길이의 배열로 모델을 훈련하고 거의 1000000 시간 동안 3 번의 곱셈을 수행 할 것이다.
나는 DASK 발견 나는 정상적인 NumPy와 방법을 비교하려고하지만 난 빨리 NumPy와 발견x = np.arange(2000)
start = time.time()
y = da.from_array(x, chunks=(100))
for i in range (0,100):
p = y.dot(y)
#print(p)
print(time.time() - start)
print('------------------------------')
start = time.time()
p = 0
for i in range (0,100):
p = np.dot(x,x)
print(time.time() - start)
0.08502793312072754
0.00015974044799804688
내가 또는 잘못된 DASK를 사용하고 그것은 그렇게 질색입니다.
나는 덩어리를 늘렸고, 최고는 0.054로 여전히 Numpy와는 거리가 멀다. 당신이 말한 것처럼, Numpy는 이미 병렬 처리되어 있습니다. 자세한 설명을 주셔서 감사합니다. 지금은 더 명확합니다. –
예, 작은 빠른 문제의 경우 병렬 컴퓨팅 프레임 워크의 오버 헤드가 일반적으로 도움이되는 것보다 많습니다. – MRocklin