예를 들어, 1 백만 데이터 포인트에서 k-means 알고리즘을 실행하고 있습니다. 각 점은 128 차원이고 1000 개의 클러스터가 필요합니다. Wikipedia는 복잡도가 n^(dk + 1) log (n)이라고 말하며, 여기서 d는 차원 수, k 개의 클러스터 수 및 n 개의 인스턴스 수입니다. 8Gb RAM, 2.6GHz Intel Core i5 MacBook Pro에서 실행되는 시간은 어떻게 예측할 수 있습니까? 이 추정치를 계산하는 가장 좋은 방법은 무엇입니까? 이론적으로 계산할 수있는 방법이 있습니까? 아니면 더 작은 세트에 대해 몇 가지 실험을 수행하고 소요 시간을 확인해야합니까?
내가 멈추지 않을 때 알지 못해 몇 시간이나 며칠을 지내기 전에 대략적인 견적을 듣고 싶습니다. 도움을 주셔서 감사합니다. 정말 감사 :).알고리즘 (예 : k-means)이 실행되는 데 걸리는 시간을 어떻게 알 수 있습니까?
ps. 나는 비단뱀 자리를 사용하고있다.
'1M^128k '은 약'10^768000'입니다. 우주 시대 '<10^27' 나노초와 비교하십시오. 분명히 최적의 솔루션을 찾을 수 없습니다. 근사치를 얻어야합니다. – zch
scipy는 실용적인 라이브러리이며 아마도 복잡도가 높은 알고리즘을 사용하지 않을 것입니다. 그런 경우에는 실험이 필요합니다. – zch