2013-08-29 5 views
0

30000 개의 변수와 1700 개의 컨 스트레인 트를 사용하여 모델을 최적화하려하지만 좀 더 많은 제약을 가하면이 오류가 발생합니다.큰 데이터를 사용하여 선형 프로그래밍 (lpSolve) 오류가 발생했습니다.

n<-lp ("max", f.obj, f.con, f.dir, f.rhs)$solution 
Error: cannot allocate vector of size 129.9 Mb 

저는 32 비트, 2GB 램을 사용하고 있습니다. 대형 데이터 세트를 사용하여 모델을 작업하고 최적화하려면 어떻게해야합니까?

+0

문제가 어디서 왔는지에 따라 을 작은 문제로 분해 할 수 있습니다. 예를 들어 선형 최적화 프로그램의 경우 확률 적 최적화 문제에서 나온 ([progressive hedging] (http://mpc.zib.de/index.php/MPC/article/download/85/39)). –

답변

1

그건 현대적인 표준에 의한 작은 기계이고, 아주 작은 문제입니다. 짧은 대답은 당신이 더 많은 RAM을 가진 머신에서 실행되어야한다는 것입니다. R이 일반적으로 130 MB 벡터를 할당 할 수 없다는 것은 문제가 아니라는 점에 유의하십시오. 이는 특정 시스템의 메모리가 부족하다는 것입니다.

16GB RAM이 장착 된 컴퓨터에서 R 3.0의 64 비트 인스턴스를 실행하고 도움이되는지 확인해보십시오.

클라우드에서 컴퓨터를 돌리고 원격으로 RStudio를 사용하면 새 컴퓨터를 구입하는 것보다 훨씬 저렴할 수 있습니다.