1
장갑 방법을 기반으로 한 단어 임베딩 모델을 훈련 중입니다. algorith 같은 로거 보여주고 있지만 :장갑을 훈련하는 동안 파일 오버플로 _xxxx.bin이 무엇을 의미합니까
$ build/cooccur -memory 4.0 -vocab-file vocab.txt -verbose 2 -window-size 8 </home/ignacio/data/GUsDany/corpus/GUs_regulon_pubMed.txt> cooccurrence.bin
COUNTING COOCCURRENCES
window size: 8
context: symmetric
max product: 13752509
overflow length: 38028356
Reading vocab from file "vocab.txt"...loaded 145223095 words.
Building lookup table...table contains 228170143 elements.
Processing token: 5478600000
를 장갑의 홈 디렉토리는 overflow_0534.bin
caled 파일로 가득 차 있습니다. 누군가가 모든 것이 잘되는지 알 수 있습니까?
감사합니다.
감사합니다. 그래서 거대한 파일들이 300 차원 이상의 모델들을 훈련시키는 것을 방지하는 방법은? – Nacho
@Nacho'overflow_xxx.bins' 파일은 캐시 파일이므로'cooccurrence.bin' 파일이 생성 될 때 파일을 지울 수 있습니다. 이러한 파일을 피하려면 더 많은 RAM이 작동해야합니다. –