2011-10-24 3 views
2

:)왜자가 구성 맵에서 반복 횟수가 필요합니까?

내 논문 제안을 변호하는 동안 내 교수 중 한 명이 왜 SOM에서 반복 횟수를 지정해야합니까? 그는 우리가 훈련을 중단 할 수있는 수렴 기준이 있어야한다고 말했다.

그러나 대상 벡터가 없으므로 비용을 최소화 할 수 없다는 것을 알고 있습니다.

제 질문은 첫째, 왜 MAX_ITERATIONS가 필요하며 둘째, 우리가 선택한 반복 횟수가 최적의지도를 제공한다는 것입니다. :(

PS I는 컬러 데이터 세트에 1000 반복 10000 반복을 사용하여 시도 경험을 바탕으로. 10000 반복가 1000 :(

+0

좋은 첫 번째 질문! 그러나 앞으로는 구현 세부 사항 (예 : 사용중인 SOM 라이브러리, 언어, 색상 데이터 세트)을 지정하거나 지정되지 않은 참조를 생략 할 수 있습니다. – zergylord

답변

1

그래서, 둘 다 교수의 더 나은 시각화를 제공하지 않는 것 같다 맞다 : 당신은 반복 횟수와 융합 기준에 하드 캡을 지정해야

융합 기준 - 그 SOMS에서 오른쪽 대상 벡터가없는, 따라서 자율하고 있지만, 그들은 여전히 ​​볼 수 있습니다. 일반적으로 대부분의 감독되지 않은 기계 학습 방법은 unac을 최소화하는 것과 같은 일을 시도하고 수행 할 수 있습니다 분산에 대해 계산하고, 정보 획득을 극대화합니다. 특히 SOM의 경우, 체중 델타를 기준으로 사용했습니다. 즉, 추가 반복이 SOM 가중치를 몇 가지 임계 값 이상으로 변경하지 않으면 반복을 중지하십시오.

반복 캡 - 수렴 기준이 적용 되더라도 SOM이 수렴하지 않는 경우 (단 한 번도 실행하지 않으려는 경우) 하드 캡이 필요합니다. 내 예제 델타의 기준을 사용했다면, 반복 사이에 가중치가 계속 변동하여 기준을 충족시키지 못하는 경우가있을 수 있습니다.

해피 SOMing!

+1

아닙니다. 평소 SOM은 항상 수렴하고 항상 반복 횟수를 정확히 필요로합니다. 학습 알고리즘은 각 반복마다 작고 작아지는 학습률 및 학습 - 반경 매개 변수를 가지므로 가중치의 변화는 점점 작아 질 것입니다 –

0

SOM에서 최소화하기 위해 암묵적으로 목표 비용 함수를 사용합니다. SOM은 다중 차원 스케일링 (MDS)과 유사합니다. 그 목적은 위상 학적 관계를 유지하는 것입니다. 따라서 SOM의 각 반복은 실제로 "소스 공간에서의 두 점의 거리"와 "목표 공간에서의 동일한 두 점의 거리"간의 오차를 최소화하는 것입니다. 단, SOM에서 유사한 점은 대상 공간. 또한 SOM을 클러스터링에 사용할 수있는 방법이기도합니다.

반복 프로세스는 그래디언트 디센트와 동일하게 간주 될 수 있습니다. 2 차 에러 비용 함수를 최소화 할 때, 그것은 또한 최소값에 의해 트랩되기 쉽다. 이는 또한 많은 수의 반복 후에도 SOM이 "꼬임"으로 이어질 수있는 이유를 설명 할 수 있습니다.