2017-03-01 4 views
0

내가 읽은 것은 출력이 입력이고, 관찰을 재구성하려고 할 때 오류가 발생하면 변칙이라고합니다. 그건 나에게 의미가있다. 내가 겪고있는 문제는 다음과 같습니다.제게는 자동 엔코더를 설명해주세요.

나는 감독 방법에 익숙하므로 여기에 제가 생각합니다. 일반적으로 모델을 만들 때 일반적으로 많은 기능을 가진 관찰 결과가 있습니다. 이 기능들이 어떻게 결과와 관련되는지를 배웁니다.

자동 엔코더의 경우 각 관측치가 n-1 피쳐를 사용하여 나머지 피쳐를 예측하는 것이 사실입니까? 모델은 숨겨진 구조를 가정하고 생성 된 다음이를 다시 생성하려고 시도합니다.

그냥 조금 혼란, 감사

답변

0

내가 읽은 것은 출력이

는 엄밀히 말하면 입력이 말한다, 우리는 출력이 "가까운"처럼되고 싶어요 입력. 기계 학습에서, 우리는 손실 함수 (예를 들어, 크로스 엔트로피, L2- 놈)를 가지며, 입력에 대한 출력의 "더 가까운"것은 손실이 적다. 그러나 치수과 동일하고입니다. 오류가 관찰을 재구성하려는 경우

그때는 autoencoders에서

변칙적 인, 숨겨진 층의 뉴런의 수는 입력 층의 뉴런의 수보다작다. 이것에 비추어, 정보의 일부는 재건 중에 없어집니다. 자동 인코더를 들어

는 각 관찰 N-1 기능

n은 무엇을 사용한다는 사실이다? 숫자가 입력 값보다 작 으면 숨겨진 레이어에 대해 임의의 수의 뉴런을 선택할 수 있습니다.