:대부분의 교육이 평균 0과 표준 1의 데이터에있는 경우 심층 학습이 실수 또는 수치 정밀도 오류를 겪지 않는 이유는 무엇입니까? 질문에 영감을
Why do different methods for solving Xc=y in python give different solution when they should not?
때문에, 포인트를 떠 행렬을 반전하고[-1,1]
에 값을 제한에 수치 문제를 갖고있는 것 같아요
, 제가 궁금 지금 왜 플로트에서 깊은 학습 고통을하지 않거나 대부분의 훈련이 평균 0과 표준 1의 데이터에있는 경우 숫자 정밀도 오류가 발생합니다 (데이터의 대부분이 해당 범위에 들어가기 위해 사전 처리되었다고 생각합니다. 배치 정규화의 높은 사용). 깊은 학습은 다항식을 매우 높게 만들어서 훈련을하지 않기 때문에입니까, 아니면 깊은 학습이 일반적으로 좋은 이유는 무엇입니까? SGD에 특별한 것이 있습니까? 아니면 (인기있는) 활성화 함수, relu, elu 등이 (높은 차수의 다항식과 비교하여) 수치 적으로 불안정하지 않습니까? 아니면 GPU 교육이 부동 소수점 표현을 모두 피할 수 있습니까? 또는 왜 심화 학습 훈련이 수치 적으로 안정적입니까?