본문 바로가기

출력층2

40번째 이야기 - 전결합층과 드롭아웃, MLP, 과적합 방지 에서의 전결합층과 드롭아웃, 신경망의 개선>● 합성곱 신경망(CNN)의 합성곱층(특징 추출)과 풀링층(차원 축소)을 거치게 되면 아래의 이미지와 같이 길고 깊게 이어진 빨대 모습의 추출된 특징을 얻게 됩니다.   ● 이제 이 추출된 특징을 가지고, 실제로 이미지를 분류해야 합니다. ● 분류를 위해서 특별한 구조가 필요한 것은 아닙니다. 분류는 이전에 살펴보았던 일반적인 신경망 구조인 MLP(전결합층)으로도 충분하니까요.● 사실 MLP는 분류에 매우 효과적입니다. 잠시 이미지 인식을 위해 합성곱층을 사용한 이유를 복습해볼까요?● MLP(전결합층)에서는 2차원의 이미지를 다룰 수 없기 떄문에 1차원의 벡터로 변환해주어야 하는 불편함이 있었습니다. 즉, 2차원의 이미지를 다루지 못한다는 것은 공간 정보의 손실.. 2024. 6. 2.
33번째 이야기 - 합성곱 신경망, CNN, 합성곱층, Convolution layer ● 오랜만에 뵙습니다. 합성곱 신경망(CNN)의 구조에 대해 간단히 살펴보도록 하겠습니다. ● 일반적인 신경망의 학습은 입력층에서 은닉층을 거쳐갈수록 점점 복잡한 특징들을 학습해나갑니다. ● 기본 특징(모서리나 직선 등)에서부터 조금 더 복잡한 패턴(원, 정사각형) 그리고 더 복잡한 추상화된 패턴(고양이 수염, 얼굴의 부분, 자전거 바퀴 등)에 이르기까지 말이죠. ● 합성곱 신경망 또한 이러한 일반적인 신경망의 학습과 별반 다르지 않게 진행됩니다. 오차를 계산하여 오차만큼 역전 파한 후, 가중치를 조정해가는 학습의 과정도 물론 동일합니다. ● 단, 하나! 일반 신경망에서는 특징의 학습을 전 결합층(Fully-Connected layer = MLP)에서 했다면, 합성곱 신경망에서는 합성곱층(Convolut.. 2022. 11. 21.