본문 바로가기

전결합층4

41번째 이야기 - CNN, 합성곱층, 풀링층, 전결합층 ● 정리해봅시다. CNN은 합성곱층, 풀링층, 전결합층으로 구성됩니다. 합성곱층은 특징 추출을 담당하며, 풀링층은 차원을 축소하여 신경망의 규모를 줄여줍니다. 전결합층은 추출된 특징 정보를 활용해 최종적으로 분류를 수행합니다.● 축하합니다. 드디어 합성곱신경망의 구조와 각각의 층들이 하는 일에 대해 개념적으로 파악하게 되었습니다. 여기까지의 코드는 다음과 같습니다.  from keras.models import Sequential  from keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout  model = Sequential()  model.add(Conv2D(32, kernel_size=(3, 3), strides=1, padding=.. 2024. 6. 2.
40번째 이야기 - 전결합층과 드롭아웃, MLP, 과적합 방지 에서의 전결합층과 드롭아웃, 신경망의 개선>● 합성곱 신경망(CNN)의 합성곱층(특징 추출)과 풀링층(차원 축소)을 거치게 되면 아래의 이미지와 같이 길고 깊게 이어진 빨대 모습의 추출된 특징을 얻게 됩니다.   ● 이제 이 추출된 특징을 가지고, 실제로 이미지를 분류해야 합니다. ● 분류를 위해서 특별한 구조가 필요한 것은 아닙니다. 분류는 이전에 살펴보았던 일반적인 신경망 구조인 MLP(전결합층)으로도 충분하니까요.● 사실 MLP는 분류에 매우 효과적입니다. 잠시 이미지 인식을 위해 합성곱층을 사용한 이유를 복습해볼까요?● MLP(전결합층)에서는 2차원의 이미지를 다룰 수 없기 떄문에 1차원의 벡터로 변환해주어야 하는 불편함이 있었습니다. 즉, 2차원의 이미지를 다루지 못한다는 것은 공간 정보의 손실.. 2024. 6. 2.
39번째 이야기 - 합성곱층과 풀링층의 입력과 출력 합성곱층과 풀링층의 입력과 출력을 정리해볼까요?>● 입력 이미지가 합성곱 층을 통과하면 크기(가로×세로)는 그대로이지만, 이미지의 깊이가 늘어납니다. ● 말로는 잘 이해가 되지 않으니, 그림으로 정리해보도록 하겠습니다. ● 28×28 크기의 입력 이미지를 필터의 개수 4, 스트라이드 및 패딩이 1로 설정된 합성곱층(Conv_1)을 통과하면 출력이미지는 28×28 크기로 동일하지만, 이미지의 깊이는 4(28×28×4)가 됩니다. 이 출력이 하이퍼파라미터는 동일하게 유지한 채, 12개의 커널(=필터)를 만나 합성곱 연산을 거치면 다음과 같이 28×28×12가 되죠. ● 늘어난 깊이만큼 합성곱 연산을 통해 수용 영역은 넓어지게 됩니다. 즉, CNN은 합성곱 층에서 늘어난 깊이와 수용 영역 만큼 특징 학습이 이.. 2024. 6. 2.
33번째 이야기 - 합성곱 신경망, CNN, 합성곱층, Convolution layer ● 오랜만에 뵙습니다. 합성곱 신경망(CNN)의 구조에 대해 간단히 살펴보도록 하겠습니다. ● 일반적인 신경망의 학습은 입력층에서 은닉층을 거쳐갈수록 점점 복잡한 특징들을 학습해나갑니다. ● 기본 특징(모서리나 직선 등)에서부터 조금 더 복잡한 패턴(원, 정사각형) 그리고 더 복잡한 추상화된 패턴(고양이 수염, 얼굴의 부분, 자전거 바퀴 등)에 이르기까지 말이죠. ● 합성곱 신경망 또한 이러한 일반적인 신경망의 학습과 별반 다르지 않게 진행됩니다. 오차를 계산하여 오차만큼 역전 파한 후, 가중치를 조정해가는 학습의 과정도 물론 동일합니다. ● 단, 하나! 일반 신경망에서는 특징의 학습을 전 결합층(Fully-Connected layer = MLP)에서 했다면, 합성곱 신경망에서는 합성곱층(Convolut.. 2022. 11. 21.