패딩2 36번째 이야기 - 케라스, 스트라이드, 패팅, 손실함수, 풀링(pooling) 코드는 함수형태로 되어 있어 개념이해를 먼저 하시는게 여러모로 좋은 듯 합니다. 코드는 케라스를 활용하면 아래 내용으로 인자값 설정만 해주면 됩니다. from keras.layers import Conv2D model.add(Conv2D(filters=16, kernel_size=2, strides='1', padding='same', activation='relu')) ● 스트라이드와 패딩의 목적을 정리해봅시다. 하나는 이미지의 중요 디테일을 놓치지 않고 다음 층으로 전달하기 위함입니다(스트라이드가 1이고, 패딩을 사용하면 이미지 크기를 같게 유지할 수 있음). ● 두 번째는 이미지의 공간적 정보 계산의 부하를 적절한 수준으로 감소시키기 위함입니다. 제로 패딩을 통해 출력의 크기를 유지하면서도 값을.. 2024. 6. 2. 35번째 이야기 - 커널 사이즈, 스트라이드, 패딩, 합성곱 신경망 합성곱 신경망의 합성곱층에서는 어떤 일이 벌어지는 걸까? (커널 사이즈, 스트라이드, 패딩에 관하여)>● 합성곱층은 CNN의 은닉층입니다. 즉, 특징 학습이 이루어지는 곳이죠. 합성곱 필터의 개수(filters)를 늘리면 MLP(다층 퍼셉트론)의 은닉층의 개수를 증가시킨 것과 같으므로, 더욱 복잡한 패턴을 탐지하며 학습할 수 있게 됩니다. ● 합성곱 필터의 개수는 은닉층의 개수를 의미합니다. ● 커널 크기(kernel_size)는 말 그대로 합성곱 필터인 커널의 크기를 의미합니다. 커널은 가중치가 담긴 행렬이며, 입력 이미지 위를 돌아다니면서 특징을 추출하는 역할을 한다고 말씀드렸습니다. 보통 커널 크기(kernel_size)는 합성곱 필터의 크기*높이를 뜻합니다. ● 직관적으로 봤을 때, 커널.. 2024. 6. 2. 이전 1 다음