본문 바로가기

합성곱 신경망3

43번째 이야기 - 데이비드 허블, 토르스텐 위젤, 네오코그니트론, neocognitron ● 사실, 합성곱 신경망의 아이디어는 1950년대 데이비드 허블과 토르스텐 위젤로 거슬러 올라갑니다.  ● 이 둘은 신경생리학자인 쿠플러 박사의 존스홉킨스 대학 연구실에서 만나게 되었고, 시각 피질에 관한 연구를 진행합니다. 고양이 뇌에 칩을 꼽아 시각 피질이 어떻게 반응하는지 연구하여 1981년 노벨 생리학상을 수상했습니다.● 그들은 연구결과 도형의 모형에 따라 특정 부위의 시각피질이 각각 다른 부분들이 반응하는 것을 확인하게 됩니다. 즉, 동물의 시각피질은 망막에 맺히는 여러 상들을 다른 여러 신경 뇌세포들이 반응해서 합쳐져 시각을 이룬다는 점을 알게 된 것이죠.● 즉, 분해해서 다르게 특징을 추출한 다음에 나중에 합해서 생성된 이미지를 보게 된다는 것입니다. 바로 이 지점이 합성곱 신경망의 지역적 .. 2024. 6. 2.
42번째 이야기 - 합성곱 신경망, CNN, 비정형 데이터, ● 이제껏 꽤나 긴 호흡으로 합성곱 신경망(CNN)을 살펴보았습니다. ● 네, 다른 건 몰라도 합성곱 신경망이 이미지 인식을 잘하는 딥러닝 기법의 신경망이라는 건 잘 알겠습니다.● 그런데 말입니다. 합성곱 신경망이 이미지 인식을 잘 한다는 것은 무엇을 의미하는 것일까요? ● 물론 본래 이미지가 갖고 있는 정답을 잘 예측하는 것이라 할 수 있습니다. ● 컴퓨터는 비정형 데이터인 이미지를 픽셀값의 수치로 인식합니다. ● 아래 그림과 같이 픽셀값으로 이미지를 인식하게 되면 이미지의 위치가 달라지거나 회전하거나 관점(Point of view)을 달리하거나, 크기를 달리하거나 조명(조도)에 변화를 주면 같은 사물의 이미지라 하더라도 완전히 다른 것으로 인식할 수 밖에 없습니다.     ● 그러나 합성곱 신경망은 .. 2024. 6. 2.
33번째 이야기 - 합성곱 신경망, CNN, 합성곱층, Convolution layer ● 오랜만에 뵙습니다. 합성곱 신경망(CNN)의 구조에 대해 간단히 살펴보도록 하겠습니다. ● 일반적인 신경망의 학습은 입력층에서 은닉층을 거쳐갈수록 점점 복잡한 특징들을 학습해나갑니다. ● 기본 특징(모서리나 직선 등)에서부터 조금 더 복잡한 패턴(원, 정사각형) 그리고 더 복잡한 추상화된 패턴(고양이 수염, 얼굴의 부분, 자전거 바퀴 등)에 이르기까지 말이죠. ● 합성곱 신경망 또한 이러한 일반적인 신경망의 학습과 별반 다르지 않게 진행됩니다. 오차를 계산하여 오차만큼 역전 파한 후, 가중치를 조정해가는 학습의 과정도 물론 동일합니다. ● 단, 하나! 일반 신경망에서는 특징의 학습을 전 결합층(Fully-Connected layer = MLP)에서 했다면, 합성곱 신경망에서는 합성곱층(Convolut.. 2022. 11. 21.