본문 바로가기
인공지능 (AI)

14번째 이야기 - 티칭머신, CAI, 컴퓨터 보조 수업(Computer-Aided Instruction)

by Ψβ⅓ 2022. 9. 25.

사실 연결주의를 잠시 잠재운 마빈 민스키의 기호 주의도 인공지능의 겨울을 막지 못하면서부터 사람들의 관심사와 연구 투자가 확실히 줄어들었습니다. 그러자 이상에 치우친 인공지능보다는 현실에 도움이 되는 실용적인 인공지능 기술로 세간의 관심을 돌릴 필요가 생기게 됩니다. 생각하는 기계보다는 일하는 기계를 만들라!1970년 후반~80년 당시의 모토가 되었죠.

 

1980년대에 컴퓨팅 성능과 알고리즘의 향상이 '속도'에 대단한 향상을 미치기 시작했습니다.

데이터도 조금씩 쌓이게 되면서 머신러닝이 발전할 수 있는 토양이 만들어지게 됩니다.

 

기존의 사람의 사고방식을 포기하자 아이러니하게도 머신러닝을 통해 인공지능 연구에 봄이 찾아온 것이죠.

머신러닝은 그나마 특징 추출에서 사람의 손길이 닿지만, 정말 복잡한 비선형의 문제에서는 효율과 성능이 떨어집니다.

딥러닝은 손도 많이 안가고, 성능까지 좋으니 와~ 한 것이고요!

 

기계(딥러닝)의 방식과 사람의 방식은 매우 다릅니다.

 

현실의 무게가 결국 강 인공지능이 아닌 약인 공지 능 선에서 인공지능을 연구하는 흐름을 만들었다 볼 수 있을 것 같아요.

그 흐름이 현재 머신러닝과 딥러닝까지 온 것이라 할 수 있습니다~

 

https://playground.tensorflow.org/

 

Tensorflow — Neural Network Playground

Tinker with a real neural network right here in your browser.

playground.tensorflow.org

tensorflow

 

이 사이트가 좋은게 신경망에서 각각의 뉴런(노드)마다 어떤 특징을 잡아서 곡선 형태의 구분자를 만들어가는지 시각화를 해준다는 점입니다. 케라스로 코딩하면 이런 거 안 나오고 그냥 숫자만 띡 나오거든요. 구글이 사실 이런 기술을 갖고 있는데, 케라스에는 탑재를 안해주고 있다는 게 타당합니다

 

 

신경망은 사물을 분류하는데 결정적인 역할을 하는 유용한 특징과 그렇지 못한 특징을 어떻게 구별하는 것일까요? 신경망이라고 처음부터 직관적으로 유용한 특징을 발견해내는 것은 결단코 아닙니다. 그저 모든 특징들을 만들어내고, 무작위로 가중치 값을 초기화하여 부여합니다. 이렇게 하고 전파(Propagation)하게 되면 결과 값은 엉망이겠죠? 다시 역전파(Back Propagation)을 통해 오차의 값을 줄이기 위해 가중치의 값을 조정합니다. 이렇게 한 차례(1 epoch)의 학습이 시행됩니다.

이러한 학습의 과정을 반복하다 보면 특징의 중요도에 맞게 가중치의 값이 적절히 조정되게 됩니다. 자주 나타나는 패턴과 규칙은 높은 가중치가 부여되어 유용한 특징으로 자리매김하게 되고, 그렇지 않은 패턴과 규칙은 낮은 가중치가 부여되어 결과 값에 큰 영향력을 행사하지 못합니다.

 

딥러닝

 

그런데 여기서 한 가지 더 궁금한 사항이 생깁니다. 그냥 입력이미지에서 바로 분류하면 되는데 왜 특징을 뽑아내고, 이를 기반으로 분류를 하는 것일까요?

우리는 머신러닝을 컴퓨터로 한다는 것에 주목할 필요가 있습니다. 컴퓨터의 연산 능력은 반드시 한계를 갖고 있습니다. 원하는 결과를 빠르고 정확하게 얻기 위해서 우리는 계산 복잡도를 줄여줄 필요가 있습니다.

특징을 기반으로 분류한다는 것은 결국, 불필요한 정보나 노이즈를 삭제하거나 단순화시킨 후에 필요한 핵심 정보만을 가지고 분류한다는 의미입니다.

 

특징 벡터

만약 사물 인식을 한다고 했을 때, 사물 인식에 진정으로 유용한 정보(특징 벡터)만을 넘긴다면 연산은 훨씬 가볍고, 빨라지게 되면서도 결과도 좋습니다. 특징을 추출하여 차원을 축소하는 과정이 이미지 분류를 위한 CNN(합성곱 신경망)의 핵심인 이유도 바로 여기에 있다 할 수 있습니다.

머신러닝과 딥러닝, 이 둘의 가장 큰 차이점은 무엇이었나요? 그것은 바로 특징 추출의 주체가 사람이냐, 기계(신경망)이냐 하는 것에 있었습니다. 이렇게 이야기를 해보니 머신러닝, 딥러닝 둘 중 무엇이 더 쉬워 보이나요?? 특성 공학의 부담이 덜 한 딥러닝이 머신러닝에 비해 쉬워 보입니다. 하지만 무조건 좋은 건 없습니다.

 

 

<교육과 인공지능의 역사, ITS에 이르기까지>

교육에서 인공지능의 활용은 갈수록 가속화되는 모양새입니다. 특히 영어과에서의 그 활용이 두드러지고 있죠. 번역기뿐 아니라 그래 멀리 등과 같은 인공지능 기반 어플을 비롯해 인공지능 스피커+회화 실력을 판별하는 모델을 탑재한 AI 튜터에 이르기까지 그 활용도가 점차 확장되고 있습니다.

최근에서야 인공지능을 활용한 교육이 화두가 되었다고 생각할 수 있겠지만, 사실 교육과 인공지능의 역사는 대단히 숙성되었다 할 수 있습니다. 그렇다면 이번 글에서는 교육에 인공지능(기계)을 접목하고자 한 시도들과 그 속에 담긴 핵심 아이디어는 무엇인지 살펴보도록 하겠습니다.

 

1920년 시드니 프레시는 최초의 교수 기계 즉, 티칭 머신을 만들었습니다. 이 기계는 손다이크의 효과의 법칙에 기반한 기계로 학습의 효과를 증진시키기 위해서는 즉각적인 피드백이 필수적이라는 아이디어를 구현하기 위한 기계였습니다. 원래 자체 채점 기계로 개발되었고, 목적상 학생들에게 문제를 맞았는지 틀렸는지만 알려주었지만, 나중에는 피드백에 더 많은 설명자료를 포함해서 제시하였고, 이를 통해 실제로 학생들을 가르칠 수 있는 능력을 보여주었습니다.

시드니 프레시와 티칭 머신

시드니 프레시(1926)은 그의 논문에서 티칭 머신은 교사의 부담을 덜어주어 교사들이 학생들의 영감과 사고를 자극하는 활동을 할 수 있도록 자유롭게 해 준다고 하였습니다. 지금 우리가 인공지능을 교육에 도입했을 때, 기대하는 순기능에 대한 논리가 거슬러 올라가 1926년의 것이었다니 놀라울 따름입니다.

 

1958년 강화이론으로 잘 알려진 스키너의 연구가 발표됩니다. 스키너 또한 티칭 머신을 개발합니다. 스키너의 티칭머신은 강화 이론의 연장선에서 자동적이고 즉각적인 '강화'를 학습자에게 제공하는데 목적이 있었습니다. 주어진 모범 답안과 학생들의 대답을 즉각적으로 비교할 수 있도록 한 것이 특징입니다.

스키너의 티칭 머신

스키너(1958)는 그의 논문에서 기계 자체는 가르치지는 않지만 개인 교사와 같은 효과가 있다고 하였습니다. 기계는 개인 교사처럼 즉각적인 피드백을 줘서 학생들의 행동을 효과적으로 '강화'하는 기능을 수행한다고 하였죠.

한편 1956년에는 SAKI(the self-adaptive keyboard instructor)라는 것이 개발됩니다. '자가 적응형 키보드 강사'라고 직역되는 이 녀석은 데이터 처리에 차례로 사용되는 카드에 구멍을 뚫는 데 사용되는 수동 장치인 Hollerith 키펀치를 사용하도록 사람들을 교육하도록 설계되었습니다. 1970년대까지 데이터 입력을 위한 일반적인 방법이었기 때문에 그 당시에는 키펀치 연산자(대부분 여성)에 대한 수요가 상당히 많았습니다.

 

SAKI

 

시드니 프레시와 스키너의 티칭 머신은 일종의 '개별화' 혹은 '개인화된 학습 경로'를 약속했지만, 기계는 맞았는지 틀렸는지에만 반응했습니다. 맞았을때만 다음 질문으로 넘어갈 수 있었죠. 하지만 SAKI는 달랐습니다. 이 티칭 머신의 차별점은 바로 '맞춤형'이라는 점이었습니다. 옳고 그름을 평가하는 것 이상을 제공합니다. 정확도, 응답 시간과 같은 학생의 답변을 식별 및 측정하고 그에 따라 다음 질문을 조정하는 식이었던 것이죠.

1980년대 들어 개인용 컴퓨터가 도입됨에 따라 CAI, 즉 컴퓨터 보조 수업(Computer-Aided Instruction)이 널리 사용되기 시작합니다. 오늘날의 CAI는 교육을 촉진하고 개선하기 위한 도구로 컴퓨터를 사용하는 것을 총칭합니다. 컴퓨터 보조 수업은 여러 장점에도 불구하고, 맞춤형 학습을 제공하기 어려운 단점이 있었습니다.

다음글에서는 컴퓨터 보조 수업에서부터 오늘날에 이르기까지 그 나머지 시간들을 살펴보도록 하겠습니다.

댓글