티스토리 뷰

728x90

[ 밑줄/연결 ]

 

다른 여러 사람에 대한 정보, 다시 말해 특징값을 많이 모아 놓은 것을 데이터라고 합니다.

 

데이터를 많이 모아 달라고 한 거예요. 제가 하는 일은 적당한 함수를 출발점으로 해서 이 함수의 모양을 데이터에 맞춰서 미세 조정을 하는 거예요. 그리고 나면 얼마나 예쁜지를 나타내는 함수가 학습되는 거죠. 이처럼 모양이나 관계를 알 수 없는 함수를 학습하는 것을 회귀(regression)이라고 해요..

 

'함수가 이미 주어져 있고 어떤 입력에 대한 함숫값을 구해 보아라'와 같은 문제를 정방향 문제(forward problem)이라고 한다. 이와 다르게, 입력과 출력의 관계가 이미 있고 이 관계와 모순되지 않는 함수를 찾아내는 문제를 역방향 문제(inverse problem)이라고 한다.

이렇게 함수를 찾는 과정을 자동으로 수행하는 것이 머신러닝(machine learing)....사람은 한 눈에 얼추 맞는 함수를 찾을 수 있지만, 컴퓨터는 데이터에 매우 충실한 함수를 찾기 때문에 정밀도가 아주 높다.

 

기본적인 방법은 함수를 결정하는 파라미터를 조금씩 바꿔가면서 그 중 데이터와 가장 부합하는 함수를 찾는 거죠. 모든 데이터를 나타낼 수 있는 함수 하나를 찾는 거예요..

 

머신러닝은.....모든 문제를 맞힐 때까지 몇 번이고 같은 문제를 반복해서 푸는 것이다. 출력이 데이터와 부합하도록 반복해서 파라미터를 조정한다. 정확도를 높이기 위해 파라미터를 반복 조정하는 것이다. 이러한 방법을 최적화 문제(optimization problem)이라고 한다. 

 

가중치(weight)....어떤 특징값이 중요하고 중요하지 않은지를 나타내는 값...

모형의 출력과 데이터가 얼마나 들어맞는지를 알아보기 위해 오차함수(error function)라는 걸 사용하도록 하죠.....이 오차함수 값이 최대한 작아지도록 하는 것이 학습의 목표가 된다. 

 

데이터의 구조나 특징의 유사도 혹은 경향 같은 것을 기준으로 그룹을 나누는 작업인 클러스터링(Clustering)....

 

데이터와 모형의 출력을 맞춰 가는데도 오차가 완전히 사라지지 않는 이유는? 그건 진짜 모형을 알 수 없기 때문...

 

학습 결과에 의해 시냅스의 연결 구조와 결합이 강도가 변화한다는 사실이 이미 실험에서 증명된 바 있다. 

 

다층 신경망은 단순히 목적하는 출력이 되도록 특징값을 조합하고 가중치를 곱해 더해 나가는 것이 아니라, 특징값을 조합하여 또 새로운 특징값을 만들고 다시 새로운 특징 값에서 원하는 출력을 조합해 내는 구조로 되어 있다.

 

복잡한 모형일수록 모형을 데이터에 부합시킬 수 있는 표현력이 늘어나는 건 맞아요...파라미터가 많으니 어떻게든 모형을 데이터에 부합시킬 수 있죠.

 

일단 서로 가까운 셀을 묶어서 이걸 특징값으로 삼는 거예요. 이런 과정을 합성곱(convolution)이라고 하죠

 

 

[ 자평 ]

 

인공지능에 대한 아주 기초적인 이해가 목적이기 때문에 정말 잘 쓴 책이다.

볼츠먼 머신과 CNN 위주로 간단하게 원리를 설명해 주고 있다.

댓글