본문 바로가기
딥러닝

2. Machine learning

by 볼록티 2020. 3. 28.
728x90
반응형

머신러닝에 대한 기본적인 것을 간단히 짚고 넘어간다. 머신러닝에 대한 개념이 있으면 딥러닝을 이해하는데 있어서 좀 더 풍부하게 이해할 수 있다.

 

 

머신러닝은 예측을 하기 위해 데이터로 부터 학습을 하는 알고리즘에 대한 연구를 하는 분야이다. 알고리즘 개발 학문이라고 할 수 있는데, 관측치로 부터 스스로 기계가 내재된 의미를 학습하기를 바란다.

 

과거에서 현재로 머신러닝의 패러다임의 변화는 아래의 그림과 같다.

과거에는 규칙과 데이터를 입력하여 계산하게 하여 답을 구했다면, 현재는 데이터에 미리 답을 주고 답을 해결하는 규칙을 찾아내게 한다. 이러한 규칙 자체를 모델이라고 부르게 되고, 이 모델로 우리는 새로운 데이터에 대해 기계에게 니가 만든 규칙으로 답을 구해보아라 함으로써 예측을 할 수 있게 되는 것이다.

 

머신러닝에 대한 정의는 아래와 같다. 깔끔한 정의이고 유명하다.

 

E, T, P 는 각각 Experience 경험. Task 작업. Performance 성능. 을 나타낸다. 

쉽게 풀어서 해석하면 " 경험(E)을 할수록 주어진 작업(T)에 대한 성능(P)가 향상이 된다면 우리는 이것을 Learning(학습)이라고 한다.

 예를 들면 걸음마를 연습할수록 걷기에 대한 능력이 향상된다면 이 아기는 학습했다고 할 수 있다. 라고 휴리스틱하게 해석하면 쉽다.

 

 

E, T, P에 대해서도 알아보자.

 

먼저 E(경험)은 학습 과정에서 얻게 되는데 이는 supervised(지도) / unsupervised(비지도)로 나뉜다. 말 그래도 지도가 된건지 안된건지 즉, 답을 가르쳐 줬는지 안 가르쳐 줬는지를 나타낸다.

 앞서 말했듯 답을 미리 주는 패러다임으로 변했다고 했는데, 그것은 지도학습에 해당하고 비지도 학습은 소위 말해 데이터들의 패턴을 학습한다 정도로 생각하면될 것 같다.

 

비지도학습의 경우 데이터의 구조적 특징을 학습한다. 조건부 확률로 정의된 수식은 확률변수 $x$에 대하여 $x_{i}$ 이전 까지의 $x_{i-1}$들이 발생했을 때, $x_{i}$가 발생할 확률을 말한다. 즉, 하나를 보기위해 다른 전부들의 패턴을 좍 본다는 것이다. 즉, 확률분포를 학습한다고 하는 것이다. 그렇기 때문에 이 해석이 암시적일수도 명시적인 느낌으로 학습이 될수도 있다는 뜻이다.

 

지도학습의 경우는 hard work인 비지도학습에 비하여 꽤 간단하다. 우리는 학습을 시키기 위해서 입력데이터와 그리고 정답을 같이 제공해주어야한다. $x$값이 주어졌을 때, $y$를 추정하는 것이다. 모델 성능도 측정하기가 용이하다.

 

Task는 Classification, regression, anomaly detection, machine translation, structured output 등이 존재한다. 특히 Classification과 regression에 대해 알아보면 이 둘은 지도학습의 경우에 해당하는데 추정코자하는 $y$의 변수형태가 수치형인지 혹은 범주형인지에 따른다는 것이다. 이러한 Task 별로 여러 알고리즘들이 존재하니 이러한 것들은 다루지 않는다.

 

Performance는 Accuracy, error rate, the average log-probability 등이 있는데 여기서 평균 로그확률이라는 것은 소위 말해 오류가 아주 큰 것이 적은게 좋은지 아니면 실제값과 가까운게 좋은지에 대한 성능 지표를 나타낸다. 자세한 설명들은 검색을 하면 나오니, 넘어가도록 한다.

 

 

 

sangheumHwang. deep learning. [Graduate Class at Seoultech]

728x90
반응형

'딥러닝' 카테고리의 다른 글

binary classification_multi perceptron  (0) 2020.06.20
MNIST 데이터를 활용한 딥러닝 기초  (2) 2020.05.16
4. How Deep learning work  (0) 2020.03.28
3. Generalization  (0) 2020.03.28
1. Introduction to Deep Learning  (0) 2020.03.28

댓글