본문 바로가기
728x90
반응형

수학18

Linear Algebra(5) Linear Algebra(5)에서는 Orthogonal projection, determinant, trace 등에 대해 알아본다. 위 그림은 보통 linear regression에서 자주 보던 그래프이다. 원래 파란점들은 이차원 평면이 점으로 표현이 되었지만, 이를 1 dimension으로 의미있는 저차원으로 표현하여 설명을 할 수 있는데 이를 projection이라고 한다. projection의 정의는 위와 같은데 projection을 다시 한번 수행해도 한번 수행한 것과 같다는 말이다. $x$가 n dimension이고, $b$라는 1 dimension에 표현하고자 하여, $x$에서 $b$로 수직으로 내리꽂는 $\pi_{U}(x)-x$를 내려서 표현하게 된다. 수직이라하면은 왜 가장 길이가 짧고 .. 2020. 4. 26.
Linear Algebra(4) Linear Algebra(4)에서는 Image, Kernel, Affine Space, Inner Product, Length, Angle, Orthonormal Basis에 대해 알아본다. Image와 Kernel. 이미지와 커널의 정의는 위와 같다. 우선 kernel 또는 null space라 부르는 녀석은 전에 homogeneous system에서 $ax = 0$의 solution을 구했을 때를 생각하면 된다. 이 때 솔루션이 나타내는 그 영역이 곧 kernel space라고 생각하면 된다. image(column space)는 매핑을 하였을 때 매핑되는 새로운 벡터스페이스의 서브스페이스를 말한다다. 즉 치역들이 있는 공간이라고 생각하면 된다. 또한 성질 중에 $V, W$가 각각 $n$, $m$차.. 2020. 4. 26.
Linear Algebra(3)_linear Mappings 저번 장에서 basis와 rank 등에 대해 살펴봤는데, 이제 mapping을 알아볼 차례인데 이부분을 잘 알아야 추후에 matrix factorization을 이해하는데 도움이 된다. Linear Mappings 초반에 벡터 끼리의 합 혹은 벡터와 스칼라 곱의 결과가 벡터가 나오는 것에 대해 배운 적이 있다. 이런 느낌을 살려 생각해보면 여기서 우리가 원하는 것은 mapping을 할 때 벡터가 가진 속성을 유지하는 것이다. 두 개의 실수 스페이스 $V, W$가 있다. mapping $\Phi : V \rightarrow W$ 는 $V$라는 벡터스페이스를 $W$로 보내주는 역할을 한다. 그리고 벡터 공간의 구조를 보존하게 된다. 아래의 (2.85), (2.86) 처럼. 약간 고등학교 때 배운 합성함수의 .. 2020. 4. 7.
Linear Algebra(3) 이번 장에서는 Linear independence (선형)이 무엇인지 알아보자. 우선 linear combination을 살펴보자. 선형결합은 아래의 정의처럼 벡터 공간 $V$ 와 $V$에 속하는 유한개의 벡터들($x_{1}, ... , x_{k}$)이 있다면, $v = \lambda_{1} x_{1} + \cdot \cdot \cdot + \lambda_{k}x_{k} = \sum^{k}_{i=1} \lambda_{i}x_{i}$ 일 때 모든 $v \in V$ 를 만족한다. 설형결합 속 벡터와의 곱을 이루는 상수 $\lambda$들은 모두 실수집합에 속한다. 즉, $V$ 안의 $v$들의 선형결합은 상수와 벡터들의 곱으로 또 하나의 $v$를 만든다. 영벡터는 항상 $k$개의 벡터들의 선형결합으로 이루어질.. 2020. 4. 6.
Linear Algebra(2) Linear Algebra의 중심적인 역할을 하는게 행렬(Matrics)이다. 이 행렬은 선형 연립 방정식을 잘 표현해주고, linear function(linear mappings)역시 잘 표현해준다. 행렬을 정의해보자. $m,n \in \mathbb{N}$ 즉 $m,n$이 정수일 때, 행렬 $A$ 는 $a_{ij}, i=1, ... ,m , j=1, ... ,n $ 인 $a_{ij}$ 원소들의 $mn$튜플이라고 할 수 있다. 이 때 $a_{ij}$는 $m$행, $n$열의 구성으로 사각형 형태로 정렬되어 있다. 아래 그림을 보면 바로 알 수 있다. $(1,n)$을 행 벡터(row vector)라하고 $(m,1)$를 열 벡터(column vector)라고 한다. $\mathbb{R}^{m \times n.. 2020. 3. 30.
Linear Algebra(1) 머신러닝을 위한 수학지식에 대해 공부를 해보자. 앞으로 다음과 관련된 수학 지식을 알아본다.{ 선형대수학-데이터분석, 확률 및 통계-데이터과학, 최적화-모델학습} . 기초적이고 기본적인 학습이므로 높은 수준의 수학적 지식을 원하는 사람은 별로 도움이 안 될 것이다.(이 블로그 모든 다른 챕터에 대하여) Linear Algebra에 대한 것부터 시작해보자. 본 교재에서 사용하는 표기법(Notation)은 아래의 그림과 같다. 표기법에 나와 있는 기호들은 다른 교재나 논문에서도 공통적으로 사용되기 때문에 잘 알아두자. 머신러닝을 위한 기본지식 중 가장 근본적인 수학 지식을 쌓을 것이다. 위의 그림처럼 왼쪽 아래에 우리가 공부할 선형대수가 놓여있다. 수학적 지식과 이를 활용한 알고리즘들로 우리는 훗날 머신러닝.. 2020. 3. 29.
728x90
반응형