본문 바로가기

전체 글

(25)
none
[머신러닝/CNN]Backpropagation, Jacobians chapter_2 이번 글에서는 Jacobians에 대해 다뤄보도록 하겠습니다. Index 1. Jacobians란? 2. backpropagation에서의 활용
[머신러닝/CNN] 미분에 대하여 chapter_0 이번글에서는 backpropagation을 이해하기 위해 사용되는 미분의 개념에 대해 간단히 짚어 보도록 하겠습니다. Index 1. 미분이란? 2. 여러가지 미분법 3. Learnariy의 조건 4. 편미분과 Gradient 5. chain rule 1. 미분이란? 미분의 개념을 이해하기 위해 가장 먼저 변화율에 대한 이해가 필요합니다. a를 입력하면 b가 출력되는 함수 $f$ 가 있다고 가정해 봅시다. 이 함수의 입력값에 1을 더했을때 출력값 b가 4 증가했다고 가정했을 때 변화율은 입력값의 증가량(1)에 대한 출력값의 증가량(4)인 4로 이해할 수 있습니다. 이때 입력값의 변화를 아주 미세하게 만들어 주는것이 미분의 기본적인 개념입니다. 위 개념을 수식으로 $f'(x) = \lim_{\Delta x..
[머신러닝/CNN] Backpropagation , Chapter_1 이번 글부터는 Backpropagation에서 Gradient-based Learning을 하는 이유에 대해 알아보도록 하겠습니다. Index 1. CNN, Forward propagation review 2. Gradient-based Learning 1. CNN , FC(Dense) layer , Convolution layer Back propagation을 위해 간단히 Forward propagation을 Review하는 시간을 갖도록 하겠습니다. 1.1 Feature Extractor CNN(Convolution Neural Network)은 입력받은 데이터를 Feature Extractor에서 특징을 추출하는 과정을 갖습니다. 이 단계에서 Convolution layer는 불필요한 데이터를 f..