A binary logistic regression unit

  • 사람 뉴런과 비슷하게 생겼다~
    • bias?
    • weight?

Neural Nets

  • weight, bias 모두 matrix로 표현한다~

Gradient

  • activation fuction의 W,b를 조절하기 위해 얼마만큼 이동할지 gradient로 결정

결과

  • h : hidden vector
  • s :

Backpropagation

Forward Propagation

  • 앞선 노드에서 계산한 output을 다음 노드에게 전달함

Backpropagation

Overview

Single node

  • Bprop input의 gradient을 전달
  • upstream * local = downstream

  • max의 경우 indicator function 이므로 range에 따라 local gradient 찾기
  • y의 경우 다수의 input을 진행하므로 gradient sum 진행

  • 공통으로 pass되는 gradient(downstream)를 저장해두었다가 쓰자

실제?

  • Done correctly, big O() complexity of fprop andbprop is the same
  • In general, our nets have regular layer-structure and so we can use matrices and Jacobians…
  • forward , backward 연산량은 비슷함

  • gradient를 직접 구하기 힘들면 체크용도로 이렇게 근사를 써도?
  • 지금은 쓸일이 없다~