Machine Learning/RNN

[Machine Learning] GRU (Gated Recurrent Unit)

데이터 세상 2021. 3. 8. 09:09
728x90
반응형

GRU (Gated Recurrent Unit)

  • 2014년 조경현 교수에 의해 제안
  • LSTM 셀의 간소화된 버전
  • LSTM Cell에서 두 상태 벡터 ct와 ht가 하나의 벡터로 합쳐짐
  • 하나의 gate controller인 zt가 forget과 input gate를 모두 제어
  • zt가 1을 출력하면 forget gate가 열리고 input gate가 닫힘
  • zt가 0일 경우 반대로 forget gate가 닫히고 input gate가 열림
  • GRU 셀은 output gate가 없어 전체 상태 벡터 ht가 타임 스텝마다 출력되며, 이전 상태 ht-1의 어느 부분이 출력될지 제어하는 새로운 gate controller인 rt가 있다.

 

 

Reset Gate

  • 과거 정보를 적당히 리셋하자
  • Sigmoid 함수를 출력으로 이용하여 0~1값을 이전 은닉층에 곱함

 

Update Gate

  • 과거와 현재의 정보를 최신화 비율 결정
  • Sigmoid로 출력된 결과(u)는 현시점의 정보의 양을 결정
  • 1에서 뺀 값은 직전 시점의 은닉층의 정보에 곱
  • 각각이 input gate와 forget gate와 유사

 

Candidate

  • 현 시점의 정보 후보군을 계산
  • 과거 은닉층의 정보를 그대로 이용하지 않고 Reset gate의 결과를 곱하여 이용

 

Hidden Layer

  • update gate 결과와 candidate 결과를 결합하여 현 시점의 은닉층을 계산
  • Sigmoid 함수 결과는 현시점 결과의 정보양 결정
  • 1-Sigmoid 함수 결과는 과거 시점의 정보양 결정

 

728x90
반응형