입력과 이전 상태 값이 주어지면 먼저 $f_t, g_t, i_t, o_t$ 를 계산 ( = 각 완전 연결층 마다 주어진 값을 입력 )
$g_t$와 $c_{t-1}$의 합을 $c_t$ ( = 장기 상태 값 )으로 변경
그대로 더하지 않고, 각각의 반영 비율을 it와 ft로 조절
→ $c_t = i_t * g_t + f_t * c_{t-1}$
$c_t$에 $\tanh$ 함수 적용 후 $o_t$를 곱해 $h_t$ ( = 단기 상태 값 ) 계산
→ $h_t = \tanh(c_t) * o_t$
tflearn.layers.recurrent.lstm(incoming, n_units, activation='tanh', ...)
# simple_rnn 함수와 패러미터 유사
# activation 기본값이 sigmold -> tanh
# inner_activation, forget_bias 패러미터 추가
# inner_activation : 2번째 완전 연결층을 제외한 나머지 층의 활성화 함수
# forget_bias : 나머지 층의 바이어스