1. LSTM (Long Short-Term Memory)

1) 구조

내부 구조

2) 동작

3) tflearn lstm 구현

tflearn.layers.recurrent.lstm(incoming, n_units, activation='tanh', ...)
# simple_rnn 함수와 패러미터 유사
# activation 기본값이 sigmold -> tanh
# inner_activation, forget_bias 패러미터 추가
	# inner_activation : 2번째 완전 연결층을 제외한 나머지 층의 활성화 함수
	# forget_bias : 나머지 층의 바이어스

2. GRU (Gated Recurrent Unit) Cell

1) 구조