Parte 3
Marcelo Finger Alan Barzilay
Forget e input gates são unidos em um unico update gate z
Cell state e hidden state passam a ser uma única entidade
Update Gate z controla se o estado h deve ser atualizado com h~
tf.keras.layers.GRU( units, activation="tanh", recurrent_activation="sigmoid", use_bias=True, kernel_initializer="glorot_uniform", recurrent_initializer="orthogonal", bias_initializer="zeros", kernel_regularizer=None, recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0, implementation=2, return_sequences=False, return_state=False, go_backwards=False, stateful=False, unroll=False, time_major=False, reset_after=True, **kwargs )
LSTM é um pouco mais poderosa (captura mais padrões do contexto)
GRU é mais rápida de ser treinada