Marcelo Finger Alan Barzilay
Diversas tarefas de PLN lidam com sequências:
Tradução (Machine Translation)
Responder perguntas (Q&A)
Reconhecimento de fala (Speech Recognition): tradução de áudio para texto
RNN’s são capazes não somente de processar sequências como também de gerar sequências.
Â
Uma arquitetura popular para tarefas Seq2Seq é a arquitetura Encoder Decoder.
Redes Encoder Decoder possuem 2 partes:
Uma RNN chamada encoder que recebe uma sequência de tamanho qualquer e gera uma codificação: um vetor C de tamanho fixo.
Uma RNN chamada decoder que recebe o vetor C e gera uma sequência de tamanho qualquer, auto-regressivamente
Redes Encoder Decoder possuem 2 partes:
Uma RNN chamada encoder que recebe uma sequência de tamanho qualquer e gera uma codificação: um vetor C de tamanho fixo.
Uma RNN chamada decoder que recebe o vetor C e gera uma sequência de tamanho qualquer.
O decoder recebe o último token gerado até prever um token especial <eos> que representa o fim de uma frase.
Possibilita a geração de um modelo neural de linguagem
\(T_x \neq T_y\) (Encoder-Decoder)
\(T_x=T_y\)