Seq2seq (Sequence to sequence learning)

seq2seq

nlp

embeddings

Data încărcării
May 17, 2022
Autor
Cristian Padurariu
Descriere

Modelul este compus din două părți:

– Codificatorul/codorul care primește la intrare o propoziție în limba engleză și o transformă într-o reprezentare vectorială.

– Decodorul care primește reprezentarea vectorială a propoziției în limba sursă și o transformă în propoziția corespunzătoare din limba țintă.

Atât codificatorul cât și decodorul au la baza celule Long Short-Term Memory (v. fișa Long Short-Term Memory).

Autori: Ilya Sutskever, Oriol Vinyals, and Quoc V. Le

 

Referințe
  • Sutskever, Ilya and Vinyals Oriol and V. Le Quoc (2014), Sequence to sequence learning with neural networks, In Zoubin Ghahramani, Max Welling, Corinna Cortes, Neil D. Lawrence, and Kilian Q. Weinberger (eds.), Advances in Neural Information Processing Systems 27: Annual Conference on Neural Information Processing Systems 2014, December 8-13, Montreal, Quebec, Canada, pages 3104–3112.