L’attenzione è una delle idee più importanti nella comunità del Deep Learning. Anche se questo meccanismo è ora utilizzato in vari problemi come i sottotitoli di immagini e altri, è stato originariamente progettato nel contesto della traduzione automatica neurale utilizzando modelli Seq2Seq. Modello Seq2Seq Il modello seq2seq è normalmente composto da un’architettura encoder-decoder, in...