Ich lese diesen Artikel "Sequence to Sequence Learning mit neuronalen Netzen" http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf
Unter "2. Das Modell" steht:
Das LSTM berechnet diese bedingte Wahrscheinlichkeit, indem es zuerst die feste dimensionale Darstellung v der Eingabesequenz (x1, ..., xT) erhält, die durch den letzten verborgenen Zustand des LSTM gegeben ist, und dann die Wahrscheinlichkeit von y1 ,. . . , yT 'mit einer Standard- LSTM-LM- Formulierung, deren anfänglicher verborgener Zustand auf die Darstellung v von x1 ,. . . , xT:
Ich weiß, was ein LSTM ist, aber was ist ein LSTM-LM? Ich habe versucht, es zu googeln, kann aber keine guten Hinweise finden.