Ich habe mich kürzlich für LSTMs interessiert und war überrascht zu erfahren, dass die Gewichte über die Zeit verteilt sind.
Ich weiß, dass, wenn Sie die Gewichte über die Zeit teilen, Ihre Eingabezeitsequenzen eine variable Länge haben können.
Mit geteilten Gewichten müssen Sie viel weniger Parameter trainieren.
Nach meinem Verständnis liegt der Grund, warum man sich für ein LSTM im Vergleich zu einer anderen Lernmethode entscheidet, darin, dass Sie glauben, dass Ihre Daten eine Art von zeitlicher / sequenzieller Struktur / Abhängigkeit aufweisen, die Sie lernen möchten. Wenn Sie die variable Länge "Luxus" opfern und eine lange Rechenzeit akzeptieren, würde ein RNN / LSTM ohne gemeinsame Gewichte (dh für jeden Zeitschritt haben Sie unterschiedliche Gewichte) nicht eine bessere Leistung erbringen, oder fehlt mir etwas?