Ich erweitere mein Wissen über das Keras-Paket und habe mit einigen der verfügbaren Modelle gearbeitet. Ich habe ein NLP-Binärklassifizierungsproblem, das ich zu lösen versuche, und wende verschiedene Modelle an.
Nachdem ich mit einigen Ergebnissen gearbeitet und mehr und mehr über LSTM gelesen habe, scheint es, als ob dieser Ansatz allem anderen, was ich versucht habe, weit überlegen ist (über mehrere Datensätze hinweg). Ich denke immer wieder bei mir: "Warum / Wann würden Sie LSTM nicht verwenden?". Die Verwendung der zusätzlichen Gatter, die mit LSTM verbunden sind, ist für mich nach einigen Modellen, die unter abnehmenden Gefällen leiden, vollkommen sinnvoll.
Was ist der Haken bei LSTM? Wo machen sie das nicht so gut? Ich weiß, dass es keinen "One Size Fits All" -Algorithmus gibt, daher muss LSTM einen Nachteil haben.