Soweit ich das beurteilen kann, haben neuronale Netze eine feste Anzahl von Neuronen in der Eingabeebene.
Wenn neuronale Netzwerke in einem Kontext wie NLP verwendet werden, werden Sätze oder Textblöcke unterschiedlicher Größe in ein Netzwerk eingespeist. Wie wird die variierende Eingabegröße mit der festen Größe der Eingabeebene des Netzwerks in Einklang gebracht ? Mit anderen Worten, wie kann ein solches Netzwerk flexibel genug sein, um mit Eingaben umzugehen, die von einem Wort bis zu mehreren Textseiten reichen können?
Wenn meine Annahme einer festen Anzahl von Eingangsneuronen falsch ist und neue Eingangsneuronen zum Netzwerk hinzugefügt / daraus entfernt werden, um der Eingangsgröße zu entsprechen, sehe ich nicht, wie diese jemals trainiert werden können.
Ich nenne das Beispiel von NLP, aber viele Probleme haben eine von Natur aus unvorhersehbare Eingabegröße. Ich interessiere mich für den allgemeinen Ansatz, damit umzugehen.
Bei Bildern ist es klar, dass Sie eine feste Größe für das Up- / Down-Sampling festlegen können. Bei Text scheint dies jedoch ein unmöglicher Ansatz zu sein, da das Hinzufügen / Entfernen von Text die Bedeutung der ursprünglichen Eingabe ändert.