Ich beginne meine Doktorandenreise und das ultimative Ziel, das ich mir gesetzt habe, ist die Entwicklung von ANNs, die die Umgebung überwachen, in der sie arbeiten, und ihre Architektur dynamisch an das jeweilige Problem anpassen. Die offensichtliche Implikation ist die Zeitlichkeit der Daten: Wenn der Datensatz nicht kontinuierlich ist und sich im Laufe der Zeit nicht ändert, warum überhaupt anpassen?
Die große Frage ist: Ist es angesichts des jüngsten Aufstiegs des tiefen Lernens immer noch ein relevantes Thema? Haben FFNNs die Chance, eine Nische in Konzeptdriftproblemen zu finden?
Ich befürchte, den Thread mit zu vielen Fragen zu überladen, aber diese Frage ist nicht völlig unangebracht: Ich kenne RNNs, habe aber nur begrenzte (ok, keine oder rein theoretische) Erfahrungen mit ihnen. Ich glaube, dass die Anpassung der dynamischen Architektur ein relevantes Thema im Kontext von RNNs sein muss. Die Frage ist, wurde sie bereits beantwortet und werde ich das Rad neu erfinden?
PS Cross-posted zu MetaOptimize