Es gibt keine Möglichkeit, bei allen ML-Modellen geht es nicht um das Verständnis von Phänomenen, sondern um Interpolationsmethoden mit der Hoffnung, "dass es funktioniert". Beginnen Sie mit solchen Fragen Vertrauen, Robustheit gegen Lärm gibt es keine Antworten.
Um etwas abzuleiten, verwenden Sie bitte verschiedene angewandte und fundamentale Wissenschaften:
Verwenden Sie die Steuerung (und machen Sie eine Vermutung über die Dynamik)
Verwenden Sie konvexe Optimierung (mit einigen zusätzlichen Bedingungen für die Funktion)
Verwenden Sie mathematische Statistiken (mit vorläufigen Annahmen zu Verteilungen)
Signalverarbeitung verwenden (mit einigen Annahmen, dass das Signal bandbegrenzt ist)
Wissenschaftler verwenden einige vorläufige Annahmen (Axiome genannt), um etwas abzuleiten.
Es gibt keine Möglichkeit, ohne eine vorläufige Annahme Vertrauen zu schenken, daher ist dies kein Problem in DL-Methoden, aber es ist ein Problem in jeder Methode, die versucht, ohne eine vorläufige Annahme zu interpolieren - es gibt keine Möglichkeit, ohne Annahme etwas Intelligentes über die Algebra abzuleiten.
NN und verschiedene ML-Methoden sind für das schnelle Prototyping gedacht, um "etwas" zu erstellen, das scheinbar "irgendwie" funktioniert und mit einer Kreuzvalidierung überprüft wurde.
Noch tiefer kann die Regressionsanpassung E [Y | X] oder ihre Schätzung ein absolut falsches zu lösendes Problem sein (vielleicht hat PDF in Punkt Y = E [Y | X] ein Minimum, kein Maximum), und es gibt viele solcher subtilen Probleme Dinge.
Lassen Sie mich auch zwei unlösbare Probleme in AI / ML, die aus bestimmten Gründen vergessen werden können, hinter Schönheitsslogans in Erinnerung rufen:
(1) Es sind Interpolationsmethoden, keine Extrapolation - es ist nicht in der Lage, mit neuen Problemen umzugehen
(2) niemand weiß, wie sich ein Modell auf Daten verhält, die nicht aus derselben Verteilung stammen (Mann in Bananenkostüm zur Fußgängerlokalisierung)