Ich bin neu im tiefen Lernen, daher könnte dies eine triviale Frage sein. Aber ich frage mich, warum Deep Learning (oder neuronales Netzwerk) bei kleinen beschrifteten Daten nicht sehr gut funktioniert. Unabhängig davon, welche Forschungsarbeiten ich gelesen habe, sind ihre Datensätze riesig. Intuitiv ist das nicht überraschend, da unser Gehirn viel Zeit braucht, um sich selbst zu trainieren. Aber gibt es einen mathematischen Beweis oder Grund, warum das neuronale Netzwerk in solchen Fällen nicht gut funktioniert?