7
Warum ist Deep Learning trotz der schlechten VC-Dimension sehr beliebt?
Die Vapnik-Chervonenkis (VC) -Dimensionsformel für neuronale Netze reicht von bis , wobei im ungünstigsten Fall die Anzahl der Kanten und ist die Anzahl der Knoten. Die Anzahl der Trainingsmuster, die für eine starke Generalisierungsgarantie erforderlich sind, ist linear zur VC-Dimension.O ( E)O(E)O(E)O ( E2)O(E2)O(E^2)O ( E2V2)O(E2V2)O(E^2V^2)EEEVVV Dies bedeutet, dass für …