Als «vc-dimension» getaggte Fragen

7
Warum ist Deep Learning trotz der schlechten VC-Dimension sehr beliebt?
Die Vapnik-Chervonenkis (VC) -Dimensionsformel für neuronale Netze reicht von bis , wobei im ungünstigsten Fall die Anzahl der Kanten und ist die Anzahl der Knoten. Die Anzahl der Trainingsmuster, die für eine starke Generalisierungsgarantie erforderlich sind, ist linear zur VC-Dimension.O ( E)O(E)O(E)O ( E2)O(E2)O(E^2)O ( E2V2)O(E2V2)O(E^2V^2)EEEVVV Dies bedeutet, dass für …

1
Effizientes Berechnen oder Approximieren der VC-Dimension eines neuronalen Netzwerks
Mein Ziel ist es, das folgende Problem zu lösen, das ich durch seine Eingabe und Ausgabe beschrieben habe: Eingang: Ein gerichteter azyklischer Graph mit Knoten, Quellen und Senke ( ).GGGmmmnnn111m > n ≥ 1m>n≥1m > n \geq 1 Ausgabe: Die VC-Dimension (oder eine Annäherung davon) für das neuronale Netzwerk mit …

1
Vapnik-Chervonenkis-Dimension: Warum können nicht vier Punkte auf einer Linie durch Rechtecke zerschmettert werden?
Ich lese also die 2. Ausgabe von "Introduction to Machine Learning" von Bishop et al. alle. Auf Seite 27 diskutieren sie die Vapnik-Chervonenkis-Dimension, die "Die maximale Anzahl von Punkten, die durch H [die Hypothesenklasse] zerstört werden können, wird als Vapnik-Chervonenkis (VC) -Dimension von H bezeichnet, als VC (H) bezeichnet und …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.