Als «learning-theory» getaggte Fragen


1
Anpassung des neuronalen Netzwerks
Ich habe gelegentlich neuronale Netze (Back Propagation Networks) mit einigen ziemlich komplizierten Datensätzen (Backgammon-Positionen und OCR) trainiert. Dabei scheint es, dass ein Großteil der Arbeit darin besteht, verschiedene Konfigurationen der Netzwerke auszuprobieren, um die optimale Konfiguration für das Lernen zu finden. Oft gibt es einen Kompromiss zwischen kleinen Netzen, die …

2
Parallele Rechtecke der PAC-Lernachse
Ich versuche den Beweis zu verstehen, dass die achsparallelen Rechtecke im realisierbaren Fall PAC-lernbar sind. Dies bedeutet, dass gegebenϵ,δϵ,δ\epsilon, \delta Mit genügend Daten können wir eine Funktion finden hhh so dass P[error>ϵ]≤δP[error>ϵ]≤δ\mathbb{P}\left[\text{error} > \epsilon\right] \leq \delta Hier kann Fehler als die Wahrscheinlichkeit angesehen werden, mit unserer gewählten Funktion einen Fehler …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.