Ich versuche den Beweis zu verstehen, dass die achsparallelen Rechtecke im realisierbaren Fall PAC-lernbar sind. Dies bedeutet, dass gegeben Mit genügend Daten können wir eine Funktion finden so dass
Für achsparallele Rechtecke (in binärer Klassifikation) lautet das übliche Argument wie folgt: sei das wahre Rechteck und lass sei eindeutig das kleinste Rechteck mit den positiven Beispielen betrachten wir die vier rechteckigen Streifen dazwischen und . Klar, wenn alle eine Wahrscheinlichkeit haben dann ist die Wahrscheinlichkeit, einen Fehler zu machen, geringer als Wir können also davon ausgehen, dass mindestens einer die Wahrscheinlichkeit hat, einen Fehler zu machen .
Für einen solchen Streifen die Wahrscheinlichkeit, alle korrekt zu klassifizieren Trainingsbeispiele gibt es höchstens Wenn wir also eine über alle Streifen gebundene Vereinigung nehmen, erhalten wir, dass die Wahrscheinlichkeit, alles richtig zu klassifizieren, geringer ist als und mit ein bisschen Algebra ergibt sich, dass die Komplexität der Stichprobe gleich ist .
Hier ist ein PDF , das etwas ausführlicher erklärt. Mit einigen Bildern musste ich das Argument nur so weit wie möglich zusammenfassen, um es hier einzufügen.
Meine Frage ist, warum müssen wir die vier rechteckigen Streifen getrennt betrachten, warum können wir nicht einfach sagen, dass die Wahrscheinlichkeit der Region dazwischen liegt und muss größer sein als (weil wir sonst fertig sind) und somit mit demselben Argument zur besseren Grenze gelangen würden ?
Entschuldigung für die lange Frage und vielen Dank im Voraus.