Ich lese also die 2. Ausgabe von "Introduction to Machine Learning" von Bishop et al. alle. Auf Seite 27 diskutieren sie die Vapnik-Chervonenkis-Dimension, die
"Die maximale Anzahl von Punkten, die durch H [die Hypothesenklasse] zerstört werden können, wird als Vapnik-Chervonenkis (VC) -Dimension von H bezeichnet, als VC (H) bezeichnet und misst die Kapazität von H."
Während "Splitter" eine Hypothese für einen Satz von N Datenpunkten anzeigt, so dass sie die positiven Beispiele von den negativen trennt. In einem solchen Beispiel wird gesagt, dass "H N Punkte zerbricht".
Bisher glaube ich das zu verstehen. Die Autoren verlieren mich jedoch mit folgendem:
"Zum Beispiel können vier Punkte auf einer Linie nicht durch Rechtecke zerschmettert werden."
Hier muss es ein Konzept geben, das ich nicht vollständig verstehe, weil ich nicht verstehen kann, warum dies der Fall ist. Kann mir das jemand erklären?