D{0,1}d×{0,1}Cf:{0,1}d→{0,1}f∈C
err(f,D)=Pr(x,y)∼D[f(x)≠y]
OPT(C,D)=minf∈C err(f,D)
Angenommen, ein Algorithmus lernt
C agnostisch über jede Verteilung, wenn er für jedes
D mit einer Wahrscheinlichkeit von
2/3 eine Funktion
f finden kann, so dass
err (f, D) \ leq OPT (C, D) + \ epsilon gegeben ist , gegebene Zeit und eine Anzahl von Proben aus
D , die durch ein Polynom in
d und
1 / \ epsilon begrenzt sind .
ACD2/3ferr(f,D)≤OPT(C,D)+ϵDd1/ϵ
Frage: Welche Funktionsklassen C sind bekanntermaßen über beliebige Verteilungen agnostisch lernbar?
Keine Klasse ist zu einfach! Ich weiß, dass selbst monotone Konjunktionen nicht über beliebige Verteilungen agnostisch lernbar sind, deshalb suche ich nur nach nichttrivialen Funktionsklassen.