Angluin und Laird ('88) formalisierten das Lernen mit zufällig verfälschten Daten im Modell "PAC mit zufälligem Klassifizierungsrauschen" (oder verrauschtem PAC). Dieses Modell ähnelt dem PAC-Lernen , mit der Ausnahme, dass die Bezeichnungen der Beispiele, die dem Lernenden gegeben wurden, unabhängig voneinander zufällig mit einer Wahrscheinlichkeit verfälscht (umgedreht) werden .
Kearns ('93) führte das Statistical Query Model (SQ) zum Lernen ein, um zu charakterisieren, was im lauten PAC-Modell lernbar ist . In diesem Modell kann ein Lernender ein statistisches Orakel nach Eigenschaften der Zielverteilung abfragen, und er hat gezeigt, dass jede Klasse, die SQ-lernbar ist, in verrauschtem PAC lernbar ist. Kearns bewies auch, dass Paritäten auf Variablen für eine Konstante nicht schneller als rechtzeitig gelernt werden können .
Dann haben Blum et al. ('00) trennte verrauschtes PAC von SQ, indem gezeigt wurde, dass Paritäten auf dem ersten im verrauschten PAC-Modell polynomial lernbar sind, im SQ-Modell jedoch nicht.
Meine Frage lautet:
Paritäten (für die ersten Variablen ) können im verrauschten PAC-Modell gelernt werden, nicht jedoch im SQ-Modell. Gibt es andere spezifische Klassen, die sich ausreichend von der Parität unterscheiden und bekanntermaßen in lautem PAC, aber nicht in SQ lernbar sind?