Bearbeiten: Da ich seit einer Woche keine Antworten / Kommentare mehr erhalten habe, möchte ich hinzufügen, dass ich froh bin, etwas über das Problem zu hören. Ich arbeite nicht in der Gegend, auch wenn es eine einfache Beobachtung ist, weiß ich es vielleicht nicht. Sogar ein Kommentar wie "Ich arbeite in der Gegend, aber ich habe keine solche Charakterisierung gesehen" wäre hilfreich!
Hintergrund:
Es gibt mehrere gut untersuchte Lernmodelle in der Lerntheorie (z. B. PAC-Lernen, Online-Lernen, genaues Lernen mit Mitgliedschafts- / Äquivalenzabfragen).
Beispielsweise hat beim PAC-Lernen die Beispielkomplexität einer Konzeptklasse eine schöne kombinatorische Charakterisierung in Bezug auf die VC-Dimension der Klasse. Wenn wir also eine Klasse mit konstanter Genauigkeit und Sicherheit lernen wollen, kann dies mit Samples geschehen , wobei die VC-Dimension ist. (Beachten Sie, dass es sich um die Komplexität der Stichproben und nicht um die Komplexität der Zeit handelt.) Es gibt auch eine genauere Charakterisierung in Bezug auf Genauigkeit und Zuverlässigkeit. Ebenso hat das fehlergebundene Modell des Online-Lernens eine schöne kombinatorische Charakterisierung.
Frage:
Ich möchte wissen, ob ein ähnliches Ergebnis für das Modell des exakten Lernens mit Mitgliedschaftsabfragen bekannt ist. Das Modell ist wie folgt definiert: Wir haben Zugriff auf eine Blackbox, die bei Eingabe von ergibt . Wir wissen, dass aus einer Konzeptklasse . Wir wollen mit möglichst wenigen Abfragen ermitteln.
Gibt es einen kombinatorischen Parameter einer Konzeptklasse , der die Anzahl der Abfragen kennzeichnet, die zum Erlernen eines Konzepts im Modell des exakten Lernens mit Mitgliedschaftsabfragen erforderlich sind?
Was ich weiß:
Die beste derartige Charakterisierung, die ich gefunden habe, findet sich in diesem Aufsatz von Servedio und Gortler unter Verwendung eines Parameters, den sie Bshouty, Cleve, Gavaldà, Kannan und Tamon zuschreiben . Sie definieren einen kombinatorischen Parameter namens , wobei die Konzeptklasse ist, die die folgenden Eigenschaften aufweist. ( sei die optimale Anzahl von Abfragen, die zum Erlernen von in diesem Modell erforderlich sind .)
Diese Charakterisierung ist fast eng. Es könnte jedoch eine quadratische Lücke zwischen der oberen und unteren Grenze geben. Zum Beispiel, wenn , dann ist die Untergrenze Ω ( k ) , aber die Obergrenze ist O ( k 2 ) . (Ich denke auch, dass diese Lücke erreichbar ist, dh es gibt eine Konzeptklasse, für die die unteren Grenzen beide Ω ( k ) sind , aber die obere Grenze ist O ( k 2 ) .)