Als «lg.learning» getaggte Fragen

Maschinelles Lernen und Lerntheorie: PAC-Lernen, algorithmische Lerntheorie und rechnerische Aspekte der Bayes'schen Inferenz und grafische Modelle.

3
Ressource / Buch für die jüngsten Fortschritte in der statistischen Lerntheorie
Ich bin mit der Theorie hinter VC-Dimension ziemlich vertraut, aber ich schaue jetzt auf die jüngsten (letzten 10 Jahre) Fortschritte in der statistischen Lerntheorie: (lokale) Rademacher-Durchschnittswerte, Massarts Finite-Klassen-Lemma, Deckungszahlen, Verkettung, Dudleys Theorem, Pseudodimension, Fat Shattering Dimension, Packungszahlen, Rademacher-Zusammensetzung und möglicherweise andere Ergebnisse / Werkzeuge, die mir nicht bekannt sind. Gibt …

1
Untergrenze der agnostischen PAC-Probenahme
Es ist bekannt, dass für das klassische PAC-Lernen Beispiele für erforderlich sind, um eine Fehlergrenze von ε whp zu erreichen, wobei d die VC-Dimension der Konzeptklasse ist.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Ist bekannt, dass im agnostischen Fall Beispiele für benötigt werden?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
Welche Klassifikatoren für maschinelles Lernen sind am parallelsten?
Welche Klassifikatoren für maschinelles Lernen sind am parallelsten? Wenn Sie ein schwieriges Klassifizierungsproblem hätten, eine begrenzte Zeit, aber ein anständiges LAN an Computern, mit denen Sie arbeiten könnten, welche Klassifizierer würden Sie versuchen? Auf den ersten Blick sieht es für mich wie einige Standardklassifikatoren aus, von denen ich weiß, dass …


5
Was sind gute Referenzen zum Verständnis des Online-Lernens?
Insbesondere bitte ich um Ressourcen, um mehr über maschinelle Lernsysteme zu erfahren, die ihre jeweiligen Glaubensnetzwerke (oder gleichwertige) während des Betriebs aktualisieren können. Ich bin sogar auf einige gestoßen, obwohl ich sie nicht mit einem Lesezeichen versehen konnte. Wie Sie sich vorstellen können, ist es ein ziemlich herausforderndes Thema, im …

2
Theoretische Ergebnisse für zufällige Wälder?
Zufällige Wälder haben unter Praktikern den Ruf, zu den effektivsten Klassifizierungstechniken zu gehören. In der lerntheoretischen Literatur, aus der ich das Fehlen tiefer theoretischer Ergebnisse vermute, begegnen wir ihnen jedoch nicht viel. Wenn man sich mit dieser Theorie befassen wollte, wo würde man anfangen?



2
Gibt es Familien formaler Sprachen, von denen bekannt ist, dass sie wirklich PAC-lernbar sind?
Ich meine speziell Sprachfamilien, die beliebig lange Zeichenfolgen zulassen - keine Konjunktionen über n Bits oder Entscheidungslisten oder eine andere "einfache" Sprache, die in {0,1} ^ n enthalten ist. Ich frage nach "automatentheoretischen" regulären Sprachen im Gegensatz zu "logiktheoretischen" Sprachen: so etwas wie stückweise testbare Sprachen, Sprachen mit Starthöhe Null, …


1
VC Dimension verallgemeinert auf diskrete, nicht binäre, ungeordnete Domänen?
Die VC-Dimension ist ein Maß für die Komplexität von Funktionsklassen , die eng mit der Komplexität der Stichprobe verknüpft ist. Fat Shattering Dimension ist eine Verallgemeinerung, die für Domänen mit höherer Ordnung geeignet ist: dh . Gibt es eine Standardverallgemeinerung der VC-Dimension, die für Funktionen mit diskreten, ungeordneten Domänen geeignet …

2
Rechenkomplexität von Clustering-Algorithmen
Mein Wunsch ist es, die zeitliche Komplexität mehrerer Clustering-Ansätze zu beschreiben. Angenommen, wir haben Datenpunkte im dimensionalen Raum.mnnnmmm Nehmen wir weiter an, dass die paarweise Unähnlichkeitsmatrix von Dimensionen bereits berechnet wurde und dass wir bereits Schritte ausgegeben haben . Was ist dann die zeitliche Komplexität gerade vonn × n O …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.