Als «machine-learning» getaggte Fragen

Theoretische Fragen zum maschinellen Lernen, insbesondere zur Theorie des computergestützten Lernens, einschließlich der Theorie des algorithmischen Lernens, des PAC-Lernens und der Bayes'schen Inferenz

1
Agnostisches Lernen über beliebige Verteilungen
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Angenommen, ein Algorithmus lernt C agnostisch über jede Verteilung, wenn er für jedes D mit einer Wahrscheinlichkeit von 2/3 eine Funktion f finden kann, so dass err (f, D) \ leq OPT (C, …



3
Ressource / Buch für die jüngsten Fortschritte in der statistischen Lerntheorie
Ich bin mit der Theorie hinter VC-Dimension ziemlich vertraut, aber ich schaue jetzt auf die jüngsten (letzten 10 Jahre) Fortschritte in der statistischen Lerntheorie: (lokale) Rademacher-Durchschnittswerte, Massarts Finite-Klassen-Lemma, Deckungszahlen, Verkettung, Dudleys Theorem, Pseudodimension, Fat Shattering Dimension, Packungszahlen, Rademacher-Zusammensetzung und möglicherweise andere Ergebnisse / Werkzeuge, die mir nicht bekannt sind. Gibt …

1
Untergrenze der agnostischen PAC-Probenahme
Es ist bekannt, dass für das klassische PAC-Lernen Beispiele für erforderlich sind, um eine Fehlergrenze von ε whp zu erreichen, wobei d die VC-Dimension der Konzeptklasse ist.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Ist bekannt, dass im agnostischen Fall Beispiele für benötigt werden?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
Welche Klassifikatoren für maschinelles Lernen sind am parallelsten?
Welche Klassifikatoren für maschinelles Lernen sind am parallelsten? Wenn Sie ein schwieriges Klassifizierungsproblem hätten, eine begrenzte Zeit, aber ein anständiges LAN an Computern, mit denen Sie arbeiten könnten, welche Klassifizierer würden Sie versuchen? Auf den ersten Blick sieht es für mich wie einige Standardklassifikatoren aus, von denen ich weiß, dass …

5
Was sind gute Referenzen zum Verständnis des Online-Lernens?
Insbesondere bitte ich um Ressourcen, um mehr über maschinelle Lernsysteme zu erfahren, die ihre jeweiligen Glaubensnetzwerke (oder gleichwertige) während des Betriebs aktualisieren können. Ich bin sogar auf einige gestoßen, obwohl ich sie nicht mit einem Lesezeichen versehen konnte. Wie Sie sich vorstellen können, ist es ein ziemlich herausforderndes Thema, im …


2
Theoretische Ergebnisse für zufällige Wälder?
Zufällige Wälder haben unter Praktikern den Ruf, zu den effektivsten Klassifizierungstechniken zu gehören. In der lerntheoretischen Literatur, aus der ich das Fehlen tiefer theoretischer Ergebnisse vermute, begegnen wir ihnen jedoch nicht viel. Wenn man sich mit dieser Theorie befassen wollte, wo würde man anfangen?


1
Lernen mit (signierten) Fehlern
Background––––––––––––––Background_\underline{\bf Background} Im Jahr 2005 führte Regev [1] das Problem des Lernens mit Fehlern (Learning with Errors, LWE) ein, eine Verallgemeinerung des Problems der Lernparität mit Fehlern. Die Annahme der Härte dieses Problems für bestimmte Parameterauswahl liegt nun den Sicherheitsnachweisen für eine Vielzahl von Post-Quanten-Kryptosystemen auf dem Gebiet der gitterbasierten …

2
VC-Dimension von Kugeln in 3 Dimensionen
Ich suche nach der VC-Dimension des folgenden Set-Systems. Universum so dass . Im Mengen-System jede Menge einer Kugel in so dass die Menge genau dann ein Element in enthält, wenn die entsprechende Kugel es enthält in .U={p1,p2,…,pm}U={p1,p2,…,pm}U=\{p_1,p_2,\ldots,p_m\}U⊆R3U⊆R3U\subseteq \mathbb{R}^3RR\mathcal{R}S∈RS∈RS\in \mathcal{R}R3R3\mathbb{R}^3SSSUUUR3R3\mathbb{R}^3 Details, die ich bereits kenne. Die VC-Dimension ist mindestens 4. Dies …

2
Gibt es Familien formaler Sprachen, von denen bekannt ist, dass sie wirklich PAC-lernbar sind?
Ich meine speziell Sprachfamilien, die beliebig lange Zeichenfolgen zulassen - keine Konjunktionen über n Bits oder Entscheidungslisten oder eine andere "einfache" Sprache, die in {0,1} ^ n enthalten ist. Ich frage nach "automatentheoretischen" regulären Sprachen im Gegensatz zu "logiktheoretischen" Sprachen: so etwas wie stückweise testbare Sprachen, Sprachen mit Starthöhe Null, …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.