Als «lg.learning» getaggte Fragen

Maschinelles Lernen und Lerntheorie: PAC-Lernen, algorithmische Lerntheorie und rechnerische Aspekte der Bayes'schen Inferenz und grafische Modelle.




5
Clustering-Algorithmus für nicht dimensionale Daten
Ich habe einen Datensatz mit Tausenden von Punkten und ein Mittel zum Messen des Abstands zwischen zwei beliebigen Punkten, aber die Datenpunkte haben keine Dimensionalität. Ich möchte, dass ein Algorithmus Cluster-Zentren in diesem Datensatz findet. Ich stelle mir vor, dass ein Clusterzentrum aus mehreren Datenpunkten und einer Toleranz besteht, da …

2
Komplexität von Computerabfragen beim SQ-Lernen
Es ist bekannt, dass es für das PAC-Lernen natürliche Konzeptklassen gibt (z. B. Untergruppen von Entscheidungslisten), für die es polynomielle Lücken zwischen der Komplexität der Stichprobe, die für das informationstheoretische Lernen durch einen rechnerisch unbegrenzten Lernenden benötigt wird, und der Komplexität der Stichprobe, die von einem Polynom benötigt wird. Zeitlerner. …

1
Gegeben
Hier ist ein Problem mit einem ähnlichen Geschmack wie beim Lernen von Juntas: Eingabe: Eine Funktion f: { 0 , 1 }n→ { - 1 , 1 }f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , dargestellt durch ein Mitgliedschaftsorakel, dh ein Orakel, das xxx , gibt f( x )f(x)f(x) . Ziel: Finden Sie …

1
Ergebnisse der unteren Grenzen / Härte von Noisy Parity (LWE)
Einige Hintergrundinformationen: Ich bin daran interessiert, "weniger bekannte" Untergrenzen (oder Härteergebnisse) für das Problem "Lernen mit Fehlern" (LWE) und Verallgemeinerungen wie "Lernen mit Fehlern über Ringe" zu finden. Für spezifische Definitionen usw. finden Sie hier eine schöne Umfrage von Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Der Standardtyp der Annahme im (R) LWE-Stil ist die …

1
Untergrenzen für das Lernen in der Mitgliedschaftsabfrage und im Gegenbeispielmodell
Dana Angluin ( 1987 ; pdf ) definiert ein Lernmodell mit Mitgliedschaftsabfragen und theoretischen Abfragen (Gegenbeispiele zu einer vorgeschlagenen Funktion). Sie zeigt, dass eine reguläre Sprache, die durch einen minimalen DFA von Zuständen dargestellt wird, in Polynomzeit (wobei die vorgeschlagenen Funktionen DFAs sind) mit O ( m n 2 ) …

2
Gibt es andere Hypothesenklassen als Parität in Noisy PAC, aber nicht in SQ?
Angluin und Laird ('88) formalisierten das Lernen mit zufällig verfälschten Daten im Modell "PAC mit zufälligem Klassifizierungsrauschen" (oder verrauschtem PAC). Dieses Modell ähnelt dem PAC-Lernen , mit der Ausnahme, dass die Bezeichnungen der Beispiele, die dem Lernenden gegeben wurden, unabhängig voneinander zufällig mit einer Wahrscheinlichkeit verfälscht (umgedreht) werden .η&lt;1/2η&lt;1/2\eta < …


3
Lernen mit „stillschweigenden“ Orakeln
Meine Frage ist ein bisschen allgemein gehalten, deshalb denke ich mir eine schöne Geschichte aus, um sie zu rechtfertigen. Trage es mit mir, wenn es nicht realistisch ist ;-) Geschichte Herr X, der Leiter der Computersicherheitsabteilung eines großen Unternehmens, ist etwas paranoid: Er verlangt, dass alle Mitarbeiter ihre Passwörter einmal …

1
Agnostisches Lernen über beliebige Verteilungen
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Angenommen, ein Algorithmus lernt C agnostisch über jede Verteilung, wenn er für jedes D mit einer Wahrscheinlichkeit von 2/3 eine Funktion f finden kann, so dass err (f, D) \ leq OPT (C, …


1
Eine Paritätslernfrage
Definieren wir eine Klasse von Funktionen über eine Menge von Bits. Fixieren Sie zwei Verteilungen , die sich "vernünftigerweise" voneinander unterscheiden (wenn Sie möchten, beträgt ihr Variationsabstand mindestens oder etwas Ähnliches).nnnp,qp,qp, qϵϵ\epsilon Nun wird jede Funktion in dieser Klasse durch eine Sammlung von Indizes und wie folgt bewertet: Wenn die …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.