Restliche Automaten mit endlichen Zuständen (RFSAs, definiert in [DLT02]) sind NFAs, die einige nette Merkmale gemeinsam mit DFAs haben. Insbesondere gibt es immer einen kanonischen RFSA mit minimaler Größe für jede reguläre Sprache, und die Sprache, die von jedem Zustand im RFSA erkannt wird, ist genau wie in einem DFA …
Inspiriert von dieser Frage bin ich neugierig auf Folgendes: Wie komplex ist es im schlimmsten Fall, zu überprüfen, ob ein bestimmter DFA dieselbe Sprache wie ein bestimmter regulärer Ausdruck akzeptiert? Ist das bekannt? Die Hoffnung wäre, dass dieses Problem in P liegt - dass es ein Algorithmuspolynom in der Größe …
Was ist über das folgende Problem bekannt? Wenn eine Sammlung von Funktionen f : { 0 , 1 } n → { 0 , 1 } gegeben ist , finde eine größte Untersammlung S ⊆ C unter der Bedingung, dass VC-Dimension ( S ) ≤ k für eine ganze Zahl …
Ich habe einen Datensatz mit Tausenden von Punkten und ein Mittel zum Messen des Abstands zwischen zwei beliebigen Punkten, aber die Datenpunkte haben keine Dimensionalität. Ich möchte, dass ein Algorithmus Cluster-Zentren in diesem Datensatz findet. Ich stelle mir vor, dass ein Clusterzentrum aus mehreren Datenpunkten und einer Toleranz besteht, da …
Es ist bekannt, dass es für das PAC-Lernen natürliche Konzeptklassen gibt (z. B. Untergruppen von Entscheidungslisten), für die es polynomielle Lücken zwischen der Komplexität der Stichprobe, die für das informationstheoretische Lernen durch einen rechnerisch unbegrenzten Lernenden benötigt wird, und der Komplexität der Stichprobe, die von einem Polynom benötigt wird. Zeitlerner. …
Hier ist ein Problem mit einem ähnlichen Geschmack wie beim Lernen von Juntas: Eingabe: Eine Funktion f: { 0 , 1 }n→ { - 1 , 1 }f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , dargestellt durch ein Mitgliedschaftsorakel, dh ein Orakel, das xxx , gibt f( x )f(x)f(x) . Ziel: Finden Sie …
Einige Hintergrundinformationen: Ich bin daran interessiert, "weniger bekannte" Untergrenzen (oder Härteergebnisse) für das Problem "Lernen mit Fehlern" (LWE) und Verallgemeinerungen wie "Lernen mit Fehlern über Ringe" zu finden. Für spezifische Definitionen usw. finden Sie hier eine schöne Umfrage von Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Der Standardtyp der Annahme im (R) LWE-Stil ist die …
Dana Angluin ( 1987 ; pdf ) definiert ein Lernmodell mit Mitgliedschaftsabfragen und theoretischen Abfragen (Gegenbeispiele zu einer vorgeschlagenen Funktion). Sie zeigt, dass eine reguläre Sprache, die durch einen minimalen DFA von Zuständen dargestellt wird, in Polynomzeit (wobei die vorgeschlagenen Funktionen DFAs sind) mit O ( m n 2 ) …
Angluin und Laird ('88) formalisierten das Lernen mit zufällig verfälschten Daten im Modell "PAC mit zufälligem Klassifizierungsrauschen" (oder verrauschtem PAC). Dieses Modell ähnelt dem PAC-Lernen , mit der Ausnahme, dass die Bezeichnungen der Beispiele, die dem Lernenden gegeben wurden, unabhängig voneinander zufällig mit einer Wahrscheinlichkeit verfälscht (umgedreht) werden .η<1/2η<1/2\eta < …
Daten aus der realen Welt haben manchmal eine natürliche Anzahl von Clustern (der Versuch, sie in eine Anzahl von Clustern zu gruppieren, die kleiner als ein magisches k ist, führt zu einem dramatischen Anstieg der Clusterkosten). Heute habe ich einen Vortrag von Dr. Adam Meyerson besucht und er hat diese …
Meine Frage ist ein bisschen allgemein gehalten, deshalb denke ich mir eine schöne Geschichte aus, um sie zu rechtfertigen. Trage es mit mir, wenn es nicht realistisch ist ;-) Geschichte Herr X, der Leiter der Computersicherheitsabteilung eines großen Unternehmens, ist etwas paranoid: Er verlangt, dass alle Mitarbeiter ihre Passwörter einmal …
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Angenommen, ein Algorithmus lernt C agnostisch über jede Verteilung, wenn er für jedes D mit einer Wahrscheinlichkeit von 2/3 eine Funktion f finden kann, so dass err (f, D) \ leq OPT (C, …
Es ist bekannt, dass für eine Konzeptklasse mit der VC-Dimension d ausreicht, um O ( d) zu erhaltenC.C\mathcal{C}dddmarkierte Beispiele lernen PACC. Mir ist nicht klar, ob der PAC-Lernalgorithmus (der diese vielen Beispiele verwendet) richtig oder unpassend ist. In den Lehrbüchern von Kearns und Vazirani sowie Anthony und Biggs scheint der …
Definieren wir eine Klasse von Funktionen über eine Menge von Bits. Fixieren Sie zwei Verteilungen , die sich "vernünftigerweise" voneinander unterscheiden (wenn Sie möchten, beträgt ihr Variationsabstand mindestens oder etwas Ähnliches).nnnp,qp,qp, qϵϵ\epsilon Nun wird jede Funktion in dieser Klasse durch eine Sammlung von Indizes und wie folgt bewertet: Wenn die …
Vor kurzem habe ich eine anständige Anzahl von CoLT-Artikeln gelesen. Obwohl ich nicht mit den einzelnen Arbeiten zu kämpfen habe (zumindest nicht mehr als ich normalerweise mit anderen theoretischen Arbeiten zu kämpfen habe), habe ich nicht das Gefühl, dass ich das gesamte Gebiet gut verstehe. Gibt es einen Standardtext, Umfragen …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.