Wörter mit zufälligen DFAs trennen


15

Eines der interessanten offenen Probleme mit DFAs, die in aufgeführt sind. Gibt es noch offene Probleme mit DFAs? ist die Größe eines DFA, die zum Trennen von zwei Zeichenfolgen der Länge erforderlich ist . Ich bin neugierig, ob es irgendwelche Ergebnisse über die Fähigkeit eines zufälligen DFA gibt, zwei gegebene (nicht zufällige) Zeichenfolgen zu trennen.n

Offensichtlich trennt ein zufälliger DFA mit ausreichend vielen Zuständen Zeichenfolgen mit hoher Wahrscheinlichkeit. Insbesondere wenn , ist es unwahrscheinlich , dass ein zufälliger DFA mit O ( n ) -Zuständen jemals denselben Zustand erneut besucht, sobald er den ersten Ort erreicht, an dem u und v unterschiedlich sind, und trennt daher u und v .u,vΣnO(n)uvuv

Können wir es besser machen? Im Idealfall, was die kleinsten st , dass ein zufälliges DFA mit f ( n ) Zuständen trennen Strings der Länge n mit positiver Wahrscheinlichkeit (oder vielleicht Wahrscheinlichkeit 1 / 2 )? Eine kurze Suche ergab nicht viele Ergebnisse zu den Eigenschaften zufälliger DFAs. Ich konnte nur http://arxiv.org/abs/1311.6830 finden .f(n)f(n)n1/2


Positive Wahrscheinlichkeit ist hier keine besonders nützliche Bedingung, da es sich nur um eine Wiederholung des offenen Problems handelt. Hohe Wahrscheinlichkeit könnte noch interessant sein.
Geoffrey Irving

1
Was bedeutet "trennt"? Akzeptiert das eine und lehnt das andere ab? Wenn ja, ist es offensichtlich, dass -Zustände ausreichen? O(n)
usul

Ja, sondern Mittel akzeptiert genau einen. Und Sie haben Recht: Das trivialste Trennungsargument erfordert tatsächlich O(n2) -Zustände (was ich oben geschrieben habe, ist falsch), obwohl ich überrascht wäre, wenn viele weniger nicht ausreichen würden.
Geoffrey Irving

1
Würden Sie nicht erwarten, dass die Grenzen davon abhängen, wie sehr sich die Wörter unterscheiden? Es scheint, als wären Wörter, die sich durch einen einzelnen Buchstaben unterscheiden, schwerer zufällig zu unterscheiden, da Sie an diesem einen Übergang unterscheiden müssen, und sehr unterschiedliche Wörter wären einfacher. [Um es zu verallgemeinern, Sie können das längste gemeinsame Präfix vergessen (Sie erreichen daraus einen zufälligen Zustand); Unterschiedliche Buchstaben senden Sie dann entweder in den gleichen oder in verschiedene Bundesstaaten. dann, wenn die Zustände unterschiedlich sind, müssen Sie sich die Probe der Resynchronisation ansehen und synchron bleiben (beginnt wieder abhängig von den Worten) ...]
a3nm

Ja, wie das offene Problem, ich interessiere mich für die am schwersten zu unterscheidenden Wörter. Wörter, die sich nur an wenigen Stellen unterscheiden, können bereits durch -Zustände getrennt werden, so dass es unwahrscheinlich ist, dass dies der Fall ist. O(logn)
Geoffrey Irving

Antworten:


2

[Bearbeiten: Diese Antwort funktioniert nicht, siehe Kommentare.]

Dies ist nur eine informelle Idee und ich weiß nicht, ob es hilft, aber es ist zu lang, um als Kommentar gegeben zu werden. Außerdem kenne ich mich mit zufälligen DFAs überhaupt nicht aus. Vielleicht habe ich eine falsche Vorstellung davon, wie Sie mit Wahrscheinlichkeiten darüber argumentieren sollten, aber hoffentlich ist dies nicht ganz wertlos.

Ich gehe davon aus, dass Ihre Grenzen davon abhängen sollten, wie sehr sich und v unterscheiden. Wenn dies nicht der Fall ist, scheint mir klar zu sein, dass sich die Zeichenfolgen im schlimmsten Fall nur durch das erste Zeichen unterscheiden (Zeichenfolgen, die sich an einer Reihe von X Positionen unterscheiden, haben mehr Chancen, voneinander getrennt zu werden als Zeichenfolgen, die sich an einer Reihe unterscheiden)uvX Positionen unterscheiden) Ich würde sagen, und wenn Sie den Unterschied so früh wie möglich setzen, haben Sie die Möglichkeit, ihn erneut zu synchronisieren.YX

Ich werde auch die Wahrscheinlichkeit untersuchen, dass die Wörter unterschieden werden, nämlich unterschiedliche Zustände erreichen. Ich denke, Sie müssten sich dann darauf einstellen, ob Sie akzeptiert oder abgelehnt werden, je nachdem, wie Ihre zufälligen DFAs die Endzustände zuweisen. Wenn jeder Zustand eine halbe Wahrscheinlichkeit hat, endgültig zu sein, werden die Saiten nicht unterschieden, wenn sie in demselben Zustand enden, und wenn sie in verschiedenen Zuständen enden, haben sie eine halbe Wahrscheinlichkeit, unterschieden zu werden.

Nun betrachte ich das Wort das aus u und v erhalten wird, wie folgt: w i = 1, wenn u i = v i und w i = 0, andernfalls. Ich denke, es ist klar, dass w das einzig Interessante an u und v ist .wuvwi=1ui=viwi=0wuv

Definieren Sie nun die Wahrscheinlichkeit, dass wir nach dem Lesen von Präfixen der Länge i von u und v im selben Zustand sind , und q ( i ) = 1 - p (p(i)iuv die Wahrscheinlichkeit, dass wir nichtsind.q(i)=1p(i)

Ich denke wir haben , wenn w i + 1 ist 1 . Intuitiv befinden wir uns nach dem Lesen von i + 1 Buchstaben im selben Zustand, entweder als wir uns nach dem Lesen von i im selben Zustand befanden, oder als wir uns in zwei verschiedenen (zufälligen) Zuständen befanden, zeichneten wir zwei Übergänge in zufällige Zustände und sie passierten sei der gleiche. Ebenso haben wir p ( i + 1 ) = 1p(i+1)=p(i)+q(i)/nwi+11i+1i , wenn w i + 1 ist 0 : Sie zeichnen zwei zufällige Zustände, unabhängig davonwo Sie begonnen.p(i+1)=1/nwi+10

Daraus könnte man die Wahrscheinlichkeit berechnen, dass man sich nach dem Lesen von und v im selben Zustand befindet .uv


Leider ist es alles als offensichtlich, dass w die einzige interessante Eigenschaft von u und v ist . Der einfachste Weg, dies zu erkennen, besteht darin, dass es trivialerweise eine Wahrscheinlichkeit ungleich Null gibt, ein nichttriviales w zu unterscheidenwuvw von ; in der Tat genügen nur zwei Zustände, unabhängig von n . Wie in arxiv.org/pdf/1103.4513.pdf erläutert , gibt es jedoch Wörter u , v mit der Länge n st no o ( log n ), die DFA unterscheiden kann. Dies widerspricht Ihren Formeln für p ( i )0nnu,vno(logn)p(i).
Geoffrey Irving

1
Zur Verdeutlichung wären Ihre Formeln korrekt, wenn die DFA-Übergänge eine zufällige Funktion des Zeichenfolgenindex wären. da sie indexunabhängig sind, sind die wahrscheinlichkeiten ziemlich kompliziert korreliert.
Geoffrey Irving

Ich fürchte, ich verstehe Ihr Gegenbeispiel nicht. Es gibt ein prba mit zwei Zuständen, um 0 zu unterscheiden>0 und w 0 n , OK; und vielleicht gibt es Wörter der Länge n , die mit o ( log n ) -Zuständen nicht auseinandergehalten werden können. Aber wie widerspricht es meiner Behauptung, dass w das einzig Wichtige ist, oder meinen Formeln für p ( i ) ?0nw0nnÖ(Logn)wp(ich)? Bezüglich der Korrelationen sehe ich, dass es einen Haken der Art gibt, die Sie erwähnen, aber ich verstehe noch nicht, warum er genau fehlschlägt. Wenn Sie denselben Zustand zweimal durchlaufen, gibt es eine Korrelation, aber gibt es einen Grund zu der Annahme, dass er sich im Durchschnitt in eine bestimmte Richtung auswirkt?
Am

Wenn , werden u und v mit positiver Wahrscheinlichkeit unterschieden. Für ausreichend große n und kleine Anzahlen von Zuständen wissen wir jedoch, dass p ( n ) = 1 für einige u ) ) / n = p ( i ) ( 1 - 1 / n )p(n)<1uvnp(n)=1u und . Da Ihre Formeln implizieren, dass wenn p ( i ) < 1, dann p ( i + 1 ) = p ( i ) + ( 1 - pvp(ich)<1 , Ihre Formel erfasst nicht die Tatsache, dass bestimmte u und v nicht zu unterscheiden sind. p(i+1)=p(i)+(1p(i))/n=p(i)(11/n)+1/n<1uv
Geoffrey Irving

Ah ... richtig, ich verstehe. Wenn kein kleiner DFA zwei Wörter unterscheiden kann, kann auch kein zufälliger DFA sie unterscheiden. In der Tat gibt es ein Problem mit meinem Ansatz, die Wahrscheinlichkeit sollte schließlich aufgrund dieser Korrelationen auf Null fallen, wie es scheint. Entschuldigung für die falsche Antwort. q(i)
15:00
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.