Bei der Betrachtung von Rechenmodellen für Maschinen wird die Chomsky-Hierarchie normalerweise durch (in der Reihenfolge) endliche Automaten, Push-down-Automaten, linear gebundene Automaten und Turing-Maschinen charakterisiert.
Für die erste und letzte Ebene 1 (reguläre Sprachen und rekursiv aufzählbare Sprachen) spielt es für die Leistungsfähigkeit des Modells keine Rolle, ob deterministische oder nicht deterministische Maschinen betrachtet werden, dh DFAs sind NFAs und DTMs sind NTMs 2 äquivalent .
Bei PDAs und LBAs ist die Situation jedoch anders. Deterministische PDAs erkennen einen streng kleineren Satz von Sprachen als nicht deterministische PDAs. Es ist auch eine bedeutende offene Frage, ob deterministische LBAs genauso leistungsfähig sind wie nicht deterministische LBAs oder nicht [1].
Dies veranlasst meine Frage:
Gibt es ein Maschinenmodell, das die kontextfreien Sprachen charakterisiert, für das der Nichtdeterminismus keine zusätzliche Kraft hinzufügt? (Wenn nicht, gibt es eine Eigenschaft von CFLs, die einen Grund dafür vorschlägt?)
Es erscheint mir unwahrscheinlich, dass es beweisbar ist, dass kontextfreie Sprachen irgendwie Nichtdeterminismus brauchen , aber es scheint kein (bekanntes) Maschinenmodell zu geben, für das deterministische Maschinen ausreichen.
Die Erweiterungsfrage ist dieselbe, jedoch für kontextsensitive Sprachen.
Verweise
- S.-Y. Kuroda, "Klassen von Sprachen und linear gebundenen Automaten" , Information and Control, 7: 207-223, 1964.
Fußnoten
- Nebenfrage für die Kommentare: Gibt es einen Grund dafür, dass die Ebenen (sortiert nach Mengeneinschluss) der Chomsky-Hierarchie die Nummern 3 bis 0 anstelle von 0 bis 3 haben?
- Um es klar auszudrücken, ich spreche von den Sprachen, die nur erkannt werden können. Offensichtlich sind Fragen der Komplexität von einer solchen Änderung radikal betroffen.