Das erste, was Ihnen als faszinierend in den Sinn kommt, ist die Komplexität von Kolmogorov. Ich finde es auf jeden Fall faszinierend, und da Sie es nicht erwähnt haben, dachte ich, es könnte erwähnenswert sein.
Ein allgemeinerer Ansatz zur Beantwortung dieser Frage könnte jedoch auf der Theorie der Sprachen und Automaten beruhen. Deterministische endliche Automaten sind O (n) String-Prozessoren. Das heißt, bei einer Zeichenfolge mit der Länge n verarbeiten sie die Zeichenfolge in genau n Schritten (vieles davon hängt davon ab, wie Sie deterministische endliche Automaten definieren; ein DFA erfordert jedoch sicherlich keine weiteren Schritte). Nichtdeterministische endliche Automaten erkennen dieselben Sprachen (Sätze von Zeichenfolgen) wie DFAs und können in DFAs transformiert werden. Um jedoch eine NFA auf einer sequentiellen, deterministischen Maschine zu simulieren, müssen Sie normalerweise einen baumartigen "Suchraum" untersuchen, der die Größe erhöhen kann Komplexität dramatisch. Die regulären Sprachen sind im rechnerischen Sinne nicht sehr "komplex".
Sie können auch andere Ebenen der Chomsky-Hierarchie von Sprachen betrachten - deterministisch kontextfrei, kontextfrei (einschließlich nichtdeterministischer kontextfreier Sprachen, die von deterministischen Pushdown-Automaten nicht unbedingt erkannt werden können), die kontextsensitiven Sprachen, die rekursiven und rekursiven Aufzählbare Sprachen und die unentscheidbaren Sprachen.
Verschiedene Automaten unterscheiden sich hauptsächlich in ihrem externen Speicher. dh welcher externe Speicher ist erforderlich, damit die Automaten Sprachen eines bestimmten Typs korrekt verarbeiten können. Endliche Automaten haben keinen externen Speicher; PDAs haben einen Stapel und Turing-Maschinen haben ein Band. Sie können also die Komplexität eines bestimmten Programmierproblems (das einer Sprache entspricht) so interpretieren, dass es mit der Menge oder Art des Speichers zusammenhängt, der erforderlich ist, um es zu erkennen. Wenn Sie keinen oder einen festen, begrenzten Speicherplatz benötigen, um alle Zeichenfolgen in einer Sprache zu erkennen, handelt es sich um eine reguläre Sprache. Wenn Sie nur einen Stapel benötigen, haben Sie eine kontextfreie Sprache. Usw.
Im Allgemeinen wäre ich nicht überrascht, wenn Sprachen, die in der Chomsky-Hierarchie höher sind (daher eine höhere Komplexität aufweisen), auch tendenziell eine höhere Entropie im informationstheoretischen Sinne aufweisen. Davon abgesehen könnten Sie wahrscheinlich viele Gegenbeispiele zu dieser Idee finden, und ich habe keine Ahnung, ob es überhaupt einen Wert dafür gibt.
Dies könnte auch besser beim "theoretischen cs" (cstheory) StackExchange gefragt werden.