Ich versuche, Zusammenstellung und Interpretation Schritt für Schritt zu verstehen und ein Gesamtbild zu finden. Ich bin also auf eine Frage gekommen, als ich diesen Artikel gelesen habe: http://www.cs.man.ac.uk/~pjj/farrell/comp3.html
Es sagt :
Die nächste Stufe des Compilers heißt Parser. Dieser Teil des Compilers versteht die Grammatik der Sprache. Es ist dafür verantwortlich, Syntaxfehler zu identifizieren und ein fehlerfreies Programm in interne Datenstrukturen zu übersetzen, die in einer anderen Sprache interpretiert oder ausgeschrieben werden können.
Ich konnte jedoch nicht herausfinden, wie Tokenizer den angegebenen Stream, der den Syntaxfehler enthält, ordnungsgemäß token kann.
Es sollte dort hängen bleiben oder dem Parser falsche Informationen geben. Ich meine, ist das Tokenizing nicht auch eine Art Übersetzer?
So, wie es nur die lexikalisch beschädigten Codezeilen beim Tokenisieren überwindet.
Ein Beispiel für ein Token finden Sie oben im Link unter der Überschrift " The Tokenizer" .
Soweit ich weiß, scheint die Form des Tokens so zu sein, dass auch der Code-Token beschädigt wird, wenn etwas nicht stimmt.
Könnten Sie bitte mein Missverständnis klären?