Mich interessiert, warum natürliche Zahlen bei den Autoren von Büchern über Programmiersprachentheorie und Typentheorie so beliebt sind (z. B. J. Mitchell, Grundlagen für Programmiersprachen und B. Pierce, Typen und Programmiersprachen). Die Beschreibung des einfach getippten Lambda-Kalküls und insbesondere der PCF-Programmiersprache basiert normalerweise auf Nat's und Bool's. Für die Menschen, die industrielle PL für allgemeine Zwecke verwenden und unterrichten, ist es viel natürlicher, Ganzzahlen anstelle von natürlichen Werten zu behandeln. Können Sie einige gute Gründe nennen, warum PL-Theoretiker Nat's bevorzugen? Ansonsten ist es etwas unkomplizierter. Gibt es fundamentale Gründe oder ist es nur eine Ehre der Tradition?
UPD Bei all diesen Kommentaren zur „Fundamentalität“ von Naturals: Ich bin mir all dieser coolen Dinge durchaus bewusst, aber ich würde lieber ein Beispiel sehen, wenn es wirklich wichtig ist, diese Eigenschaften in der Typentheorie der PL-Theorie zu haben. ZB häufig erwähnte Induktion. Wenn wir irgendeine Art von Logik haben (die einfach LC ist), wie grundlegende Logik erster Ordnung, verwenden wir wirklich Induktion - aber Induktion auf Ableitungsbaum (die wir auch in Lambda haben).
Meine Frage kommt hauptsächlich von Leuten aus der Industrie, die eine grundlegende Theorie der Programmiersprachen erlernen wollen. Früher hatten sie ganze Zahlen in ihren Programmen und ohne konkrete Argumente und Anwendungen für die Theorie, die studiert wurde (in unserem Fall Typentheorie), warum sie sich ziemlich enttäuscht fühlen, wenn sie Sprachen nur mit Nat lernen.