Gibt es ein System ähnlich dem Lambda-Kalkül, das sich stark normalisiert, ohne dass ein Typsystem hinzugefügt werden muss?
Gibt es ein System ähnlich dem Lambda-Kalkül, das sich stark normalisiert, ohne dass ein Typsystem hinzugefügt werden muss?
Antworten:
Ich kann mir einige mögliche Antworten aus der linearen Logik vorstellen.
Der einfachste ist der affine Lambda-Kalkül: Betrachten Sie nur Lambda-Terme, in denen jede Variable höchstens einmal vorkommt. Dieser Zustand bleibt durch Reduktion erhalten und es ist sofort ersichtlich, dass die Größe der affinen Terme mit jedem Reduktionsschritt streng abnimmt. Daher normalisiert sich der untypisierte affine Lambda-Kalkül stark.
Interessantere Beispiele (in Bezug auf die Ausdruckskraft) sind die sogenannten "leichten" Lambda-Kalküle, die sich aus den von Girard in "Light Linear Logic" (Information and Computation 143, 1998) eingeführten Subsystemen der linearen Logik ergeben als Lafonts "Soft Linear Logic" (Theoretical Computer Science 318, 2004). Es gibt mehrere solcher Kalküle in der Literatur, vielleicht ist Teruis "Lichtaffine Lambda-Kalkül- und Polynomzeit-starke Normalisierung" eine gute Referenz (Archive for Mathematical Logic 46, 2007). In dieser Arbeit definiert Terui einen Lambda-Kalkül, der aus der lichtaffinen Logik abgeleitet ist, und beweist ein starkes Normalisierungsergebnis dafür. Obwohl Typen in der Veröffentlichung erwähnt werden, werden sie im Normalisierungsnachweis nicht verwendet. Sie sind nützlich für eine saubere Formulierung der Haupteigenschaft des lichtaffinen Lambda-Kalküls, nämlich dass die Terme eines bestimmten Typs genau die Polytime-Funktionen darstellen. Ähnliche Ergebnisse sind für die Elementarberechnung unter Verwendung anderer "leichter" Lambda-Kalküle bekannt (Teruis Artikel enthält weitere Referenzen).
Als Randnotiz ist es interessant zu beobachten, dass der affine Lambda-Kalkül beweistheoretisch der intuitionistischen Logik ohne die Kontraktionsregel entspricht. Grishin beobachtete (bevor die lineare Logik eingeführt wurde), dass die naive Mengenlehre (dh mit uneingeschränktem Verständnis) ohne Kontraktion konsistent ist (dh Russels Paradoxon gibt keinen Widerspruch). Der Grund dafür ist, dass die Eliminierung von Schnitten für die naive Mengenlehre ohne Kontraktion durch ein einfaches Argument zur Größenverringerung (wie das oben angegebene) bewiesen werden kann, das nicht auf der Komplexität von Formeln beruht. Über die Curry-Howard-Korrespondenz ist dies genau die Normalisierung des untypisierten affinen Lambda-Kalküls. Dies geschieht durch die Übersetzung von Russels Paradoxon in lineare Logik und durch "Optimieren" die exponentiellen Modalitäten, so dass kein Widerspruch abgeleitet werden konnte, dass Girard eine leichte lineare Logik entwickelte. Wie oben erwähnt, liefert die lichtlineare Logik rechnerisch eine Charakterisierung der polynomialzeitberechnbaren Funktionen. In beweistheoretischen Begriffen kann eine konsistente naive Mengenlehre in der lichtlinearen Logik so definiert werden, dass die nachweislich Gesamtfunktionen genau die polynomialzeitberechnbaren Funktionen sind (es gibt eine andere Arbeit von Terui zu diesem Thema: "Lichtaffine Mengenlehre: Eine naive Mengenlehre der Polynomzeit ", Studia Logica 77, 2004).
Das Originalpapier von Church und Rosser, "Some Properties of Conversion", beschreibt etwas, das ein Beispiel dafür sein könnte, wonach Sie suchen.
Obwohl Sie nicht terminierende Begriffe in den (untypisierten) strengen Lambda-Kalkül schreiben können, normalisiert sich jeder Begriff mit einer normalen Form stark. Das heißt, jede Folge von Reduktionen erreicht diese einzigartige Normalform.
Hier ist eine lustige von Neil Jones und Nina Bohr:
Der Vorteil des Schreibens liegt natürlich sowohl in den geringen Komplexitätskosten als auch in der Modularität des Ansatzes: Im Allgemeinen sind Terminierungsanalysen sehr nicht modular, aber das Schreiben kann "Stück für Stück" erfolgen.