Trifft es zu, dass das Hinzufügen von Axiomen zum CIC den rechnerischen Inhalt von Definitionen und Theoremen negativ beeinflusst? Ich verstehe , dass, in der normalen Verhalten Theorie, jeder geschlossene Begriff in seiner kanonischen Normalform reduzieren, zB wenn wahr ist , dann n auf einen Term der Form reduzieren muß ( s u c c . . . ( S u c c ( 0 ) ) ) . Aber wenn wir ein Axiom postulieren - sagen wir das Axiom der Funktionserweiterung -, fügen wir dem System einfach eine neue Konstante hinzufunext
das wird einfach "magisch" einen Beweis von aus jedem Beweis von Π x erzeugen : A f ( x ) = g ( x ) , ohne irgendeine rechnerische Bedeutung ( in dem Sinne, dass wir daraus keinen Code extrahieren können? )
Aber warum ist das "schlecht"?
Denn funext
ich habe in diesem CoQ-Eintrag und in dieser Mathoverflow-Frage gelesen, dass das System entweder die Kanonizität verliert oder entscheidbare Prüfungen durchführt. Der coq-Eintrag scheint ein gutes Beispiel zu sein, aber ich hätte gerne noch einige Referenzen dazu - und irgendwie kann ich keine finden.
Wie kann das Hinzufügen zusätzlicher Axiome dazu führen, dass sich CIC schlechter verhält? Irgendwelche praktischen Beispiele wären toll. (Zum Beispiel das Univalence Axiom?) Ich fürchte, diese Frage ist zu leise, aber wenn jemand etwas Licht in diese Fragen bringen oder mir Referenzen geben könnte, wäre das großartig!
PS: Der CoQ-Eintrag erwähnt, dass "Thierry Coquand bereits Mitte der 90er Jahre festgestellt hat, dass Mustervergleiche über Intensivfamilien hinweg nicht mit Extensionalität vereinbar sind." Weiß jemand in welcher Zeitung oder so?