Ich habe eine Frage, was es bedeutet, dass eine Wissensbasis konsistent und vollständig ist. Ich habe mich mit nicht-monotoner Logik und verschiedenen Formalismen aus dem Buch "Wissensrepräsentation und Argumentation" von Brachman und Levesque befasst, aber etwas verwirrt mich. Man sagt:
Wir sagen, eine KB weist konsistentes Wissen auf, wenn es keinen Satz P gibt, so dass sowohl P als auch ~ P bekannt sind. Dies entspricht der Anforderung, dass die KB erfüllt werden muss. Wir sagen auch, dass eine KB vollständiges Wissen aufweist, wenn für jedes P (innerhalb seines Vokabulars) P oder ~ P bekannt ist. "
Sie scheinen dann zu suggerieren, dass mit "bekannt" "verbunden" gemeint ist. Man sagt
"Im Allgemeinen kann Wissen natürlich unvollständig sein. Nehmen wir beispielsweise an, KB besteht aus einem einzelnen Satz (P oder Q). Dann beinhaltet KB weder P noch ~ P und weist daher unvollständiges Wissen auf."
Aber wenn sie mit Sätzen von Sätzen zu tun, sehe ich in der Regel diese Begriffe als WRT definiert ist ableitbar und nicht die Implikation .
Meine Frage ist also, was genau diese Autoren unter "bekannt" in den obigen Zitaten verstehen.
edit: In diesem Beitrag hat der Austausch von Mathe-Stapeln geholfen, die Dinge zu klären.