Ich werde dies aus der anderen Richtung der Philosophie angehen, im Lichte der wirklich nützlichen Prinzipien des Unsicherheitsmanagements, die in George F. Klirs Büchern über Fuzzy-Sets diskutiert werden. Ich kann van der Laan nicht genau beschreiben, aber ich kann eine ziemlich erschöpfende Begründung dafür liefern, warum sein Ziel logisch unmöglich ist. Das wird eine lange Diskussion erfordern, die sich auf andere Bereiche bezieht.
Klir und seine Mitautoren unterteilen die Unsicherheit in verschiedene Subtypen, wie z. B. die Unsicherheit (dh wenn Sie eine unbekannte Menge von Alternativen haben, die mit Mitteln wie der Hartley-Funktion behandelt werden); Ungenauigkeit in Definitionen (dh die in Fuzzy-Mengen modellierte und quantifizierte "Unschärfe"); Streit oder Zwietracht in Beweismitteln (behandelt in Dempster-Shafer Evidence Theory); Dazu kommen Wahrscheinlichkeitstheorie, Möglichkeitstheorie und Messunsicherheit, bei denen ein angemessener Erfassungsbereich für die relevanten Beweise bei gleichzeitiger Minimierung von Fehlern angestrebt wird. Ich betrachte die gesamte Toolbox statistischer Techniken als alternatives Mittel, um die Unsicherheit auf unterschiedliche Weise zu unterteilen, ähnlich wie bei einem Ausstecher. Konfidenzintervalle und p-Werte stellen die Unsicherheit in gewisser Weise unter Quarantäne, während Messungen wie Shannons Entropie sie aus einem anderen Blickwinkel herabsetzen. Was sie können Es ist jedoch nicht vollständig zu beseitigen. Um ein "genaues Modell" zu erhalten, wie es van der Laan zu beschreiben scheint, müssten wir all diese Arten von Unsicherheiten auf Null reduzieren, damit es nicht mehr nötig ist, zu partitionieren. Ein wirklich "genaues" Modell hätte immer Wahrscheinlichkeits- und Wahrscheinlichkeitswerte von 1, Unsicherheitswerte von 0 und keinerlei Unsicherheit in Bezug auf die Definition von Begriffen, Wertebereichen oder Messskalen. Es würde keine Zwietracht in alternativen Beweisquellen geben. Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen: so wie van der Laan es zu beschreiben scheint, müssten wir all diese Arten von Unsicherheit auf Null reduzieren, damit es keine Möglichkeit mehr gibt, sie zu unterteilen. Ein wirklich "genaues" Modell hätte immer Wahrscheinlichkeits- und Wahrscheinlichkeitswerte von 1, Unsicherheitswerte von 0 und keinerlei Unsicherheit in Bezug auf die Definition von Begriffen, Wertebereichen oder Messskalen. Es würde keine Zwietracht in alternativen Beweisquellen geben. Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen: so wie van der Laan es zu beschreiben scheint, müssten wir all diese Arten von Unsicherheit auf Null reduzieren, damit es keine Möglichkeit mehr gibt, sie zu unterteilen. Ein wirklich "genaues" Modell hätte immer Wahrscheinlichkeits- und Wahrscheinlichkeitswerte von 1, Unsicherheitswerte von 0 und keinerlei Unsicherheit in Bezug auf die Definition von Begriffen, Wertebereichen oder Messskalen. Es würde keine Zwietracht in alternativen Beweisquellen geben. Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen: Ein wirklich "genaues" Modell hätte immer Wahrscheinlichkeits- und Wahrscheinlichkeitswerte von 1, Unsicherheitswerte von 0 und keinerlei Unsicherheit in Bezug auf die Definition von Begriffen, Wertebereichen oder Messskalen. Es würde keine Zwietracht in alternativen Beweisquellen geben. Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen: Ein wirklich "genaues" Modell hätte immer Wahrscheinlichkeits- und Wahrscheinlichkeitswerte von 1, Unsicherheitswerte von 0 und keinerlei Unsicherheit in Bezug auf die Definition von Begriffen, Wertebereichen oder Messskalen. Es würde keine Zwietracht in alternativen Beweisquellen geben. Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen: Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen: Die Vorhersagen eines solchen Modells wären immer zu 100 Prozent korrekt. Vorhersagemodelle unterteilen ihre Unsicherheit im Wesentlichen in die Zukunft, aber es würde keine mehr übrig bleiben, die sie abschrecken könnten. Die Unsicherheitsperspektive hat einige wichtige Auswirkungen:
• Dieser hohe Auftrag ist nicht nur physikalisch unplausibel, sondern auch logisch unmöglich. Offensichtlich können wir keine perfekt kontinuierlichen Messskalen mit infinitesimalen Graden erzielen, indem wir endliche Beobachtungen mit fehlbaren physikalisch-wissenschaftlichen Geräten sammeln. Es wird immer eine gewisse Unsicherheit in Bezug auf die Messskala geben. Ebenso wird es immer eine gewisse Unschärfe bei den Definitionen geben, die wir in unseren Experimenten verwenden. Die Zukunft ist ebenfalls von Natur aus ungewiss, so dass die angeblich perfekten Vorhersagen unserer "exakten" Modelle als unvollkommen behandelt werden müssen, bis das Gegenteil bewiesen ist - was eine Ewigkeit dauern würde.
• Erschwerend kommt hinzu, dass keine Messtechnik zu irgendeinem Zeitpunkt zu 100 Prozent fehlerfrei ist und auch nicht umfassend genug sein kann, um alle möglicherweise widersprüchlichen Informationen im Universum zu erfassen. Darüber hinaus kann die Beseitigung möglicher Störgrößen und die vollständige bedingte Unabhängigkeit nicht gründlich nachgewiesen werden, ohne alle anderen physikalischen Prozesse zu untersuchen, die den von uns untersuchten betreffen, sowie diejenigen, die diese sekundären Prozesse betreffen, und so weiter.
• Exaktheit ist nur in der reinen Logik und ihrer Teilmenge Mathematik möglich, gerade weil Abstraktionen von realen Belangen wie diesen Unsicherheitsquellen getrennt sind. Zum Beispiel können wir durch rein deduktive Logik beweisen, dass 2 + 2 = 4 und jede andere Antwort zu 100 Prozent falsch ist. Wir können auch absolut genaue Vorhersagen treffen, dass sie immer gleich 4 sein werden. Diese Genauigkeit ist nur in Statistiken möglich, wenn es sich um Abstraktionen handelt. Statistik ist unglaublich nützlich, wenn sie auf die reale Welt angewendet wird, aber genau das, was sie nützlich macht, bringt zumindest einen gewissen Grad an unvermeidbarer Unsicherheit mit sich und macht sie dadurch ungenau. Es ist ein unvermeidliches Dilemma.
• Peter Chu weist außerdem auf zusätzliche Einschränkungen im Kommentarbereich des Artikels hin, auf den rvl verweist. Er sagt es besser als ich:
"Diese Lösungsoberfläche für NP-harte Probleme ist in der Regel mit vielen lokalen Optima behaftet, und in den meisten Fällen ist es rechnerisch nicht möglich, das Problem zu lösen, dh die globale optimale Lösung im Allgemeinen zu finden. Daher verwendet jeder Modellierer einige (heuristische) Modellierungstechniken. bestenfalls auf dem riesigen Lösungsraum dieser komplexen Zielfunktion adäquate lokale optimale Lösungen zu finden. "
• All dies bedeutet, dass die Wissenschaft selbst nicht genau sein kann, obwohl van der Laan in seinem Artikel so darüber zu sprechen scheint. Die wissenschaftliche Methode als abstrakter Prozess ist genau definierbar, aber die Unmöglichkeit einer universellen und perfekten exakten Messung bedeutet, dass sie keine exakten Modelle ohne Unsicherheit erzeugen kann. Wissenschaft ist ein großartiges Werkzeug, aber es hat Grenzen.
• Es wird von dort schlimmer: Auch wenn möglich waren genau alle Kräfte auf jedem Konstituentenquark und Gluonen im Universum wirken zu messen, würden einige Unsicherheiten nach wie vor bleiben. Erstens wären Vorhersagen, die von einem solchen vollständigen Modell getroffen werden, aufgrund der Existenz mehrerer Lösungen für Quintingleichungen und höhere Polynome immer noch unsicher. Zweitens können wir nicht ganz sicher sein, dass die extreme Skepsis, die in der klassischen Frage "Vielleicht ist das alles ein Traum oder eine Halluzination" zum Ausdruck kommt, nicht die Realität widerspiegelt - in diesem Fall sind alle unsere Modelle in der Tat im schlimmsten Fall falsch . Dies entspricht im Grunde einer extremeren ontologischen Interpretation der ursprünglichen erkenntnistheoretischen Formulierungen von Philosophien wie Phänomenalismus, Idealismus und Solipsismus.
• In seiner klassischen Orthodoxie von 1909GK Chesterton bemerkte, dass die extremen Versionen dieser Philosophien zwar beurteilt werden können, aber danach, ob sie ihre Gläubigen in psychiatrische Anstalten treiben oder nicht; Der ontologische Solipsismus zum Beispiel ist ebenso wie einige seiner Verwandten ein Marker für Schizophrenie. Das Beste, was wir in dieser Welt erreichen können, ist, vernünftige Zweifel zu beseitigen. Unangemessene Zweifel dieser beunruhigenden Art können nicht konsequent beseitigt werden, selbst in einer hypothetischen Welt exakter Modelle, erschöpfender und fehlerfreier Messungen. Wenn van der Laan uns von unzumutbaren Zweifeln befreien will, dann spielt er mit dem Feuer. Indem wir nach Perfektion greifen, wird das endliche Gute, das wir tun können, durch unsere Finger gleiten. Wir sind endliche Wesen, die in einer unendlichen Welt existieren, was bedeutet, dass die Art des vollständigen und absolut sicheren Wissens, für das van der Laan plädiert, für immer außerhalb unserer Reichweite liegt. Der einzige Weg, wie wir diese Art von Gewissheit erreichen können, besteht darin, aus dieser Welt in die engeren Grenzen der perfekt abstrakten Welt zurückzukehren, die wir "reine Mathematik" nennen. Dies bedeutet jedoch nicht, dass ein Rückzug in die reine Mathematik die Lösung zur Beseitigung der Unsicherheit ist. Dies war im Wesentlichen der Ansatz der Nachfolger Ludwig Wittgensteins (1889-1951), der seine Philosophie des logischen Positivismus von jeglichem gesunden Menschenverstand befreite, indem er die Metaphysik insgesamt ablehnte und sich ganz in reine Mathematik und Wissenschaft sowie extreme Skepsis zurückzog. Überspezialisierung und Überbetonung der Genauigkeit gegenüber der Nützlichkeit. Dabei zerstörten sie die Disziplin der Philosophie, indem sie sie in einen Sumpf aus Trottel über Definitionen und Nabelschau auflösten und sie damit für den Rest der Wissenschaft irrelevant machten. Dies tötete im Wesentlichen die gesamte Disziplin, die bis zum Beginn des 20. Jahrhunderts im Vordergrund der akademischen Debatte stand, bis zu einem Punkt, an dem die Aufmerksamkeit der Medien noch immer auf sich zog und einige ihrer Führer bekannte Namen waren. Sie erfassten eine perfekte, ausgefeilte Erklärung der Welt, und sie rutschte ihnen durch die Finger - genau wie es bei den Geisteskranken der Fall war, von denen GKC sprach. Es wird auch aus dem Griff von van der Laan entgleiten, der seinen eigenen Standpunkt bereits widerlegt hat, wie weiter unten erörtert wird. Das Streben nach zu genauen Modellen ist nicht nur unmöglich; es kann gefährlich sein, wenn man es bis zu einer selbstzerstörerischen Besessenheit bringt. Das Streben nach dieser Art von Reinheit endet selten gut; Es ist oft so selbstzerstörerisch wie die Keimtötenden, die sich so heftig die Hände scheuern, dass sie Wunden bekommen, die sich infizieren. Es' s erinnert an Ikarus, der versucht, der Sonne Feuer zu stehlen: Als endliche Wesen können wir nur ein endliches Verständnis der Dinge haben. Wie Chesterton auch in der Orthodoxie sagt: "Es ist der Logiker, der versucht, den Himmel in seinen Kopf zu bekommen. Und es ist sein Kopf, der sich spaltet."
Lassen Sie mich im Lichte der obigen Ausführungen einige der von rvl aufgeführten spezifischen Fragen beantworten:
1) Ein Modell ohne jegliche Annahmen ist sich entweder a) seiner eigenen Annahmen nicht bewusst oder b) muss sauber von Überlegungen getrennt sein, die Unsicherheiten wie Messfehler mit sich bringen, und dabei jede einzelne mögliche Störgröße, perfekt kontinuierliche Messskalen und die mögen.
2) Ich bin immer noch ein Neuling, wenn es um die Schätzung der maximalen Wahrscheinlichkeit (Maximum Likelihood, MLE) geht, daher kann ich die Mechanismen der Zielwahrscheinlichkeit nicht kommentieren, außer um das Offensichtliche hervorzuheben: Wahrscheinlichkeit ist nur das, eine Wahrscheinlichkeit, keine Gewissheit . Um ein genaues Modell abzuleiten, muss die Unsicherheit vollständig beseitigt werden, was die Wahrscheinlichkeitslogik, wenn überhaupt, selten tun kann.
3) Natürlich nicht. Da alle Modelle eine gewisse Unsicherheit aufweisen und daher ungenau sind (mit Ausnahme der reinen Mathematik, die von den realen physikalischen Messungen getrennt ist), hätte die Menschheit bisher keinen technologischen Fortschritt erzielen können - oder in der Tat einen anderen Fortschritt alle. Wenn ungenaue Modelle immer nutzlos wären, würden wir diese Konversation in einer Höhle führen, anstatt auf dieser unglaublichen technischen Meisterleistung namens Internet, die allesamt durch ungenaue Modellierung ermöglicht wurde.
Ironischerweise ist van der Laans eigenes Modell ein Hauptbeispiel für Ungenauigkeit. Sein eigener Artikel skizziert eine Art Modell, wie das Gebiet der Statistik verwaltet werden sollte, mit dem Ziel, genaue Modelle zu erstellen. Es gibt noch keine Zahlen für dieses "Modell", kein Maß dafür, wie ungenau oder unbrauchbar die meisten Modelle sind, kein Maß dafür, wie weit wir von seiner Vision entfernt sind, aber ich nehme an, man könnte Tests für diese Dinge entwickeln . So wie es aussieht, ist sein Modell jedoch ungenau. Wenn es nicht nützlich ist, bedeutet es, dass sein Standpunkt falsch ist; Wenn es nützlich ist, wird seine Hauptaufgabe zunichte gemacht, dass ungenaue Modelle nicht nützlich sind. In jedem Fall widerlegt er sein eigenes Argument.
4) Wahrscheinlich nicht, da wir nicht über vollständige Informationen verfügen, mit denen wir unser Modell testen können, aus den gleichen Gründen, aus denen wir überhaupt kein genaues Modell ableiten können. Ein genaues Modell würde per Definition eine perfekte Vorhersagbarkeit erfordern, aber selbst wenn die ersten 100 Tests zu 100 Prozent genau ausfallen, ist dies beim 101. möglicherweise nicht der Fall. Dann gibt es die ganze Ausgabe von infinitesimalen Maßstäben. Danach stoßen wir auf alle anderen Unsicherheitsfaktoren, die eine Bewertung des Elfenbeinturms unseres Elfenbeinturmmodells beeinträchtigen.
5) Um das Problem anzusprechen, musste ich es in einen größeren Kontext von viel größeren philosophischen Fragen stellen, die oft kontrovers sind. Ich denke nicht, dass es möglich ist, dies zu diskutieren, ohne auf Meinungen einzugehen Quelle der Unsicherheit), aber Sie haben Recht, verdient dieser Artikel eine Antwort. Vieles, was er zu anderen Themen sagt, ist auf dem richtigen Weg, zum Beispiel die Notwendigkeit, Statistiken für Big Data relevant zu machen, aber es gibt einige unpraktische Extremismen, die korrigiert werden sollten.