Die Frage: Bootstrapping ist Jackknifing überlegen ; Ich frage mich jedoch, ob es Fälle gibt, in denen das Jackknifing die einzige oder zumindest eine praktikable Option zur Charakterisierung der Unsicherheit aus Parameterschätzungen ist. Auch in praktischen Situationen, wie voreingenommen / ungenau ist Jackknifing im Vergleich zu Bootstrapping, und können Jackknife-Ergebnisse vorläufige Einsichten liefern, bevor ein komplizierteres Bootstrap entwickelt wird?
Kontext: Ein Freund verwendet einen Black-Box-Algorithmus für maschinelles Lernen ( MaxEnt ), um geografische Daten zu klassifizieren, die "nur vorhanden" oder "nur positiv" sind. Die allgemeine Modellbewertung erfolgt normalerweise anhand von Kreuzvalidierungs- und ROC-Kurven. Sie verwendet jedoch die Ausgabe des Modells, um eine einzelne numerische Beschreibung der Modellausgabe abzuleiten, und möchte ein Konfidenzintervall um diese Zahl; Jackknifing scheint ein vernünftiger Weg zu sein, um die Unsicherheit um diesen Wert herum zu charakterisieren. Bootstrapping erscheint nicht relevant, da jeder Datenpunkt eine eindeutige Position auf einer Karte ist, die beim Ersetzen nicht erneut abgetastet werden kann. Möglicherweise kann das Modellierungsprogramm selbst das liefern, was es benötigt. Ich interessiere mich jedoch generell dafür, ob / wann Jackknifing nützlich sein kann.