Ich denke, Boostrap wäre die beste Option, um robuste SEs zu erhalten. Dies wurde in einigen angewandten Arbeiten unter Verwendung von Schrumpfungsmethoden durchgeführt, z. B. Analyse von Daten des North American Rheumatoid Arthritis Consortium unter Verwendung eines Ansatzes der bestraften logistischen Regression (BMC Proceedings 2009). Es gibt auch eine schöne Arbeit von Casella über SE-Berechnungen mit dem bestraften Modell, der bestraften Regression, Standardfehlern und Bayesianischen Lassos (Bayesian Analysis 2010 5 (2)). Sie befassen sich jedoch mehr mit der Bestrafung durch Lasso und Elastiknetze .
Ich dachte immer an eine Gratregression, um bessere Vorhersagen als bei Standard-OLS zu erhalten, bei denen das Modell im Allgemeinen nicht parcimonious ist. Für die Variablenauswahl sind die Kriterien Lasso oder Elasticnet besser geeignet, aber dann ist es schwierig, ein Bootstrap-Verfahren anzuwenden (da sich ausgewählte Variablen von einer Stichprobe zur anderen ändern würden und sogar in der inneren fold-Schleife, die zur Optimierung des / parameter); Dies ist bei der Gratregression nicht der Fall, da Sie immer alle Variablen berücksichtigen.kℓ1ℓ2
Ich habe keine Ahnung über R-Pakete, die diese Informationen geben würden. Es scheint nicht im glmnet- Paket verfügbar zu sein (siehe Friedmans Artikel in JSS, Regularisierungspfade für verallgemeinerte lineare Modelle über Koordinatenabstieg ). Jelle Goeman, der das Strafpaket verfasst hat , erörtert diesen Punkt jedoch ebenfalls. Kann das Original-PDF im Web nicht finden, daher zitiere ich einfach seine Worte:
Es ist eine sehr natürliche Frage, nach Standardfehlern von Regressionskoeffizienten oder anderen geschätzten Größen zu fragen. Grundsätzlich können solche Standardfehler einfach berechnet werden, z. B. mit dem Bootstrap.
Dieses Paket bietet sie jedoch absichtlich nicht an. Der Grund dafür ist, dass Standardfehler für stark verzerrte Schätzungen, wie sie sich aus strafbaren Schätzmethoden ergeben, nicht sehr aussagekräftig sind. Die bestrafte Schätzung ist ein Verfahren, das die Varianz von Schätzern durch Einführung einer erheblichen Verzerrung verringert. Die Vorspannung jedes Schätzers ist daher eine Hauptkomponente seines mittleren quadratischen Fehlers, wohingegen seine Varianz nur einen kleinen Teil beitragen kann.
Leider ist es in den meisten Anwendungen der bestraften Regression nicht möglich, eine ausreichend genaue Schätzung der Verzerrung zu erhalten. Bootstrap-basierte Berechnungen können nur eine Einschätzung der Varianz der Schätzungen geben. Zuverlässige Schätzungen des Bias sind nur verfügbar, wenn zuverlässige unverzerrte Schätzungen verfügbar sind, was in Situationen, in denen bestrafte Schätzungen verwendet werden, normalerweise nicht der Fall ist.
Das Melden eines Standardfehlers einer bestraften Schätzung erzählt daher nur einen Teil der Geschichte. Es kann einen irrtümlichen Eindruck von großer Präzision geben, wobei die durch die Vorspannung verursachte Ungenauigkeit völlig ignoriert wird. Es ist sicherlich ein Fehler, Vertrauensaussagen zu machen, die nur auf einer Einschätzung der Varianz der Schätzungen beruhen, wie dies bei Bootstrap-basierten Vertrauensintervallen der Fall ist.