Einbeziehung zusätzlicher Einschränkungen (normalerweise eine Strafe für die Komplexität) in den Modellanpassungsprozess. Wird verwendet, um eine Überanpassung zu verhindern / die Vorhersagegenauigkeit zu verbessern.
Es gibt bereits Beiträge zu Warnungen von R, die sich mit logistischer Regression und linearer Trennung wie dieser befassen . Ich möchte nur sicherstellen, dass in Python Scikit Learn dieses Problem durch den L1 / L2-Regularisierungsteil in der Optimierungsfunktion gelöst wird. Mit anderen Worten, es ist sicher zu sagen, dass …
Ich habe die Regressionsparameter eines linearen Regressionsmodells mit LASSO geschätzt, einige Variablen mithilfe der Kreuzvalidierung auf Null gesendet und jetzt ein endgültiges Modell erhalten. Es ist bekannt, dass das Regularisieren eine Verzerrung der aktiven Variablen hervorruft, aber es ist ein guter Preis, um falsche Variablen loszuwerden. Was mache ich jetzt, …
Sehr grundlegende Frage hier, aber ich möchte verstehen (nicht mathematisch), wie die Tatsache, eine "Strafe" (Summe der quadratischen Koeffizienten mal Skalar) zur verbleibenden Quadratsumme hinzuzufügen, große Koeffizienten reduzieren kann? Vielen Dank !
Betrachten Sie die elastische Netzregression mit einer glmnetähnlichen Parametrisierung der VerlustfunktionIch habe einen Datensatz mit n \ ll p (44 bzw. 3000) und verwende eine wiederholte 11-fache Kreuzvalidierung, um die optimalen Regularisierungsparameter \ alpha und \ lambda auszuwählen . Normalerweise würde ich einen quadratischen Fehler als Leistungsmetrik für den Testsatz …
Wenn ich es richtig verstehe, verwendet glmnet den zyklischen Koordinatenabstieg nicht nur für Lasso- und Gummibänder, sondern auch für die Ridge-Regression. Warum wird dieser Algorithmus verwendet, der manchmal leicht ungenaue Ergebnisse liefert, obwohl tatsächlich eine einfache Lösung in geschlossener Form verfügbar ist? Vielen Dank im Voraus!
Sollte ich beim Übergang von der zur Normalisierung in der linearen Regression mehr Verzerrung oder Varianz erwarten? Beachten Sie, dass die Vorspannung ein Zeichen für eine Unteranpassung ist und die Varianz ein Zeichen für eine Überanpassung ist. Nehmen Sie eine Konstante λ an.L.2L2L^2L.1L1L^1 Ich suche hier eine allgemeine Faustregel. Wenn …
Meine Frage bezieht sich auf die Regularisierung in der linearen Regression und der logistischen Regression. Ich mache gerade Woche 3 von Andrew Ngs Kurs über maschinelles Lernen auf Coursera. Ich verstehe, wie Überanpassung ein häufiges Problem sein kann, und ich habe eine gewisse Intuition dafür, wie Regularisierung Überanpassung reduzieren kann. …
Bei der linearen Regression von Grat und Lasso besteht ein wichtiger Schritt darin, den Abstimmungsparameter Lambda zu wählen. Oft verwende ich die Rastersuche auf der Protokollskala von -6-> 4, sie funktioniert gut auf Grat, aber auf Lasso sollte ich die Reihenfolge berücksichtigen der Größe der Ausgabe y? Wenn die Ausgabe …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.