Meine Frage bezieht sich auf die Regularisierung in der linearen Regression und der logistischen Regression. Ich mache gerade Woche 3 von Andrew Ngs Kurs über maschinelles Lernen auf Coursera. Ich verstehe, wie Überanpassung ein häufiges Problem sein kann, und ich habe eine gewisse Intuition dafür, wie Regularisierung Überanpassung reduzieren kann. Meine Frage ist, können wir unsere Modelle verbessern, indem wir verschiedene Parameter auf unterschiedliche Weise regulieren?
Beispiel:
Nehmen wir an, wir versuchen zu passen . Diese Frage ist, warum wir für hohe bestrafen Werte auf die gleiche Weise, die für hohe bestrafen Werte.
Wenn wir nichts über unsere Funktionen wissen konstruiert wurden, ist es sinnvoll, sie alle gleich zu behandeln, wenn wir regulieren: ein Hoch Wert sollte so viel "Strafe" wie ein Hoch ergeben Wert.
Angenommen, wir haben zusätzliche Informationen: Nehmen wir an, wir hatten ursprünglich nur zwei Funktionen: und . Eine Linie passte nicht zu unserem Trainingsset und wir wollten eine schnörkellosere Entscheidungsgrenze, also konstruierten wir und . Jetzt können wir komplexere Modelle haben, aber je komplexer sie werden, desto größer ist das Risiko, dass wir unser Modell an die Trainingsdaten anpassen. Wir wollen also ein Gleichgewicht zwischen der Minimierung der Kostenfunktion und der Minimierung unserer Modellkomplexität finden. Nun, die Parameter, die höhere Exponentiale darstellen (, ) erhöhen die Komplexität unseres Modells drastisch. Also sollten wir nicht mehr für High bestrafen, Werte, als wir für hohe bestrafen Werte?