Antworten:
Normen sind Funktionen, die Vektoren nehmen und nichtnegative Zahlen zurückgeben. Sie sind definiert als ‖ → x ‖ p = ( d ∑ i = 1 | x i | p ) 1 / p In dem Fall, in dem p = 2 ist , wird dies dieeuklidischeNorm genannt. Sie können den euklidischen Abstand als ‖ → x - → y ‖ 2 definieren . Wenn p = ∞ , bedeutet dies nur ‖ →
(Es gibt auch -Normen, die analog definiert sind, mit Ausnahme von Funktionen anstelle von Vektoren oder Sequenzen - das ist wirklich dasselbe, da Vektoren Funktionen mit endlichen Domänen sind.)
Mir ist keine Verwendung einer Norm in einer Anwendung für maschinelles Lernen bekannt, bei der , außer bei p = ∞ . Normalerweise sehen Sie p = 2 oder p = 1 oder manchmal 1 < p < 2, wo Sie den Fall p = 1 lockern möchten ; ‖ → x ‖ 1 ist in → x nicht streng konvex , aber ‖ → x ‖ p ist für 1 < p < ∞. Dies kann in bestimmten Fällen das "Finden" der Lösung "einfacher" machen.
Wenn Sie im Kontext der Regularisierung ‖ → x ‖ hinzufügen zu Ihrer Zielfunktion, was Sie sagenistdass Sie erwarten → x zuspärlich, das heißt,größten Teil aus Nullen besteht. Es ist ein bisschen technisch, aber wenn es einedichteLösung gibt, gibt es wahrscheinlich eine sparsamere Lösung mit derselben Norm. Wenn Sie erwarten, dass Ihre Lösung dicht ist, können SieIhrem Ziel ‖ → x ‖ 2 2 hinzufügen , da es dann viel einfacher ist, mit der Ableitung zu arbeiten. Beide dienen dazu, zu verhindern, dass die Lösung zu viel Gewicht hat.
Die gemischte Norm tritt auf, wenn Sie versuchen, mehrere Quellen zu integrieren. Grundsätzlich möchten Sie, dass der Lösungsvektor aus mehreren Teilen besteht , wobei j der Index einer Quelle ist. Die l p , q Norm ist nur die q -Norm alle p -Normen in einem Vektor gesammelt. Dh ‖ → x ‖ p , q = ( m ∑
Ich hoffe, das hilft.
Weitere Informationen finden Sie in diesem Dokument.