Wenn ein Lernalgorithmus (z. B. Klassifizierung, Regression, Clustering oder Dimensionsreduktion) nur das Punktprodukt zwischen Datenpunkten verwendet Wir können implizit eine höherdimensionale Abbildung verwenden Durch den Kernel-Trick wird jede Instanz ausgetauscht, in der das Punktprodukt vom Kernel auftritt .
In linearen Modellen, beispielsweise SVMs, kann ein Achsenabschnitt berücksichtigt werden, der Datenpunkten eine konstante Spalte hinzufügt. Wenn wir den linearen Kernel verwenden Es macht für mich sehr viel Sinn, diese Spalte konstant zu halten: Sie können die Spaltenkoeffizienten abrufen aus den Kernel-Produktkoeffizienten durch und die Lösungen sollten identisch sein, mit dem Kernel oder nicht.
Was aber, wenn der Kernel nicht linear ist, was ist, wenn die Abbildung unendlich dimensioniert ist, sodass die Spaltenkoeffizienten nicht dargestellt werden können? Ist es immer noch sinnvoll, einen Intercept-Begriff aufzunehmen?