Ich denke, es gibt ein paar Dinge, die dich verwirren.
x [ n ]h [ n ]x [ n ]h [ n ]y[ n ] = ( x ⋆ h ) [ n ]
y[ n ] = ∑m = - ∞∞x [ m ] h [ n - m ]
Das Obige gilt für eindimensionale Signale, das Gleiche gilt jedoch für Bilder, bei denen es sich nur um zweidimensionale Signale handelt. In diesem Fall lautet die Gleichung:
ichn e w[ r , c ] = ∑u = - ∞∞∑v = - ∞∞icho l d[ u , v ] k [ r - u , c - v ]
Bildlich ist das, was passiert:
In jedem Fall ist zu beachten, dass der Kernel während des Trainings eines Deep Neural Network (DNN) tatsächlich gelernt hat . Ein Kernel wird einfach das sein, mit dem Sie Ihre Eingaben zusammenführen. Der DNN lernt den Kernel so, dass bestimmte Facetten des Bildes (oder des vorherigen Bildes) hervorgehoben werden, die dazu beitragen, den Verlust Ihres Ziels zu verringern.
Dies ist der erste wichtige Punkt, den man verstehen sollte: Traditionell haben die Leute Kernel entworfen , aber beim Deep Learning lassen wir das Netzwerk entscheiden, welcher Kernel der beste sein soll. Was wir jedoch spezifizieren, sind die Kernel-Dimensionen. (Dies wird als Hyperparameter bezeichnet, z. B. 5x5 oder 3x3 usw.).