Deep Learning (DL) ist im Bereich der adaptiven Signalverarbeitung / des maschinellen Lernens eine spezielle Methode, mit der wir komplexe Darstellungen von Maschinen trainieren können.
Im Allgemeinen verfügen sie über eine Formulierung, mit der Sie Ihre Eingabe über eine Reihe hierarchisch gestapelter Operationen (von denen die „Tiefe“ stammt) bis zum Ziel y abbilden können . Diese Operationen sind typischerweise lineare Operationen / Projektionen ( W i ), gefolgt von Nichtlinearitäten ( f i ) wie folgt :xyWichfich
y=fN(...f2(f1(xTW1)W2)...WN)
Derzeit gibt es in DL viele verschiedene Architekturen : Eine solche Architektur ist als Convolutional Neural Net (CNN) bekannt. Eine andere Architektur ist als mehrschichtiges Perzeptron (MLP) usw. bekannt. Verschiedene Architekturen eignen sich zur Lösung verschiedener Arten von Problemen.
Ein MLP ist vielleicht einer der traditionellsten Typen von DL-Architekturen, die man finden kann, und dann wird jedes Element einer vorherigen Schicht mit jedem Element der nächsten Schicht verbunden. Es sieht aus wie das:
WiW ∈ R10 x 20v ∈ R10 x 1u ∈ R1 x 20u = vTWW der Elemente der nächsten Schicht.
MLPs gerieten damals in Ungnade, auch weil sie schwer zu trainieren waren. Während es viele Gründe für diese Härte gibt, war einer von ihnen auch, weil ihre dichten Verbindungen es ihnen nicht ermöglichten, für verschiedene Computeranblickprobleme leicht zu skalieren. Mit anderen Worten, sie hatten keine Übersetzungsäquivarianz eingebaut. Dies bedeutete, dass sie, wenn es ein Signal in einem Teil des Bildes gab, für das sie sensibel sein mussten, erneut lernen mussten, wie sie sensibel dafür sein mussten, wenn Dieses Signal bewegte sich. Dies verschwendete die Kapazität des Netzes und so wurde das Training hart.
Hier kamen CNNs ins Spiel! So sieht man aus:
Wich
Es ist üblich zu sehen, dass "CNNs" sich auf Netze beziehen, in denen wir Faltungsschichten im gesamten Netz haben, und MLPs ganz am Ende, so dass dies eine Einschränkung ist, die Sie beachten sollten.