Antworten:
Die Ausgabe von den Faltungsschichten repräsentiert Merkmale auf hoher Ebene in den Daten. Während diese Ausgabe abgeflacht und mit der Ausgabeebene verbunden werden kann, ist das Hinzufügen einer vollständig verbundenen Ebene (normalerweise) eine kostengünstige Methode, um nichtlineare Kombinationen dieser Features zu lernen.
Im Wesentlichen liefern die Faltungsschichten einen aussagekräftigen, niedrigdimensionalen und etwas unveränderlichen Merkmalsraum, und die vollständig verbundene Schicht lernt eine (möglicherweise nichtlineare) Funktion in diesem Raum.
HINWEIS: Das Konvertieren von FC-Layern in Conv-Layer ist trivial. Das Konvertieren dieser obersten FC-Ebenen in Conv-Ebenen kann hilfreich sein, wie auf dieser Seite beschrieben.
Ich fand diese Antwort von Anil-Sharma auf Quora hilfreich.
Wir können das gesamte Netzwerk (zur Klassifizierung) in zwei Teile teilen:
Merkmalsextraktion : In herkömmlichen Klassifizierungsalgorithmen wie SVMs haben wir Merkmale aus den Daten extrahiert, damit die Klassifizierung funktioniert. Die Faltungsschichten dienen dem gleichen Zweck der Merkmalsextraktion. CNNs erfassen eine bessere Darstellung von Daten, sodass kein Feature-Engineering erforderlich ist.
Klassifizierung : Nach der Feature-Extraktion müssen die Daten in verschiedene Klassen klassifiziert werden. Dies kann über ein vollständig verbundenes (FC) neuronales Netzwerk erfolgen. Anstelle von vollständig verbundenen Schichten können wir auch einen herkömmlichen Klassifikator wie SVM verwenden. Im Allgemeinen werden jedoch FC-Schichten hinzugefügt, um das Modell durchgängig trainierbar zu machen.