Dieser Beitrag wurde viel aktualisiert. Oben sehen Sie Link-Updates. Nachfolgend Variationen der ersten Antwort. Für die Kurzfassung: Erfolge von Faltungsnetzwerken und Deep Learning sehen wie eine Art galiläische Revolution aus. Aus praktischer Sicht sind klassische Signalverarbeitung oder Computer Vision tot ... vorausgesetzt, Sie haben genügend beschriftete Daten, kümmern sich nicht um offensichtliche Klassifizierungsfehler ( tiefe Fehler ), haben unendlich viel Energie, um Tests durchzuführen, ohne über den CO2-Fußabdruck nachzudenken . und kümmere dich nicht um rationale Erklärungen. Bei den anderen haben wir über alles nachgedacht, was wir zuvor getan haben: Merkmalsextraktion, Optimierung (vgl. Meine Kollegin J.-C. Pesquet, Arbeiten zur Lösung variationaler Ungleichungen durch tiefe neuronale Netzwerkstrukturen)), Invarianz, Quantifizierung usw. Und daraus ergibt sich eine wirklich interessante Forschung, die hoffentlich fest verankerte Prinzipien und ähnliche Leistungen aufholt.
Aktualisierte Links:
Wir stellen Beispiele für natürliche Kontroversen vor - reale, nicht modifizierte und natürlich vorkommende Beispiele, bei denen sich die Genauigkeit des Klassifikators erheblich verschlechtert. Wir kuratieren 7.500 Beispiele von natürlichen Gegnern und veröffentlichen sie in einem ImageNet-Klassifikator-Test, den wir ImageNet-A nennen. Dieser Datensatz dient als neue Methode zur Messung der Robustheit von Klassifikatoren. Wie l_p-Adversarial-Beispiele werden ImageNet-A-Beispiele erfolgreich auf unsichtbare oder Black-Box-Klassifikatoren übertragen. Beispielsweise erreicht ein DenseNet-121 auf ImageNet-A eine Genauigkeit von ca. 2%, was einem Genauigkeitsverlust von ca. 90% entspricht. Das Wiederherstellen dieser Genauigkeit ist nicht einfach, da ImageNet-A-Beispiele tiefe Fehler in aktuellen Klassifizierern ausnutzen, einschließlich ihrer übermäßigen Abhängigkeit von Farbe, Textur und Hintergrundinformationen. Wir stellen fest, dass beliebte Trainingstechniken zur Verbesserung der Robustheit nur geringe Auswirkungen haben. Wir zeigen jedoch, dass einige architektonische Änderungen die Robustheit gegenüber natürlichen Gegnern erhöhen können. Zukünftige Forschungen sind erforderlich, um eine robuste Verallgemeinerung dieses harten ImageNet-Testsets zu ermöglichen.
- 2019/05/03: Deep Learning: Die letzte Grenze für Signalverarbeitung und Zeitreihenanalyse? "In diesem Artikel möchte ich einige Bereiche zeigen, in denen Signale oder Zeitreihen von entscheidender Bedeutung sind."
- 23.04.2018: Ich komme gerade von der jährlichen internationalen Konferenz für Akustik, Sprach- und Signalverarbeitung, ICASSP 2018, zurück . Ich war erstaunt über die Menge an Artikeln, die sich etwas auf Deep Learning, Deep Networks usw. stützten. Zwei von vier Pleanaren (von Alex Acero und Yann LeCun) widmeten sich diesem Thema. Gleichzeitig machten die meisten Forscher, die ich getroffen habe, Witze darüber ("Entschuldigung, mein Poster befindet sich auf Filterbänken, nicht auf Deep Learning", "Ich bin nicht begeistert, ich habe kleine Datensätze") oder Wir haben uns gefragt, ob wir bei großen Herausforderungen 0,5% gewinnen und das Interesse an der Modellierung der physikalischen oder statistischen Grundlagen verlieren.
- 14.01.2018: Kann ein tiefes Netz eine Katze sehen? , von "abstrakte Katze", zu "beste Katze" invertiert, gezeichnet, etc. und irgendwie überraschende Ergebnisse auf Skizzen
- 02.11.2017: Verweise auf streuende Transformationen / Netzwerke hinzugefügt
- 21.10.2017: Ein Rückblick auf Faltungs-Neuronale Netze bei inversen Problemen in der Bildgebung
- Deep Learning und seine Anwendungen für die Signal- und Informationsverarbeitung , IEEE Signal Processing Magazine, Januar 2011
Weiterführende Informationen zur Signal- / Bildverarbeitung finden Sie unten. Michael Elad hat gerade Deep, Deep Trouble geschrieben: Deep Learning's Impact auf Bildverarbeitung, Mathematik und Humanität (SIAM News, 2017/05), Auszug:
Dann kehrten neuronale Netze plötzlich und mit aller Macht zurück.
Diese Tribüne ist von Interesse, da sie eine Verschiebung von der traditionellen "Bildverarbeitung", bei der versucht wird, die Daten zu modellieren / verstehen, zu einem Bereich der Korrektheit ohne so viel Einsicht zeigt.
Diese Domain entwickelt sich sehr schnell. Dies bedeutet nicht, dass es sich in eine beabsichtigte oder konstante Richtung entwickelt. Weder richtig noch falsch. Aber heute morgen hörte ich das folgende Sprichwort (oder ist es ein Witz?):
Ein schlechter Algorithmus mit einer großen Menge von Daten kann eine bessere Leistung erbringen als ein intelligenter Algorithmus mit Pauce- Daten.
Hier war mein sehr kurzer Versuch: Tiefes Lernen kann zwar hochmoderne Ergebnisse liefern, aber man versteht nicht immer, warum und ein Teil unserer wissenschaftlichen Arbeit besteht darin, zu erklären, warum Dinge funktionieren, was der Inhalt eines Datenstücks ist , usw.
Deep Learning erfordert (riesige) Datenbanken mit guten Tags. Jedes Mal, wenn Sie an einzelnen oder einzelnen Bildern basteln (dh ohne eine riesige Datenbank dahinter), insbesondere an Orten, an denen es unwahrscheinlich ist, dass "freie benutzerbasierte markierte Bilder" entstehen (im Ergänzungssatz des Sets " Lustige Katzen, die Spiele und Gesichter spielen "). Sie können sich eine Weile an die traditionelle Bildverarbeitung halten und profitieren. Ein kürzlich veröffentlichter Tweet fasst Folgendes zusammen:
(viele) gekennzeichnete Daten (ohne fehlende Variablen) sind für viele Domains ein Deal Breaker (und unnötig)
Wenn sie getötet werden (was ich kurzfristig bezweifle), sind sie noch nicht tot. Jede Fähigkeit, die Sie in den Bereichen Signalverarbeitung, Bildanalyse und Computer Vision erwerben, wird Ihnen in Zukunft helfen. Dies wird zum Beispiel im Blogbeitrag diskutiert: Haben wir Geometrie in Computer Vision vergessen? von Alex Kendall:
Deep Learning hat das Computer-Sehen revolutioniert. Heutzutage gibt es nicht viele Probleme, bei denen die leistungsstärkste Lösung nicht auf einem durchgängigen Deep-Learning-Modell basiert. Insbesondere Faltungs-Neuronale Netze sind beliebt, da sie in der Regel recht gut funktionieren. Bei diesen Modellen handelt es sich jedoch größtenteils um große Blackboxen. Es gibt viele Dinge, die wir nicht verstehen.
Ein konkretes Beispiel kann folgendes sein: Ein paar sehr dunkle (z. B. Überwachungs) Bilder vom selben Ort, die ausgewertet werden müssen, ob eine dieser Bilder eine bestimmte Änderung enthält, die erkannt werden sollte, sind möglicherweise mehr als eine Frage der herkömmlichen Bildverarbeitung Deep Learning (Stand heute).
Auf der anderen Seite kann Deep Learning, so erfolgreich es auch in großem Umfang ist, zu einer Fehlklassifizierung kleiner Datenmengen führen, die für einige Anwendungen "im Durchschnitt" harmlos sein kann. Zwei Bilder, die sich nur geringfügig vom menschlichen Auge unterscheiden, können über DL unterschiedlich klassifiziert werden. Oder zufällige Bilder können auf eine bestimmte Klasse eingestellt werden. Sehen Sie zum Beispiel, dass tiefe neuronale Netze leicht zu täuschen sind: Hochzuverlässige Vorhersagen für nicht erkennbare Bilder (Nguyen A, Yosinski J, Clune J. Proc. Computer Vision und Mustererkennung 2015), oder weist Deep Learning tiefe Fehler auf? , auf kontroversen Negativen:
Das Netzwerk kann ein Bild falsch klassifizieren, nachdem die Forscher eine bestimmte nicht wahrnehmbare Störung angewendet haben. Die Störungen werden durch Anpassen der Pixelwerte ermittelt, um den Vorhersagefehler zu maximieren.
Denken Sie bei allem Respekt vor "Deep Learning" an "Massenproduktion als Reaktion auf ein registriertes, bekanntes, massenvalidierbares oder erwartetes Verhalten" im Vergleich zu "einzigartigem Handwerk". Keiner ist (noch) besser in einer einzelnen Indexskala. Möglicherweise müssen beide für eine Weile nebeneinander existieren.
Tiefes Lernen durchdringt jedoch viele neue Bereiche, wie in den nachstehenden Referenzen beschrieben.
Glücklicherweise versuchen einige Leute, mathematische Gründe für tiefes Lernen zu finden. Ein Beispiel dafür sind Streunetzwerke oder Transformationen, die von Stéphane Mallat und Mitautoren vorgeschlagen wurden. Weitere Informationen finden Sie auf der ENS-Website . Oberschwingungsanalyse und nichtlineare Operatoren, Lipschitz-Funktionen, Translations- / Rotationsinvarianz, besser für den durchschnittlichen Signalverarbeiter. Siehe zum Beispiel Grundlegendes zu Deep Convolutional Networks .