Alles, was mit Deep Learning (DL) und Deep (er) Netzwerken zu tun hat, scheint "erfolgreich" zu sein, zumindest sehr schnell voranzukommen und den Glauben zu pflegen, dass AGI in Reichweite ist. Das ist populäre Vorstellung. DL ist ein hervorragendes Instrument, um so viele Probleme anzugehen, einschließlich der Schaffung von AGIs. Es ist jedoch nicht genug. Ein Werkzeug ist eine notwendige Zutat, aber oft unzureichend.
Führende Persönlichkeiten in diesem Bereich suchen anderswo nach Fortschritten. Dieser Bericht / Anspruch enthält Links zu Aussagen von Yoshua Bengio , Yann LeCun und Geoff Hinton . Der Bericht erklärt auch:
Die Hauptschwächen von DL (wie ich sie sehe) sind: Vertrauen auf möglichst einfache Modellneuronen („karikaturistisch“, wie LeCun sie nennt); Verwendung von Ideen aus der statistischen Mechanik und Statistik des 19. Jahrhunderts, die die Grundlage für Energiefunktionen und Log-Likelihood-Methoden bilden; und die Kombination dieser Techniken in Techniken wie Backprop und stochastischem Gradientenabstieg, was zu einem sehr begrenzten Anwendungsregime führt (offline, meist gestapelt, überwachtes Lernen), das hochtalentierte Praktiker (auch bekannt als „Stochastic Graduate Descent“) erfordert, große Mengen teurer beschriftete Trainingsdaten und Rechenleistung. DL eignet sich zwar hervorragend für große Unternehmen, die Talente anlocken oder kaufen und unbegrenzte Ressourcen einsetzen können, um Daten zu sammeln und zu verarbeiten, ist jedoch für die meisten von uns weder zugänglich noch nützlich.
Obwohl interessant und relevant, spricht eine solche Erklärung den Kern des Problems nicht wirklich an: Was fehlt?
Die Frage scheint weit gefasst zu sein, aber es kann an einer einfachen Antwort mangeln. Gibt es eine Möglichkeit, genau zu bestimmen, was DL für eine AGI fehlt?