2
Warum scheinen neuronale Netze mit Einschränkungen ihrer Topologie eine bessere Leistung zu erbringen?
Backprop-Netzwerke, die vollständig miteinander verbunden sind (mindestens Schicht für Schicht mit mehr als 2 verborgenen Schichten), sind universelle Lerner. Leider lernen sie oft nur langsam und neigen zu Überanpassung oder zu unangenehmen Verallgemeinerungen. Beim Herumalbern mit diesen Netzwerken habe ich beobachtet, dass das Beschneiden einiger Kanten (so dass deren Gewicht …