Stellen Sie sich vor, Sie zeigen einem neuronalen Netzwerk 100-mal das Bild eines Löwen und kennzeichnen es mit "gefährlich", damit es erfährt, dass Löwen gefährlich sind.
Stellen Sie sich nun vor, Sie hätten es zuvor Millionen von Löwenbildern gezeigt und alternativ als "gefährlich" und "nicht gefährlich" bezeichnet, sodass die Wahrscheinlichkeit, dass ein Löwe gefährlich ist, 50% beträgt.
Aber diese letzten 100 Male haben das neuronale Netzwerk dazu gebracht, den Löwen als "gefährlich" zu betrachten und die letzten Millionen Lektionen zu ignorieren.
Daher scheint es einen Mangel in neuronalen Netzen zu geben, der darin besteht, dass sie ihre Meinung auf der Grundlage neuerer Erkenntnisse zu schnell ändern können. Vor allem, wenn diese vorherigen Beweise in der Mitte waren.
Gibt es ein neuronales Netzwerkmodell, das nachverfolgt, wie viele Beweise es gesehen hat? (Oder wäre dies gleichbedeutend damit, dass die Lernrate um sinkt, wobei die Anzahl der Versuche ist?)