Im Geiste des berühmten Tensorflow Fizz Buzz- Witzes und des XOr-Problems begann ich zu überlegen , ob es möglich ist, ein neuronales Netzwerk zu entwerfen, das die Funktion implementiert .
Bei einer bestimmten Darstellung einer Zahl (z. B. als Vektor in binärer Form, so dass diese Zahl 5
als dargestellt wird [1,0,1,0,0,0,0,...]
) sollte das neuronale Netzwerk lernen, in diesem Fall sein Quadrat 25 zurückzugeben.
Wenn ich implementieren könnte, könnte ich wahrscheinlich y = x ^ 3 und allgemein jedes Polynom von x implementieren , und dann könnte ich mit Taylor-Reihen y = \ sin (x) approximieren , was das Fizz Buzz-Problem lösen würde - ein neuronales Netzwerk, das den Rest der Teilung finden kann.
Es ist klar, dass nur der lineare Teil von NNs diese Aufgabe nicht ausführen kann. Wenn wir also die Multiplikation durchführen könnten, würde dies dank der Aktivierungsfunktion geschehen.
Können Sie Ideen vorschlagen oder zu diesem Thema lesen?