Ich habe im Github-Repo nach Pymc gesucht und dieses Notizbuch gefunden:
Variationsinferenz: Bayesianische Neuronale Netze
Der Autor lobt die Vorzüge der bayesianischen / probabilistischen Programmierung, sagt dann aber weiter:
Leider spielt die probabilistische Programmierung bei traditionellen ML-Problemen wie Klassifizierung oder (nichtlinearer) Regression häufig eine zweite Rolle (in Bezug auf Genauigkeit und Skalierbarkeit) gegenüber algorithmischeren Ansätzen wie dem Lernen von Ensembles (z. B. zufällige Wälder oder gradientenverstärkte Regressionsbäume). .
Könnte jemand bitte erklären:
- Wenn diese Aussage im Allgemeinen wahr ist
- Warum diese Aussage wahr ist