Vor kurzem bin ich auf "wahrscheinlichkeitsfreie" Methoden aufmerksam geworden, über die in der Literatur geredet wird. Mir ist jedoch nicht klar, was es bedeutet, dass eine Inferenz- oder Optimierungsmethode wahrscheinlichkeitsfrei ist .
Beim maschinellen Lernen besteht das Ziel normalerweise darin, die Wahrscheinlichkeit zu maximieren, dass einige Parameter zu einer Funktion passen, z. B. die Gewichte in einem neuronalen Netzwerk.
Was genau ist die Philosophie eines wahrscheinlichkeitsfreien Ansatzes und warum fallen gegnerische Netzwerke wie GANs unter diese Kategorie?