Ich habe große Probleme, das zu verstehen. Bedeutet das, dass Sie die Kostenfunktion nicht sehr oft verwenden sollten?
Ich habe große Probleme, das zu verstehen. Bedeutet das, dass Sie die Kostenfunktion nicht sehr oft verwenden sollten?
Antworten:
Eine Kostenfunktion wird verwendet, um hohe Abweichungen von den erwarteten Ergebnissen im Vergleich zu Ihren tatsächlichen Vorhersagen zu bestrafen.
Sie können sich eine Kostenfunktion als Zeichen dafür vorstellen, wie schlecht Ihre Vorhersage war. Ein hoher Kostenfunktionswert bedeutet, dass die Vorhersage wirklich falsch war, daher liegt der Fokus auf der Minimierung der Kostenfunktion, wodurch ein genaues Vorhersagemodell erzeugt wird.
Kostenfunktionen im Kontext des maschinellen Lernens berechnen häufig eine Art Metrik, die angibt, wie gut Ihr Modell funktioniert. Ein häufiger Fehler ist beispielsweise der mittlere quadratische Fehler, bei dem Sie sich alle Ihre Testbeispiele ansehen, bei denen Sie den wahren und den vorhergesagten Wert kennen, den Unterschied zwischen diesem und dem Quadrat nehmen. Indem Sie diesen Fehler minimieren (Kostenfunktion), gehen Sie davon aus, dass Ihre Vorhersagen besser sind.
Angenommen, Sie haben einige Daten und möchten eine Funktion modellieren, die zu den Daten passt. Diese Funktion sollte gut passen und keine Fehler aufweisen (idealerweise). Wie definiere ich diesen Fehler? und voila hier kommt die kostenfunktion.
Eine (Kosten-) Funktion minimieren bedeutet, dass Sie gute Werte für ihre Parameter finden möchten. Gute Parameter bedeuten, dass die Funktion die bestmöglichen Ergebnisse erzielen kann, nämlich die kleinsten, da kleine Werte weniger Fehler bedeuten . Dies ist ein Optimierungsproblem: das Problem, aus allen möglichen Lösungen die beste Lösung zu finden. ( Quelle )