Ist das Folgende wahr?
niedrige Vorspannung = hohe Varianz
hohe Vorspannung = niedrige Varianz
Ich verstehe hohe und niedrige Vorurteile, aber wie unterscheidet sich die Varianz? Oder sind die oben genannten Synonyme?
Ist das Folgende wahr?
niedrige Vorspannung = hohe Varianz
hohe Vorspannung = niedrige Varianz
Ich verstehe hohe und niedrige Vorurteile, aber wie unterscheidet sich die Varianz? Oder sind die oben genannten Synonyme?
Antworten:
Nein. Sie können beide gleichzeitig hoch oder niedrig haben. Hier ist ein Beispiel. Bild- und Artikelquelle Ich empfehle Ihnen auch, den Artikel zu lesen, aus dem dieses Bild stammt.
Der Grund, warum Sie einen solchen Eindruck haben, ist, dass es im "frühen Alter" des maschinellen Lernens ein Konzept gibt, das als Bias-Varianz-Kompromiss bezeichnet wird (wie @Kodiologist erwähnte, ist dieses Konzept immer noch wahr und ein grundlegendes Konzept für die Optimierung von Modellen heute).
In Andrew Ngs jüngstem Deep Learning Coursera-Vortrag erwähnte er, dass in dem jüngsten Deep Learning-Framework (mit einer großen Datenmenge) weniger über Kompromisse gesprochen wird. Stattdessen gibt es Möglichkeiten, nur die Varianz zu verringern und die Verzerrung nicht zu erhöhen (z. B. die Größe der Trainingsdaten zu erhöhen), und umgekehrt.
Der Unterschied zwischen Bias und Varianz ist der gleiche wie zwischen Genauigkeit und Präzision :
Die Genauigkeit eines Messsystems ist, wie nahe es dem tatsächlichen (wahren) Wert einer Menge kommt. (≈ Voreingenommenheit)
Die Präzision eines Messsystems ist der Grad, in dem wiederholte Messungen zu denselben Ergebnissen führen. (≈ Varianz)