Ist das Folgende wahr?
niedrige Vorspannung = hohe Varianz
hohe Vorspannung = niedrige Varianz
Ich verstehe hohe und niedrige Vorurteile, aber wie unterscheidet sich die Varianz? Oder sind die oben genannten Synonyme?
machine-learning
neural-networks
variance
sampling
bias
immer vorsichtig
quelle
quelle
Antworten:
Nein. Sie können beide gleichzeitig hoch oder niedrig haben. Hier ist ein Beispiel. Bild- und Artikelquelle Ich empfehle Ihnen auch, den Artikel zu lesen, aus dem dieses Bild stammt.
Der Grund, warum Sie einen solchen Eindruck haben, ist, dass es im "frühen Alter" des maschinellen Lernens ein Konzept gibt, das als Bias-Varianz-Kompromiss bezeichnet wird (wie @Kodiologist erwähnte, ist dieses Konzept immer noch wahr und ein grundlegendes Konzept für die Optimierung von Modellen heute).
In Andrew Ngs jüngstem Deep Learning Coursera-Vortrag erwähnte er, dass in dem jüngsten Deep Learning-Framework (mit einer großen Datenmenge) weniger über Kompromisse gesprochen wird. Stattdessen gibt es Möglichkeiten, nur die Varianz zu verringern und die Verzerrung nicht zu erhöhen (z. B. die Größe der Trainingsdaten zu erhöhen), und umgekehrt.
quelle
Der Unterschied zwischen Bias und Varianz ist der gleiche wie zwischen Genauigkeit und Präzision :
quelle