Soweit ich gesehen habe, neigen die Meinungen dazu dazu. Best Practice würde sicherlich die Verwendung einer Kreuzvalidierung vorschreiben (insbesondere beim Vergleich von RFs mit anderen Algorithmen im selben Datensatz). Andererseits gibt die ursprüngliche Quelle an, dass die Tatsache, dass der OOB-Fehler während des Modelltrainings berechnet wird, ein ausreichender Indikator für die Leistung des Testsatzes ist. Sogar Trevor Hastie sagt in einem relativ aktuellen Gespräch, dass "Random Forests eine kostenlose Kreuzvalidierung bieten". Intuitiv ist dies für mich sinnvoll, wenn Sie ein RF-basiertes Modell an einem Datensatz trainieren und verbessern möchten.
Wie ist Ihre Meinung dazu?