Bei der Überprüfung von " Applied Predictive Modeling " stellt ein Prüfer fest :
Eine Kritik, die ich an der Pädagogik des statistischen Lernens (SL) habe, ist das Fehlen von Überlegungen zur Rechenleistung bei der Bewertung verschiedener Modellierungstechniken. Mit seinen Schwerpunkten auf Bootstrapping und Kreuzvalidierung zum Tunen / Testen von Modellen ist SL ziemlich rechenintensiv. Hinzu kommt die Neuabtastung, die in Techniken wie Absacken und Boosten eingebettet ist, und Sie haben das Gespenst der Rechenhölle für das überwachte Lernen großer Datenmengen. Tatsächlich schränken die Speicherbeschränkungen von R die Größe von Modellen ziemlich stark ein, die mit leistungsstärksten Methoden wie zufälligen Gesamtstrukturen angepasst werden können. Obwohl SL die Modellleistung anhand kleiner Datenmengen gut kalibriert, wäre es sicher hilfreich, die Leistung im Vergleich zu den Rechenkosten für größere Daten zu verstehen.
Was sind die Speicherbeschränkungen von R und schränken sie die Größe von Modellen stark ein, die mit leistungsstärksten Methoden wie zufälligen Gesamtstrukturen angepasst werden können ?