Ich weiß, dass R für die Analyse großer Datenmengen nicht besonders hilfreich ist, da R alle Daten in den Speicher lädt, während SAS eine sequentielle Analyse durchführt. Es gibt jedoch Pakete wie bigmemory, mit denen Benutzer die Analyse großer Datenmengen (statistische Analysen) in R effizienter durchführen können.
Ich wollte wissen, dass neben allen theoretischen Informationen jeder R für die Analyse großer Datenmengen in einer Unternehmensumgebung verwendet / verwendet und welche typischen Probleme auftreten können. Bei großen Datensätzen beziehe ich mich auf Datensätze mit einer Größe von ~ 200 GB. Auch Gedanken zu Beispielen aus der Praxis für die Migration von SAS zu R in solchen Anwendungsfällen wären hilfreich.
ff
und bigmemory
. @Glen_b, glaubst du, dass das neue R (mit einem 64-Bit-Rechner) mit SAS konkurrieren wird (in Bezug auf die mögliche Größe der Datensätze)?