R hat viele Bibliotheken, die auf Datenanalyse abzielen (z. B. JAGS, BUGS, ARULES usw.) und wird in populären Lehrbüchern erwähnt, wie z. B .: J. Krusche, Doing Bayesian Data Analysis; B.Lantz, "Maschinelles Lernen mit R".
Ich habe eine Richtlinie von 5 TB für einen Datensatz gesehen, der als Big Data betrachtet werden soll.
Meine Frage ist: Ist R für die Datenmenge geeignet, die normalerweise bei Big Data-Problemen auftritt? Gibt es Strategien für die Verwendung von R mit dieser Datenmenge?