Je sais que R n'est pas particulièrement utile pour analyser de grands ensembles de données étant donné que R charge toutes les données en mémoire alors que quelque chose comme SAS fait une analyse séquentielle. Cela dit, il existe des packages tels que bigmemory qui permettent aux utilisateurs d'effectuer une analyse de données volumineuses (analyse statistique) plus efficacement dans R.
Je voulais savoir, à part toutes les informations théoriques, est-ce que quelqu'un a utilisé / utilise R pour analyser de grands ensembles de données dans un environnement d'entreprise et quels sont les problèmes typiques qui pourraient survenir. Par grands ensembles de données, je fais référence à des ensembles de données d'une taille d'environ 200 Go. De plus, toute réflexion sur des exemples concrets de migration de SAS vers R dans de tels cas d'utilisation serait utile.
ff
et bigmemory
. @Glen_b, pensez-vous que le nouveau R (avec une machine 64 bits) rivalisera avec SAS (en termes de taille possible des jeux de données)?