Jestem R noobem, który jest zobowiązany do przeprowadzania różnego rodzaju analiz na dużych zestawach danych w R. Tak więc, rozglądając się po tej stronie i gdzie indziej, wydawało mi się, że wiąże się z nią wiele ezoterycznych i mniej znanych problemów - takich jak z którego pakietu skorzystać, jakie przekształcenia (nie) dotyczą danych itp.
Zastanawiam się tylko, czy istnieje książka / tutorial / przewodnik, który demistyfikuje to wszystko i przedstawia informacje w sposób systematyczny? Wolę to robić zamiast rozglądać się i zbierać informacje z różnych źródeł online.
Z góry dziękuję.
r
large-data
TeachMeR
źródło
źródło
Odpowiedzi:
Oto kilka postów na blogu, które napisałem na ten temat o dużych zbiorach danych z R. Istnieje kilka pakietów takich jak ff i bigmemory, które korzystają z wymiany plików i alokacji pamięci. Kilka innych pakietów korzysta z łączności z bazami danych, takimi jak sqldf, RMySQL i RSQLite.
R Referencje dotyczące obsługi dużych zbiorów danych
Regresja logistyczna Big Data w R z ODBC
źródło