MS właśnie rozmawiało na temat technologii w Holandii, gdzie omawiali niektóre z tych rzeczy. Zaczyna się powoli, ale dostaje się do mięsa Hadoop około 20 minut.
Istotą tego jest to, że „to zależy”. Jeśli masz rozsądnie zaaranżowany (przynajmniej w pewnym stopniu) łatwy do podziału zestaw danych, który (przynajmniej w pewnym stopniu) jest jednorodny, powinno być dość łatwe skalowanie do tych dużych ilości danych za pomocą RDBMS, w zależności od tego, co robisz .
Hadoop i MR wydają się być bardziej nastawione na sytuacje, w których zmuszony jesteś do dużych rozproszonych skanów danych, szczególnie gdy dane te niekoniecznie są tak jednorodne lub tak ustrukturyzowane, jak to, co znajdujemy w świecie RDBMS.
Jakie ograniczenia nie są związane z rozwiązaniami Big Data? Dla mnie największym ograniczeniem, do którego nie są zobowiązani, jest ustalenie z góry sztywnego schematu. Dzięki rozwiązaniom Big Data wrzucasz teraz ogromne ilości danych do „skrzynki”, a następnie dodajesz logikę do swoich zapytań, aby poradzić sobie z brakiem jednorodności danych. Z punktu widzenia dewelopera kompromisem jest łatwość implementacji i elastyczność interfejsu użytkownika, w porównaniu do złożoności zapytań i mniejszej spójności danych.