Używam Libsvm do trenowania danych i przewidywania klasyfikacji problemu analizy semantycznej . Ma jednak problem z wydajnością danych na dużą skalę, ponieważ analiza semantyczna dotyczy problemu n-wymiarowego .
W ubiegłym roku Liblinear został wydany i może rozwiązać wąskie gardło wydajności. Ale to kosztowało zbyt dużo pamięci . Czy MapReduce to jedyny sposób rozwiązania problemu analizy semantycznej dużych zbiorów danych? A może istnieją inne metody, które mogą poprawić wąskie gardło pamięci w Liblinear ?
machine-learning
bigdata
libsvm
Maskonur GDI
źródło
źródło
Możesz sprawdzić ślubny wabbit . Jest dość popularny w nauczaniu na dużą skalę i obejmuje równoległe przepisy.
Z ich strony internetowej:
źródło