Wydaje mi się, że uczenie się w zespole zawsze da lepsze wyniki predykcyjne niż w przypadku jednej hipotezy uczenia się.
Dlaczego więc nie używamy ich przez cały czas?
Sądzę, że powodem są być może ograniczenia obliczeniowe? (nawet wtedy używamy słabych predyktorów, więc nie wiem).
Odpowiedzi:
Zasadniczo nie jest prawdą, że zawsze będzie działać lepiej. Istnieje kilka metod zespolonych, z których każda ma swoje zalety / wady. Który użyć, a następnie zależy od danego problemu.
Na przykład, jeśli masz modele o dużej rozbieżności (przewyższają dane), prawdopodobnie skorzystasz z workowania. Jeśli masz tendencyjne modele, lepiej połączyć je z Boostingiem. Istnieją również różne strategie tworzenia zespołów. Temat jest zbyt szeroki, aby ująć go w jednej odpowiedzi.
Ale chodzi mi o to: jeśli użyjesz niewłaściwej metody zestawiania dla swojego ustawienia, nie zrobisz tego lepiej. Na przykład użycie Bagging z tendencyjnym modelem nie pomoże.
Ponadto, jeśli musisz pracować w środowisku probabilistycznym, metody zespołowe również mogą nie działać. Jest on znany , że wzrost (w najbardziej popularnych formach, takich jak adaboost) wykonuje biednych oszacowania prawdopodobieństwa. Oznacza to, że jeśli chcesz mieć model, który pozwala na uzasadnienie swoich danych, a nie tylko na klasyfikację, lepiej byłoby z modelem graficznym.
źródło