Dlaczego brak negatywności jest ważny dla współpracujących systemów filtrujących / rekomendujących?

11

We wszystkich nowoczesnych systemach rekomendujących, które widziałem, które opierają się na faktoryzacji macierzy, nieujemna faktoryzacja macierzy jest wykonywana na matrycy filmu użytkownika. Rozumiem, dlaczego brak negatywności jest ważny dla interpretacji i / lub jeśli chcesz rzadkich czynników. Ale jeśli zależy ci tylko na wydajności przewidywania, jak na przykład w konkursie z nagrodą Netflix, po co nakładać ograniczenie nieujemności? Wydaje się, że jest to zdecydowanie gorsze niż dopuszczenie ujemnych wartości również w faktoryzacji.

Ten artykuł jest jednym z najczęściej cytowanych przykładów zastosowania nieujemnego rozkładania macierzy w filtrowanie kooperacyjne.

Lembik
źródło
1
Nie znam się dobrze na systemach rekomendujących (być może mógłbyś zamieścić kilka przykładowych artykułów w swoim pytaniu?). Jeśli wzór preferencji NNMF, który wnioskujesz, jest prawdziwy, najbardziej prawdopodobną odpowiedzią jest poprawa uogólnienia. Innymi słowy, może być tak, że empirycznie brak „interpretowalności / rzadkości” jest związany z nadmiernym dopasowaniem . Jednak rzadkie kodowanie (tj. Regularyzacja L1 / LASSO) może spełnić te wymagania również o ile mi wiadomo. (Może być jednak, że NNMF ma wyższą interpretowalność.)
GeoMatt22,

Odpowiedzi:

14

Nie jestem specjalistą od systemów rekomendujących, ale o ile rozumiem, założenie tego pytania jest błędne.

Brak negatywności nie jest tak ważny dla wspólnego filtrowania.

Nagrodę Netflix wygrał w 2009 roku zespół BellKor. Oto artykuł opisujący ich algorytm: Rozwiązanie BellKor 2008 dla nagrody Netflix . Jak łatwo zauważyć, wykorzystują podejście oparte na SVD:

Podstawy naszych postępów w 2008 r. Zostały określone w dokumencie KDD 2008 [4]. [...] W pracy [4] podajemy szczegółowy opis modeli trójczynnikowych. Pierwszy to prosty SVD [...] Drugi model [...] będziemy nazywać tym modelem „Asymetrycznym SVD”. Wreszcie, bardziej dokładny model czynnikowy, który ma nosić nazwę „SVD ++” [...]

Zobacz także ten bardziej popularny opis tego samego zespołu Techniki faktoryzacji macierzy dla systemów rekomendujących . Mówią dużo o SVD, ale w ogóle nie wspominają o NNMF.

Zobacz także ten popularny wpis na blogu Aktualizacja Netflix: Wypróbuj to w domu od 2006 roku, wyjaśniając także pomysły SVD.

Oczywiście masz rację i jest też trochę pracy nad użyciem NNMF do wspólnego filtrowania. Więc co działa lepiej, SVD lub NNMF? Nie mam pojęcia, ale oto wniosek z badania porównawczego algorytmów filtrowania opartego na współpracy z 2012 r .:

Metody oparte na faktoryzacji macierzy mają zazwyczaj najwyższą dokładność. W szczególności, uregulowane SVD, PMF i jego odmiany osiągają najlepsze wyniki w zakresie MAE i RMSE, z wyjątkiem bardzo rzadkich sytuacji, w których NMF osiąga najlepsze wyniki.

ameba
źródło
2
Ogólnie jest to dobra odpowiedź. Aby jednak poprawić niektóre fakty, rozwiązanie BellKor 2008 zdobyło nagrodę postępu. Ogólnym algorytmem wygrywającym było połączenie ponad 100 predyktorów (Töscher i in. 2009). NMF również był tego częścią.
dpelisek