Czy po szkoleniu wektorów słów za pomocą word2vec lepiej je znormalizować przed użyciem ich w niektórych aplikacjach? Tzn. Jakie są zalety / wady ich normalizacji?
natural-language
word2vec
word-embeddings
Franck Dernoncourt
źródło
źródło
Odpowiedzi:
Gdy dalsze aplikacje troszczą się tylko o kierunek wektorów słów (np. Zwracają uwagę tylko na podobieństwo cosinusów dwóch słów), następnie normalizują się i zapominają o długości.
Jeśli jednak dalsze aplikacje mogą (lub muszą) rozważyć bardziej sensowne aspekty, takie jak znaczenie słowa lub spójność użycia słowa (patrz poniżej), normalizacja może nie być dobrym pomysłem.
Z Levy i in., 2015 (i właściwie większość literatury na temat osadzania słów):
Również z Wilsona i Schakela, 2015 :
Normalizacja jest równoznaczna z utratą pojęcia długości. Oznacza to, że gdy znormalizujesz wektory słów, zapominasz o ich długości (norma, moduł) tuż po fazie treningu.
Jednak czasami warto wziąć pod uwagę oryginalną długość wektorów słownych.
Schakel i Wilson, 2015 zaobserwowali kilka interesujących faktów dotyczących długości wektorów słów:
źródło