Myślę, że to zależy od tego, jak ma być używany.
P.Q
jot(P, Q ) = 12)( D ( P∣ ∣ R ) + D ( Q ∣ ∣ R ) )
R = 12)( P+ Q )re ( ⋅ ∣ ∣ ⋅ )
Kusiłbym teraz, aby użyć pierwiastka kwadratowego dywergencji Jensena-Shannona, ponieważ jest to metryka , tzn. Spełnia wszystkie „intuicyjne” właściwości miary odległości.
Aby uzyskać więcej informacji na ten temat, zobacz
Endres i Schindelin, Nowa miara rozkładów prawdopodobieństwa , IEEE Trans. na Info. Twój. , vol. 49, nr 3, lipiec 2003, s. 1858–1860.
Oczywiście w pewnym sensie zależy to od tego, czego potrzebujesz. Jeśli wszystko, czego używasz, to ocena jakiejś miary parami, wtedy każda monotoniczna transformacja JSD będzie działać. Jeśli szukasz czegoś, co jest najbliżej „odległości do kwadratu”, to sama JSD jest analogiczną wielkością.
Nawiasem mówiąc, możesz być także zainteresowany tym poprzednim pytaniem oraz powiązanymi odpowiedziami i dyskusjami.
J(P,Q) = J(Q,P)
. Czytałem, że rozbieżność JS jest symetryczna w P i Q. Czy to oznaczaJS(P,Q) = JS(Q,P)
? Proszę o to, ponieważ używamKLdiv
funkcji zflexmix
pakietu wR
. Dla moich dwóch dystrybucji wynik macierzy z KLdiv nie jest symetryczny. Spodziewałem się, że JS to naprawi, ale dane wyjściowe z JS (obliczone przy użyciu KL) nie są symetryczne.