Więcej informacji na ten temat, niż zapewne potrzebujesz, można znaleźć w Goodman (1962): „Wariancja iloczynu zmiennych losowych K” , która wyprowadza wzory zarówno dla niezależnych zmiennych losowych, jak i potencjalnie skorelowanych zmiennych losowych, wraz z pewnymi przybliżeniami. We wcześniejszym artykule ( Goodman, 1960 ) wyprowadzono wzór na iloczyn dokładnie dwóch zmiennych losowych, który jest nieco prostszy (choć nadal dość gnarny), więc może to być lepsze miejsce na rozpoczęcie, jeśli chcesz zrozumieć pochodną .
Jednak dla kompletności wygląda to tak.
Dwie zmienne
Załóż, że:
- yx i są dwie wartości losowychy
- YX i są ich (niezerowymi) oczekiwaniamiY
- V ( y )V.( x ) i to ich wariancjeV.( y)
- δ yδx= ( x - X) / X (i podobnie dla )δy
- reja , j= E[ ( δx)ja( δy)jot]
- Δ yΔx= x - X (i podobnie dla )Δy
- mija , j= E[ ( Δx)ja( Δy)jot]
- V ( x ) / X 2 G ( Y )G ( x ) jest kwadratowym współczynnikiem zmienności: (podobnie dla )V.( x ) / X2)G ( Y)
Następnie:
lub równoważnie:
V.( x y) = ( XY)2)[ G ( y) + G ( x ) + 2 D1 , 1+ 2 D.1 , 2+ 2 D.2 , 1+ D2 , 2- D2)1 , 1]
V.( x y) = X2)V.( y) + Y2)V.( x ) + 2 XYmi1 , 1+ 2 Xmi1 , 2+ 2 Y.mi2 , 1+ E2 , 2- E2)1 , 1
Więcej niż dwie zmienne
Artykuł z 1960 r. Sugeruje, że jest to ćwiczenie dla czytelnika (które wydaje się motywować artykuł z 1962 r.!).
Notacja jest podobna, z kilkoma rozszerzeniami:
- x y( x1, x2), … Xn) są zmiennymi losowymi zamiast ixy
- M.= E( ∏ki = 1xja)
- A = ( M/ ∏ki = 1Xja) -1
- i = 1 , 2 , … ksja = 0, 1 lub 2 dlai = 1 , 2 , … k
- ( s 1 , s 2 , … s k )u = liczba 1 w( s1, s2), … Sk)
- ( s 1 , s 2 , … s k )m = liczba 2( s1, s2), … Sk)
- m = 0 2 u m > 1D ( u , m ) =2u- 2 dla i dla ,m = 02)um > 1
- do( s1, s2), … , Sk) = D ( u , m ) ⋅ E.( ∏ki = 1δsjaxja)
- 3 k - k - 1 ( s 1 , s 2 , … s k ) 2 m + u > 1∑s1. Sk oznacza sumę zestawów gdzie3)k- k - 1( s1, s2), … Sk)2 m + u > 1
Wreszcie, w końcu:
V.( ∏i = 1kxja) =∏ X2)ja( ∑s1. Skdo( s1, s2)… Sk) - A2))
Zobacz dokumenty, aby uzyskać szczegółowe informacje i nieco łatwiejsze przybliżenia!
Wystarczy dodać do niesamowitej odpowiedzi Matta Krause'a (w rzeczywistości łatwo stąd ją uzyskać). Jeśli x, y są niezależne, to
źródło
Oprócz ogólnej formuły podanej przez Matta warto zauważyć, że istnieje nieco bardziej wyraźna formuła dla losowych zmiennych Gaussa o średniej zerowej. Wynika to z twierdzenia Isserlisa , patrz także Wyższe momenty dla wyśrodkowanego wielowymiarowego rozkładu normalnego.
Załóżmy, że ma wielowymiarowy rozkład normalny ze średnią 0 i macierzą kowariancji . Jeśli liczba zmiennych jest nieparzysta, i gdzie oznacza sumę na wszystkich partycjach w rozłącznych par gdzie każdy termin jest produktem odpowiednich i gdzie Σ k E ( ∏ i x i ) = 0 V ( ∏ i x i ) = E ( ∏ i x 2 i ) = ∑ ∏ ˜ Σ i , j Σ ∏ { 1 , … , 2 k } k { i , j } k( x1, … , Xk) Σ k mi( ∏jaxja) = 0
W rzeczywistości możliwe jest wdrożenie ogólnej formuły. Najtrudniejszą częścią wydaje się być obliczenie wymaganych partycji. W R można to zrobić za pomocą funkcjik = 8 k = 9 k = 10
setparts
z pakietupartitions
. Za pomocą tego pakietu nie było problemu z wygenerowaniem 2 027 025 partycji dla , 34 459 425 partycji dla można również wygenerować, ale nie 654 729 075 partycji dla (na moim laptopie 16 GB).k = 9 k = 10Warto zwrócić uwagę na kilka innych rzeczy. Po pierwsze, dla zmiennych Gaussa o niezerowej wartości powinno być możliwe wyprowadzenie wyrażenia również z twierdzenia Isserlisa. Po drugie, nie jest dla mnie jasne, czy powyższy wzór jest odporny na odchylenia od normalności, to znaczy, czy można go zastosować jako przybliżenie, nawet jeśli zmienne nie są wielowymiarowe normalnie rozłożone. Po trzecie, chociaż powyższe formuły są prawidłowe, wątpliwe jest, jak wiele wariancji mówi o dystrybucji produktów. Nawet dla rozkład produktu jest dość leptokurtyczny, a dla większego szybko staje się wyjątkowo leptokurtyczny.kk = 2 k
źródło