Wariancja (matematyka)
W statystykach i teorii prawdopodobieństwa , odchylenie jest miarą dyspersji o wartości do próbek lub rozkładu prawdopodobieństwa . Wyraża średnią kwadratów odchyleń od średniej, równą różnicy między średnią kwadratów wartości zmiennej a kwadratem średniej, zgodnie z twierdzeniem Königa-Huygensa . Zatem im większe odchylenie od średniej, tym bardziej dominuje w całkowitym obliczeniu (patrz funkcja kwadratowa ) wariancji, co daje dobre wyobrażenie o rozproszeniu wartości.
Wariancja jest zawsze dodatnia i znika tylko wtedy, gdy wszystkie wartości są równe. Jego pierwiastek kwadratowy określa odchylenie standardowe σ, stąd notacja .
σ2=V=V(X)=Vwr(X){\ Displaystyle \ sigma ^ {2} = V = \ mathbb {V} (X) = \ mathrm {Var (X)}}
Wariancja jest kwadratowa i niezmienna przez translację. Można to oszacować na podstawie próby i średniej empirycznej lub oczekiwań, jeśli te ostatnie są znane.
Wariancja pojawia się jako szczególny przypadek kowariancji . Uogólnia również dla wektorów losowych .
Dla szeregu statystycznego
Formuły
Biorąc pod uwagę statystyczne seria o rzeczywistej zmiennej ( x 1 , x 2 , ..., x n ) The średniej
, który został obliczony , wariancja jest średnią z kwadratów odchyleń od tego na myśli:
x¯=1nie∑ja=1niexja{\ Displaystyle {\ overline {x}} = {\ Frac {1} {n}} \ sum _ {i = 1} ^ {n} x_ {i}}
V=1nie∑ja=1nie(xja-x¯)2{\ Displaystyle V = {\ Frac {1} {n}} \ suma _ {i = 1} ^ {n} \ lewo (x_ {i} - {\ overline {x}} \ prawo) ^ {2}}.
Poszerzenie placu prowadzi do następującego przeformułowania:
V=(1nie∑ja=1niexja2)-x¯2{\ Displaystyle V = \ lewo ({\ Frac {1} {n}} \ suma _ {i = 1} ^ {n} x_ {i} ^ {2} \ prawej) - {\ overline {x}} ^ {2}},
to znaczy, wariancja jest różnicą między średnią kwadratów a kwadratem średniej.
Gdy szereg przyjmuje wartości x 1 , x 2 , ..., x n z częstotliwościami f 1 , f 2 , ..., f n , jego wariancja wynosi:
V=∑ja=1niefaja(xja-x¯)2=(∑ja=1niefajaxja2)-x¯2.{\ Displaystyle V = \ suma _ {i = 1} ^ {n} f_ {i} \ lewo (x_ {i} - {\ overline {x}} \ prawo) ^ {2} = \ lewo (\ suma _ {i = 1} ^ {n} f_ {i} x_ {i} ^ {2} \ right) - {\ overline {x}} ^ {2}.}Wariancja jest wskaźnikiem rozrzutu wartości , to znaczy jest zawsze dodatnia, znika tylko dla szeregu statystycznego, w którym wszystkie wyrazy mają tę samą wartość, jest tym większa, gdy wartości są rozłożone i niezmienny przez dodanie stałej. Jego obliczenie może wydawać się bardziej skomplikowane niż w przypadku innych wskaźników dyspersji, takich jak rozstęp międzykwartylowy lub średnia różnica bezwzględna , ale w przeciwieństwie do tego ostatniego, jest kumulatywny: jeśli zbierzemy k szeregów statystycznych w jeden, globalną wariancję można obliczyć z liczba n i , wariancja V i oraz średnia z każdego początkowego szeregu według wzoru
xja¯{\ displaystyle {\ overline {x_ {i}}}}
V=1NIE∑ja=1knieja(Vja+(x¯-xja¯)2){\ Displaystyle V = {\ Frac {1} {N}} \ suma _ {i = 1} ^ {k} n_ {i} (V_ {i} + ({\ overline {x}} - {\ overline { x_ {i}}}) ^ {2})}gdzie jest łączna liczba zatrudnionych, a jest ogólną średnią. Innymi słowy, ogólna wariancja jest sumą wariancji średnich i średniej z wariancji, nawet jeśli ten drugi składnik jest często pomijany.
NIE=∑ja=1knieja{\ Displaystyle N = \ suma _ {i = 1} ^ {k} n_ {i}}x¯=1NIE∑ja=1kniejaxja¯{\ displaystyle {\ overline {x}} = {\ frac {1} {N}} \ sum _ {i = 1} ^ {k} n_ {i} {\ overline {x_ {i}}}}
Transformacja afiniczna
Jeśli zastosujemy się pokrewieństwa funkcji z warunkami szeregu statystycznego ( x 1 , x 2 , ..., x n ) , wariancja jest mnożona przez o 2 . Innymi słowy, wariancja jest jednorodna stopnia 2 i niezmienna przez translację.
fa:x↦wx+b{\ displaystyle f: x \ mapsto ax + b}
Obliczenia iteracyjne
Rzeczywiste obliczenie wariancji dla szeregu statystycznego nie opiera się na bezpośrednim przełożeniu powyższych wzorów, z wyjątkiem ręcznego obliczania małych serii. Zamiast tego używamy iteracyjnego algorytmu, który poprawia precyzję:
c = 0
s = x1
pour j de 2 à n
s = s+xj
c = c+(j xj − s)2/(j(j−1))
renvoyer c/n
Dla prawdziwej zmiennej losowej
Wyrażenie
Biorąc pod uwagę rzeczywistą zmienną losową X, która dopuszcza oczekiwanie , wariancja to porządek czasowy wyśrodkowany 2 . Wzór Koeniga-Huygensa daje równoważne wyrażenie .
mi(X){\ displaystyle \ mathbb {E} (X)}V(X)=mi[(X-mi(X))2]{\ Displaystyle \ mathbb {V} (X) = \ mathbb {E} \ lewo [(X- \ mathbb {E} (X)) ^ {2} \ prawej]}V(X)=mi(X2)-(mi(X))2{\ Displaystyle \ mathbb {V} (X) = \ mathbb {E} (X ^ {2}) - (\ mathbb {E} (X)) ^ {2}}
Te dwa wzory mają sens tylko wtedy , gdy istnieją, innymi słowy, gdy zmienna dopuszcza moment rzędu 2. Dzieje się tak zawsze w przypadku ograniczonej zmiennej losowej , w szczególności w przypadku zmiennej losowej, która ma tylko jedną skończoną liczbę możliwych wartości. Ale dla nieograniczonego zmiennej losowej, istnienie oczekiwaniem i moment rzędu 2 zależy od zbieżności z serii lub całki . Zatem prawo Pareto dopuszcza oczekiwanie tylko wtedy, gdy jego parametr k jest ściśle większy niż 1, i dopuszcza wariancję tylko wtedy, gdy k > 2 .
mi(X2){\ Displaystyle \ mathbb {E} (X ^ {2})}
W przypadku zmiennej losowej przyjmującej tylko skończoną liczbę odnotowanych wartości ( x 1 , ..., x k ) i odnotowując ( p 1 , ..., p k ) związane z nią prawdopodobieństwa, znajdujemy wariancję wyrażenia
V(X)=∑ja=1kpja(xja-x¯)2=(∑ja=1kpjaxja2)-x¯2=(∑ja=1kpjaxja2)-(∑ja=1kpjaxja)2{\ Displaystyle \ mathbb {V} (X) = \ suma _ {i = 1} ^ {k} p_ {i} (x_ {i} - {\ overline {x}}) ^ {2} = \ lewo ( \ sum _ {i = 1} ^ {k} p_ {i} x_ {i} ^ {2} \ right) - {\ overline {x}} ^ {2} = \ left (\ sum _ {i = 1 } ^ {k} p_ {i} x_ {i} ^ {2} \ right) - \ left (\ sum _ {i = 1} ^ {k} p_ {i} x_ {i} \ right) ^ {2 }}W przypadku dyskretnej zmiennej losowej o nieskończonej liczbie wartości używamy tego samego wzoru, zastępując sumę serią.
W przypadku zmiennej losowej o gęstości wariancję określa:
V(X)=σ2=∫(x-μ)2fa(x)rex{\ Displaystyle \ mathbb {V} (X) = \ sigma ^ {2} = \ int (x- \ mu) ^ {2} \, f (x) \, dx \,}gdzie f jest gęstością prawdopodobieństwa, a μ jest matematycznym oczekiwaniem zmiennej losowej X
μ=∫xfa(x)rex{\ Displaystyle \ mu = \ int x \, f (x) \, \ mathrm {d} x \,}Wariancję ciągłej zmiennej losowej X można również obliczyć w następujący sposób:
V(X)=∫x2fa(x)rex-μ2{\ Displaystyle \ mathbb {V} (X) = \ int x ^ {2} \, f (x) \, \ mathrm {d} x \, - \ mu ^ {2}}
Nieruchomości
Transformacja afiniczna
W serii danych statystycznych, wpływ na afinicznej transformacji na ich wpływ zmiennej losowej o wzorze:
.
V(wX+b)=w2V(X){\ Displaystyle \ mathbb {V} (aX + b) = a ^ {2} \ mathbb {V} (X)}
Kombinacja liniowa
Jeśli dwie zmienne losowe X i Y dopuszczają wariancję, to również ich suma i napisane jest , gdzie jest kowariancja . Relacja rozciąga się na dowolną liniową kombinację zmiennych dopuszczających wariancję:
V(X+Y)=V(X)+V(Y)+2VSov(X,Y){\ Displaystyle \ mathbb {V} (X + Y) = \ mathbb {V} (X) + \ mathbb {V} (Y) +2 \ operatorname {Cov} (X, Y)}VSov(X,Y){\ Displaystyle \ mathrm {Cov} (X, Y)}
V(∑ja=1niewjaXja)=∑ja=1niewja2V(Xja)+2∑1≤ja<jot≤niewjawjotCov(Xja,Xjot)=∑ja=1nie∑jot=1niewjawjotCov(Xja,Xjot){\ Displaystyle \ mathbb {V} \ lewo (\ suma _ {i = 1} ^ {n} {a_ {i} \, X_ {i}} \ prawej) = \ suma _ {i = 1} ^ {n } a_ {i} ^ {2} \, \ mathbb {V} (X_ {i}) + 2 \ sum _ {1 \ leq i <j \ leq n} \, a_ {i} a_ {j} \, \ nazwa operatora {Cov} (X_ {i}, X_ {j}) = \ sum _ {i = 1} ^ {n} \ sum _ {j = 1} ^ {n} a_ {i} a_ {j} \ nazwa operatora {Cov} (X_ {i}, X_ {j})}
V(∑ja=1nieXja)=∑ja=1nieV(Xja)+2∑1≤ja<jot≤nieCov(Xja,Xjot){\ Displaystyle \ mathbb {V} \ lewo (\ suma _ {i = 1} ^ {n} {X_ {i}} \ prawej) = \ suma _ {i = 1} ^ {n} \ mathbb {V} (X_ {i}) + 2 \ sum _ {1 \ leq i <j \ leq n} \ nazwa operatora {Cov} (X_ {i}, X_ {j})}
Suma zmiennych niezależnych
Jeśli X i Y są dwiema zmiennymi niezależnymi , ich kowariancja wynosi zero, więc znajdujemy,
ale odwrotność jest fałszywa. Zależności tej nie należy mylić z liniowością spełnianą przez oczekiwanie. W szczególności i bardziej ogólnie .
V(X+Y)=V(X)+V(Y){\ Displaystyle \ mathbb {V} (X + Y) = \ mathbb {V} (X) + \ mathbb {V} (Y)}V(X-Y)=V(X)+V(Y){\ Displaystyle \ mathbb {V} (XY) = \ mathbb {V} (X) + \ mathbb {V} (Y)}V(wX+bY)=w2V(X)+b2V(Y){\ Displaystyle \ mathbb {V} (aX + bY) = a ^ {2} \ mathbb {V} (X) + b ^ {2} \ mathbb {V} (Y)}
Mówiąc bardziej ogólnie, wariancja sumy zmiennych niezależnych jest równa sumie wariancji. Wynik ten oznacza, że dla próby n zmiennych o tej samej wariancji σ 2 zapisuje się wariancję średniej empirycznej .
V(X¯)=σ2nie{\ Displaystyle \ mathbb {V} ({\ overline {X}}) = {\ Frac {\ sigma ^ {2}} {n}}}
Iloczyn zmiennych niezależnych
Wariancja iloczynu dwóch niezależnych zmiennych losowych X i Y skończonych wariancji jest wyrażona jako funkcja tych dwóch zmiennych za pomocą następującego wzoru
V(XY)=V(X)V(Y)+V(X)(mi(Y))2+V(Y)(mi(X))2=V(X)mi(Y2)+V(Y)(mi(X))2=V(Y)mi(X2)+V(X)(mi(Y))2{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {V} (XY) & = \ mathbb {V} (X) \ mathbb {V} (Y) + \ mathbb {V} (X) (\ mathbb {E}) (Y)) ^ {2} + \ mathbb {V} (Y) (\ mathbb {E} (X)) ^ {2} \\ & = \ mathbb {V} (X) \ mathbb {E} (Y ^ {2}) + \ mathbb {V} (Y) (\ mathbb {E} (X)) ^ {2} \\ & = \ mathbb {V} (Y) \ mathbb {E} (X ^ {2 }) + \ mathbb {V} (X) (\ mathbb {E} (Y)) ^ {2} \ end {aligned}}}
Oszacowanie
Estymator punktowy
Z próby niezależnych rzeczywistych zmiennych losowych ( X 1 , ..., X n ) pochodzących z tego samego prawa prawdopodobieństwa , wariancję σ 2 tego prawa można oszacować za pomocą wariancji empirycznej
S2=1nie∑ja=1nie(Xja-X¯)2{\ Displaystyle S ^ {2} = {\ Frac {1} {n}} \ suma _ {i = 1} ^ {n} (X_ {i} - {\ overline {X}}) ^ {2}}gdzie jest średnia empiryczna .
X¯=1nie∑ja=1nieXja{\ Displaystyle {\ overline {X}} = {\ Frac {1} {n}} \ sum _ {i = 1} ^ {n} X_ {i}}
Ten estymator jest jednak obciążony , ponieważ .
mi(S2)=nie-1nieσ2{\ Displaystyle \ mathbb {E} (S ^ {2}) = {\ Frac {n-1} {n}} \ sigma ^ {2}}
Demonstracja
Oznaczymy przez μ oczekiwanie wspólne dla zmiennych z próby.
Rozwijamy się .
nieS2=∑ja=1nieXja2-2X¯∑ja=1nieXja+nieX¯2=∑ja=1nieXja2-nieX¯2{\ Displaystyle nS ^ {2} = \ suma _ {i = 1} ^ {n} X_ {i} ^ {2} -2 {\ overline {X}} \ sum _ {i = 1} ^ {n} X_ {i} + n {\ overline {X}} ^ {2} = \ sum _ {i = 1} ^ {n} X_ {i} ^ {2} -n {\ overline {X}} ^ {2 }}
Teraz mamy
dla wszystkich i , zgodnie z formułą Koeniga-Huygensa, i dla wszystkich , przez niezależność.
X¯2=1nie2∑ja=1nie∑jot=1nieXjaXjot{\ Displaystyle {\ overline {X}} ^ {2} = {\ Frac {1} {n ^ {2}}} \ sum _ {i = 1} ^ {n} \ sum _ {j = 1} ^ {n} X_ {i} X_ {j}}mi(Xja2)=V(Xja)+(mi(Xja))2=σ2+μ2{\ Displaystyle \ mathbb {E} (X_ {i} ^ {2}) = \ mathbb {V} (X_ {i}) + (\ mathbb {E} (X_ {i})) ^ {2} = \ sigma ^ {2} + \ mu ^ {2}}ja≠jot{\ displaystyle i \ neq j}mi(XjaXjot)=mi(Xja)mi(Xjot)=μ2{\ Displaystyle \ mathbb {E} (X_ {i} X_ {j}) = \ mathbb {E} (X_ {i}) \ mathbb {E} (X_ {j}) = \ mu ^ {2}}
Możemy wywnioskować
z którego czerpie
tak .
mi(X¯2)=1nie2(nie(σ2+μ2)+nie(nie-1)μ2)=1nie(σ2+nieμ2){\ Displaystyle \ mathbb {E} ({\ overline {X}} ^ {2}) = {\ Frac {1} {n ^ {2}}} (n (\ sigma ^ {2} + \ mu ^ { 2}) + n (n-1) \ mu ^ {2}) = {\ frac {1} {n}} (\ sigma ^ {2} + n \ mu ^ {2})}mi(nieS2)=nie(σ2+μ2)-(σ2+nieμ2)=(nie-1)σ2{\ Displaystyle \ mathbb {E} (nS ^ {2}) = n (\ sigma ^ {2} + \ mu ^ {2}) - (\ sigma ^ {2} + n \ mu ^ {2}) = (n-1) \ sigma ^ {2}}mi(S2)=nie-1nieσ2{\ Displaystyle \ mathbb {E} (S ^ {2}) = {\ Frac {n-1} {n}} \ sigma ^ {2}}
Jeśli n > 1 , to definiujemy nieobciążony estymator przez liniowość oczekiwania.
S~2=nienie-1S2{\ Displaystyle {\ widetilde {S}} ^ {2} = {\ Frac {n} {n-1}} S ^ {2}}
Aby oszacować wariancję całej populacji z tej zmierzonej na próbie o rozmiarze n , oszacowaną wariancję uzyskuje się poprzez pomnożenie wariancji zmierzonej na próbie przeznie/n - 1. W przypadku (rzadziej w praktyce) selekcji bez zamiany w populacji o wielkości N należy zastosować estymator
. Jeśli oczekiwanie μ zmiennych w próbie jest znane, bezpośredni estymator jest już nieobciążony.
NIE-1NIES~2{\ Displaystyle {\ Frac {N-1} {N}} {\ widetilde {S}} ^ {2}}T=1nie∑ja=1nie(Xja-μ)2{\ Displaystyle T = {\ Frac {1} {n}} \ suma _ {i = 1} ^ {n} (X_ {i} - \ mu) ^ {2}}
Demonstracja
Podobnie jak w przypadku dowodu na stronniczość S 2 , znajdujemy:
nieT=∑ja=1nieXja2-2μ∑ja=1nieXja+μ2{\ displaystyle nT = \ sum _ {i = 1} ^ {n} X_ {i} ^ {2} -2 \ mu \ sum _ {i = 1} ^ {n} X_ {i} + \ mu ^ { 2}}.
Więc i .
mi(nieT)=nie(σ2+μ2)-2nieμmi(X¯)+nieμ2=nie(σ2+μ2)-2nieμ2+nieμ2=nieσ2{\ Displaystyle \ mathbb {E} (nT) = n (\ sigma ^ {2} + \ mu ^ {2}) - 2n \ mu \ mathbb {E} ({\ overline {X}}) + n \ mu ^ {2} = n (\ sigma ^ {2} + \ mu ^ {2}) - 2n \ mu ^ {2} + n \ mu ^ {2} = n \ sigma ^ {2}}mi(T)=σ2{\ Displaystyle \ mathbb {E} (T) = \ sigma ^ {2}}
Te trzy estymatory są zbieżne .
Demonstracja
Zgodnie z prawem dużych liczb , empiryczna średnia prawie na pewno zbiega się z oczekiwaniem μ, a empiryczna średnia kwadratów
prawie na pewno zbiega się do σ 2 + μ 2 , co pokazuje, że trzy estymatory wariancji zbiegają się do σ 2,
gdy n → + ∞ .
1nie∑ja=1nieXja2{\ Displaystyle {\ Frac {1} {n}} \ sum _ {i = 1} ^ {n} X_ {i} ^ {2}}
Przedział ufności
Uzyskanie przedziału ufności dla wariancji rozkładu prawdopodobieństwa z próby zależy od typu rozkładu.
W przypadku rodziny praw zależnych od pojedynczego parametru, na przykład praw Bernoulliego , praw geometrycznych , wykładniczych lub Poissona , wystarczy użyć przedziału ufności dla parametru. W przypadku rodziny praw zależnych od co najmniej dwóch parametrów używamy estymatora zbieżnego z jednym parametrem bezpośrednio związanym z wariancją prawa początkowego. Zatem dla próby n zmiennych gaussowskich ( X 1 , ..., X n ), których oczekiwanie jest nieznane, iloraz nieobciążonej wariancji empirycznej pomnożonej przez ( n -1) przez rzeczywistą wariancję jest zgodny z prawem chi-kwadrat z n - 1 stopniami swobody zgodnie z twierdzeniem Cochrana .
Elementy historii
Ronald Fisher jako pierwszy użył słowa wariancja w artykule z 1918 roku zatytułowanym „ The Correlation between Relatives on the Supposition of Mendelian Inheritance ”, w
którym zdefiniował wariancję jako kwadrat odchylenia standardowego. W tym dokumencie wyraźnie preferuje wariancję od odchylenia standardowego jako miarę zmienności obserwowanego zjawiska. Użył tego terminu ponownie na kongresie matematycznym w Toronto w 1924 roku. To on również zdefiniował analizę wariancji, tak jak jest ona obecnie praktykowana w swojej książce „ Metody statystyczne dla pracowników naukowych ” opublikowanej w 1925 roku.
Aplikacje
Obliczenie wariancji umożliwia wyprowadzenie z niej odchylenia standardowego , które jest jednorodne ze zmienną losową, w matematycznym sensie tego terminu, jak w analizie wymiarowej .
σ(X)=V(X){\ Displaystyle \ sigma (X) = {\ sqrt {\ mathbb {V} (X)}}}
Wariancja szeregu statystycznego pojawia się przy obliczaniu współczynników regresji liniowej .
Metody analizy wariancji (ANOVA) gromadzą badania porównawcze między próbkami na jednej lub większej liczbie zmiennych ilościowych.
Wariancja zmiennej losowej jest zaangażowana w Centralne Twierdzenie Graniczne, a także w nierówność Bienaymégo-Czebyszewa .
Wariancja warunkowa
Są dwie zmienne losowe Y i X . Wariancję warunkową Y, znając X, nazywamy zmienną losową odpowiadającą oczekiwaniu warunkowemu znając X kwadratu odchylenia Y od oczekiwania warunkowego:
Var(Y|X)=mi([Y-mi(Y|X)]2|X).{\ displaystyle \ operatorname {Var} (Y | X) = \ mathbb {E} \ lewo ([Y- \ mathbb {E} (Y | X)] ^ {2} | X \ prawej).}Jak każdy zmiennej warunkowej, jest to funkcja X .
Wariancja Y jest związana z wariancją warunkową i oczekiwaniem przez twierdzenie o całkowitej wariancji :
Var(Y)=mi(Var[Y|X])+Var(mi[Y|X]).{\ displaystyle \ operatorname {Var} (Y) = \ mathbb {E} (\ operatorname {Var} [Y | X]) + \ operatorname {Var} (\ mathbb {E} [Y | X]).}
Wariancja losowego wektora
Jeśli zdefiniujemy X k × 1 jako wektor losowy, który ma k zmiennych i Μ jako wektor k oczekiwań X , to zdefiniujemy wariancję jako:
Definicja - Σk×k≡Var[Xk×1]≡mi[(Xk×1-M) t(Xk×1-M)]{\ Displaystyle \ Sigma _ {k \ razy k} \ equiv \ operatorname {Var} [X_ {k \ razy 1}] \ equiv \ mathbb {E} \ lewo [(X_ {k \ razy 1} - \ mathrm { M}) \ ^ {\ operatorname {t}} (X_ {k \ times 1} - \ mathrm {M}) \ right]}
Jest to więc kwadratowa macierz o rozmiarze k , zwana macierzą wariancji-kowariancji , która zawiera na swojej przekątnej wariancje każdego składnika losowego wektora, a poza przekątną kowariancje. Ta macierz jest symetryczna i dodatnia półokreślona ; jest ona dodatnio określona wtedy i tylko wtedy, gdy jedyną pewną kombinacją liniową (to znaczy prawie na pewno stałą) składowych wektora losowego jest ta, której wszystkie współczynniki są równe zeru. Odwrotny przypadek oznacza, że realizacja wektora X jest prawie na pewno ograniczona do hiperpłaszczyzny .
Posiadamy następujące właściwości:
Właściwość - jeśli V jest kwadratową macierzą o rozmiarzek,Var[Vk×kXk×1]=VVar[X] tV{\ displaystyle k, \ operatorname {Var} [V_ {k \ razy k} X_ {k \ razy 1}] = V \ operatorname {Var} [X] \ ^ {\ operatorname {t}} V}
Uwagi i odniesienia
Uwagi
-
Dwie inne formy są wywnioskowane z pierwszej przez rozłożenie na czynniki wariancji, a następnie podstawienie równości twierdzenia Koeniga-Huygensa .V(X)=mi(X2)-(mi(X))2⟺V(X)+(mi(X))2=mi(X2){\ Displaystyle \ mathbb {V} (X) = \ mathbb {E} (X ^ {2}) - (\ mathbb {E} (X)) ^ {2} \ iff \ mathbb {V} (X) + (\ mathbb {E} (X)) ^ {2} = \ mathbb {E} (X ^ {2})}
-
Istnienie chwili porządku 2 implikuje w szczególności istnienie nadziei.
-
Dyskretna zmienna losowa może przyjmować policzalny zestaw wartości z niezerowym prawdopodobieństwem.
-
Na potrzeby tej demonstracji warto przypomnieć jedną z właściwości oczekiwanych . Mamy wtedymi(wX+b)=wmi(X)+b{\ Displaystyle \ mathbb {E} (aX + b) = a \ nazwa operatora {E} (X) + b}Var(wX+b)=mi[(wX+b-mi[wX+b])2]=mi[(wX+b-wmi[X]-b)2]=mi[(wX-wmi[X])2]=mi[w2(X-mi[X])2]=w2mi[(X-mi[X])2]=w2Var(X){\ displaystyle \ operatorname {Var} (aX + b) = \ mathbb {E} [(aX + b- \ mathbb {E} [aX + b]) ^ {2}] = \ mathbb {E} [(aX + ba \ mathbb {E} [X] -b) ^ {2}] = \ mathbb {E} [(aX-a \ mathbb {E} [X]) ^ {2}] = \ mathbb {E} [ a ^ {2} (X- \ mathbb {E} [X]) ^ {2}] = a ^ {2} \ mathbb {E} [(X- \ mathbb {E} [X]) ^ {2} ] = a ^ {2} \ nazwa operatora {Var} (X)}
-
Var(X¯)=Var(1nie∑ja=1nieXja)=1nie2Var(∑ja=1nieXja)=1nie2nieVar(X)=Var(X)nie{\ displaystyle \ operatorname {Var} ({\ overline {X}}) = \ operatorname {Var} \ left ({\ frac {1} {n}} \ sum _ {i = 1} ^ {n} X_ { i} \ right) = {\ frac {1} {n ^ {2}}} \ nazwa operatora {Var} \ left (\ sum _ {i = 1} ^ {n} X_ {i} \ right) = {\ frac {1} {n ^ {2}}} n \ operatorname {Var} (X) = {\ frac {\ operatorname {Var} (X)} {n}}}
-
Rémy Clairin, Philippe Brion, podręcznik ankiety, Aplikacje dla krajów rozwijających się , dokumenty i podręczniki CEDEP , luty 97, ( ISBN 2-87762-082-4 ) , strona 17).
Książki specjalistyczne
-
Saporta 2011 , §5.3.2.3 „Wariancja i odchylenie standardowe”
-
Saporta 2006 , s. 25
-
Rioul 2008 , s. 142
-
Saporta 2006 , s. 26
-
Rioul 2008 , s. 183-185
-
Dodge 2010 , s. 508
-
Dodge 2010 , s. 556
-
Dodge 2010 , s. 506
Artykuły opublikowane w internecie
-
[PDF] (w :) Ronald A. Fisher , „ The Correlation entre Relatives on the Supposition of Mendelian Inheritance. ” , Philosophical Transactions of the Royal Society of Edinburgh. , vol. 52, 1918, s. 399–433 ( czytaj online ).
-
[PDF] Jean-Paul Benzécri , „ Historia i prehistoria analizy danych: część 3 ”, Notatniki analizy danych , t. 1 n O 3,1976, s. 221-241 ( czytaj online , przeglądano 24 kwietnia 2012 ).
-
[PDF] J.-M. Faverge , „ III. - Analiza wariancji w psychologii ”, L'Année psychologique , t. 49, n o 1, 1948, s. 341-358 ( czytaj online ).
Zobacz też
Bibliografia
-
(fr) Gilbert Saporta , Prawdopodobieństwo, analiza danych i statystyka , Paryż, Éditions Technip,2006, 622, s. [ szczegóły wydań ] ( ISBN 978-2-7108-0814-5 , prezentacja online ).
-
(fr) Olivier Rioul , Teoria prawdopodobieństwa , Paryż, Editions Hermes sciences,2008, 364 str. ( ISBN 978-2-7462-1720-1 ).
-
Yadolah Dodge , „ The Concise Encyclopaedia of Statistics ” , Nowy Jork, Springer,2010, 622, s. ( ISBN 978-0-387-31742-7 , czytaj online ).
Powiązane artykuły
Linki zewnętrzne