Twierdzenie Cochrana
W matematyce , Cochran twierdzenie dotyczy projekcję Gaussa losowego wektora na ortogonalne podzbiorów wektorów skończonych wymiarach. Ustanawia prawo i niezależność tych projekcji i ich norm euklidesowych. Twierdzenie to jest wykorzystywane w statystyce do uzasadnienia zbieżności w prawie testów statystycznych i jest kluczowym argumentem dla podstawowych wyników modelu liniowego .
Stwierdzenie twierdzenia
Ogólna wersja tego twierdzenia jest następująca:
Twierdzenie Cochrana - Niech X prawo wektora losowego Gaussa (gdzie , σ > 0 i Id n jest macierzą jednostkową o rozmiarze n ) i F 1 , ..., F m podprzestrzeni , ortogonalnych od dwóch do dwóch i sum .
rnie{\ displaystyle \ mathbb {R} ^ {n}}NIE(μ,σ2iDnie){\ displaystyle {\ mathcal {N}} (\ mu, \ sigma ^ {2} \ mathrm {identyfikator} _ {n})}μ∈rnie{\ displaystyle \ mu \ in \ mathbb {R} ^ {n}}rnie{\ displaystyle \ mathbb {R} ^ {n}}rnie{\ displaystyle \ mathbb {R} ^ {n}}
Następnie, jeśli oznaczymy dla 1 ≤ i ≤ m , P F i macierz rzutu ortogonalnego na F i oraz d i wymiar F i :
- wektory losowe P F 1 X , ..., P F m X są dwa na dwa niezależne i mają odpowiednie prawa ;NIE(PF1μ,σ2PF1),...,NIE(PFmμ,σ2PFm){\ displaystyle {\ mathcal {N}} (P_ {F_ {1}} \ mu, \ sigma ^ {2} P_ {F_ {1}}), \ ldots, {\ mathcal {N}} (P_ {F_ {m}} \ mu, \ sigma ^ {2} P_ {F_ {m}})}
- rzeczywiste zmienne losowe są niezależne dwa na dwa i mają odpowiednie rozkłady χ 2 ( d 1 ), ..., χ 2 ( d m ) .‖PF1(x-μ)‖2σ2,...,‖PFm(x-μ)‖2σ2{\ displaystyle {\ Frac {\ | P_ {F_ {1}} (X- \ mu) \ | ^ {2}} {\ sigma ^ {2}}}, \ ldots, {\ Frac {\ | P_ { F_ {m}} (X- \ mu) \ | ^ {2}} {\ sigma ^ {2}}}}
Uproszczona, ale równoważna wersja to następująca instrukcja:
Twierdzenie Cochrana (uproszczone) - Niech X będzie losowym wektorem prawa Gaussa, a F wektorową podprzestrzenią wymiaru d , F ⊥ jego ortogonalną i P F , P F ⊥ macierzami rzutów ortogonalnych na F , F ⊥ . Następnie :
rnie{\ displaystyle \ mathbb {R} ^ {n}}NIE(0rnie,iDnie){\ displaystyle {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, \ mathcal {Id} _ {n})}rnie{\ displaystyle \ mathbb {R} ^ {n}}
- wektory losowe P F X , P F ⊥ X są niezależne i mają odpowiednie prawa ;NIE(0rnie,PF),NIE(0rnie,PF⊥){\ displaystyle {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, P_ {F}), {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n }} , P_ {F ^ {\ perp}})}
- rzeczywiste zmienne losowe | P F X | 2 , | P F ⊥ X | 2 są niezależne i mają odpowiednie prawa χ 2 ( d ) , χ 2 ( n - d ) .
Demonstracja
Możemy przejść z wersji uproszczonej do wersji ogólnej twierdzenia, stosując rekurencję na liczbie podprzestrzeni wektorowych (które ingerują w stwierdzenie) i dokonując zmiany zmiennej . Wystarczy zatem zademonstrować wersję uproszczoną.
x'=x-μσ~NIE(0rnie,iDnie){\ displaystyle X '= {\ frac {X- \ mu} {\ sigma}} \ sigma {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, \ mathm {identyfikator} _ { nie})}
Notujemy z . Wtedy iw konsekwencji P F X i P F ⊥ X są wektorami Gaussa. Ponieważ jest po przekątnej bloków, wektory losowe P F X i P F ⊥ X są niezależne i mają odpowiednie prawa i .
Tak=(PFxPF⊥x)=DOx{\ displaystyle Y = \ lewo ({\ początek {macierz} P_ {F} X \\ P_ {F ^ {\ perp}} X \ koniec {macierz}} \ po prawej) = AX}DO=(PFPF⊥)∈m2nie,nie(r){\ displaystyle A = \ lewo ({\ początek {matryca} P_ {F} \\ P_ {F ^ {\ perp}} \ koniec {matryca}} \ po prawej) \ w {\ mathcal {M}} _ {2n , n} (\ mathbb {R})}Tak~NIE(0r2nie,DODOT){\ displaystyle Y \ sim {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {2n}}, AA ^ {t})}DODOT=(PF00PF⊥){\ displaystyle AA ^ {t} = \ lewo ({\ początek {matryca} P_ {F} i 0 \\ 0 i P_ {F ^ {\ perp}} \ koniec {matryca}} \ po prawej)}NIE(0rnie,PF){\ displaystyle {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, P_ {F})}NIE(0rnie,PF⊥){\ displaystyle {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, P_ {F ^ {\ perp}})}
Jako normę rzutowania wystarczy przyjąć ( u 1 , ..., u d ) ortonormalną bazę F i ( u d + 1 , ..., u n ) ortonormalną bazę F ⊥ . Następnie
||PFx||2=Σi=1D⟨x,tyi⟩2 oraz ||PF⊥x||2=Σi=D+1nie⟨x,tyi⟩2.{\ displaystyle || P_ {F} X || ^ {2} = \ suma _ {i = 1} ^ {d} \ langle X, u_ {i} \ rangle ^ {2} \ qquad {\ text {i }} \ qquad || P_ {F ^ {\ perp}} X || ^ {2} = \ suma _ {i = d + 1} ^ {n} \ langle X, u_ {i} \ rangle ^ {2 }.}
Jednak (w przypadku U macierz przejścia od bazy kanonicznej do bazy ( u 1 , ..., u n ) ) (ponieważ U jest ortogonalne). Zatem zmienne losowe są wyśrodkowane względem normalnych, a ponieważ macierz kowariancji jest przekątna, są one niezależne. Z definicji prawa χ 2 ,
(⟨x,tyi⟩)1≤i≤nie=UTx{\ displaystyle (\ langle X, u_ {i} \ rangle) _ {1 \ leq i \ leq n} = U ^ {t} X}~NIE(0rnie,UiDnieUT)=NIE(0rnie,iDnie){\ displaystyle \ sim {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, U \ mathrm {Id} _ {n} U ^ {t}) = {\ mathcal {N} } (0 _ {\ mathbb {R} ^ {n}}, \ mathrm {Identyfikator} _ {n})}⟨x,tyi⟩{\ displaystyle \ langle X, u_ {i} \ rangle}
||PFx||2~χ2(D) oraz ||PF⊥x||2~χ2(nie-D){\ displaystyle || P_ {F} X || ^ {2} \ sim \ chi ^ {2} (d) \ qquad {\ tekst {i}} \ qquad || P_ {F ^ {\ perp}} X || ^ {2} \ sim \ chi ^ {2} (nd)}.
Aplikacje
Nieobciążony estymator wariancji
Podajemy sobie próbkę X = ( X 1 , ..., X n ) T o rozkładzie normalnym . Oznaczamy średnią empiryczną i nieobciążoną wariancję empiryczną Wtedy
NIE(μ,σ2){\ displaystyle {\ mathcal {N}} (\ mu, \ sigma ^ {2})}xŻnie=1nie(x1+...+xnie)=1nieΣi=1niexi{\ displaystyle {\ overline {X}} _ {n} = {\ frac {1} {n}} (X_ {1} + ... + X_ {n}) = {\ frac {1} {n} } \ suma _ {i = 1} ^ {n} X_ {i}}S~nie2=1nie-1((x1-xŻnie)2+...+(xnie-xŻnie)2)=1nie-1Σi=1nie(xi-xŻnie)2.{\ displaystyle {\ widetilde {S}} _ {n} ^ {2} = {\ frac {1} {n-1}} \ lewo ((X_ {1} - {\ overline {X}} _ {n }) ^ {2} + ... + (X_ {n} - {\ overline {X}} _ {n}) ^ {2} \ po prawej) = {\ frac {1} {n-1}} \ suma _ {i = 1} ^ {n} (X_ {i} - {\ overline {X}} _ {n}) ^ {2}.}
(nie-1)σ2S~nie2=1σ2((x1-xŻnie)2+...+(xnie-xŻnie)2)~χ2(nie-1).{\ displaystyle {\ frac {(n-1)} {\ sigma ^ {2}}} {\ widetilde {S}} _ {n} ^ {2} = {\ frac {1} {\ sigma ^ {2 }}} \ lewo ((X_ {1} - {\ overline {X}} _ {n}) ^ {2} + ... + (X_ {n} - {\ overline {X}} _ {n} ) ^ {2} \ prawo) \ sim \ chi ^ {2} (n-1).}
Uwaga: straciliśmy jeden stopień dla prawa chi-kwadrat.
Demonstracja
Stosujemy twierdzenie Cochrana z wektorem podprzestrzeni F = Vect (1 n ) (gdzie 1 n jest wektorem kolumnowym składającym się tylko z 1) do losowego wektora Y =rnie{\ displaystyle \ mathbb {R} ^ {n}}1/σ( X 1 - μ , ..., X n - μ ) t =1/σ( X - μ 1 n ) prawa .
NIE(0rnie,iDnie){\ displaystyle {\ mathcal {N}} (0 _ {\ mathbb {R} ^ {n}}, \ mathcal {Id} _ {n})}
- Macierz projekcji na F to P F = 1 n (1t
n1 n ) -1 1t
n = 1/nie1 n 1t
n a jeden na F ⊥ to zatem P F ⊥ = Id n - P F .
- Rzut Y na F to
P F Y =1/σ( P F X - μ P F 1 n ) =1/σ( X n - μ , ... , X n - μ ) t .
- Rzut Y na wschód .F⊥{\ styl wyświetlania F ^ {\ bot}}PF⊥Tak=Tak-PFTak=1σ(x1-xŻnie,...,xnie-xŻnie)T{\ displaystyle P_ {F ^ {\ perp}} Y = Y-P_ {F} Y = {\ frac {1} {\ sigma}} (X_ {1} - {\ overline {X}} _ {n} , \ kropki, X_ {n} - {\ nadkreślenie {X}} _ {n}) ^ {t}}
Zgodnie z twierdzeniem Cochrana .
||PF⊥Tak||2=(nie-1)σ2S~nie2~χ2(nie-1){\ displaystyle || P_ {F ^ {\ perp}} Y || ^ {2} = {\ frac {(n-1)} {\ sigma ^ {2}}} {\ widetylda {S}} _ { n} ^ {2} \ sim \ chi ^ {2} (n-1)}
Test chi-kwadrat
Twierdzenie Cochrana umożliwia ustalenie zbieżności w prawie niektórych testów statystycznych. Tak jest w przypadku testu odpowiedniości lub testu niezależności. Jest również używany w ramach modelu liniowego do uzyskania niezależności i faktu, że ma rozkład χ 2 ( n - p ) gdzie p - 1 jest liczbą zmiennych.
β^{\ displaystyle {\ widehat {\ beta}}}σ^2{\ displaystyle {\ widehat {\ sigma}} ^ {2}}nie-Pσ2σ^2{\ displaystyle {\ frac {np} {{\ sigma} ^ {2}}} {\ widehat {\ sigma}} ^ {2}}
Uwagi i referencje
-
„ Twierdzenie Cochrana i zastosowania w statystyce ” [PDF] , na perso.univ-rennes1 (dostęp 22 marca 2015 )
Zobacz również
Powiązane artykuły
Link zewnętrzny
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">