Statystyki zamówień
W statystykach The k- Rank Statystyki porządek w próbce statystycznej jest równa k- tej najmniejszej wartości. Wraz ze statystykami rang, statystyki zamówień są jednym z podstawowych narzędzi statystyki nieparametrycznej i wnioskowania statystycznego .
Dwa ważne przypadki statystyki rzędu to statystyki minimum i maksimum oraz, w mniejszym stopniu, mediana próby, a także różne kwantyle .
Kiedy używamy teorii prawdopodobieństwa do analizy statystyk porządkowych próby z ciągłego prawa prawdopodobieństwa , funkcja rozkładu służy do sprowadzenia analizy do przypadku, gdy statystyki porządkowe na jednolitym prawie idą dalej
Notacja i przykłady
Rozważ eksperyment prowadzący do obserwacji próbki 4 liczb, przyjmując następujące wartości:
6, 9, 3, 8,
że odnotowujemy zgodnie z konwencją:
x1=6; x2=9; x3=3; x4=8{\ Displaystyle x_ {1} = 6; \ \ x_ {2} = 9; \ \ x_ {3} = 3; \ \ x_ {4} = 8 \,}gdzie i w indeksie dolnym jest używane do identyfikacji obserwacji (według kolejności czasowej, numeru odpowiedniego elementu itp.) i nie jest a priori skorelowane z wartością obserwacji.
Zwracamy uwagę na statystykę zamówienia:
x(1)=3; x(2)=6; x(3)=8; x(4)=9{\ Displaystyle x _ {(1)} = 3; \ \ x _ {(2)} = 6; \ \ x _ {(3)} = 8; \ \ x _ {(4)} = 9 \, }gdzie indeks ( i ) oznacza statystykę i- tego rzędu próbki po zwykłej relacji rzędu na liczbach naturalnych .
Zgodnie z konwencją, odnotowana statystyka pierwszego rzędu jest zawsze minimum próbki, to znaczy:
X(1){\ Displaystyle X _ {(1)}}
X(1)=min{X1,...,Xnie}{\ Displaystyle X _ {(1)} = \ min \ {\, X_ {1}, \ ldots, X_ {n} \, \}}Zgodnie ze zwykłą konwencją, wielkie litery odnoszą się do zmiennych losowych , a małe litery do obserwowanych wartości (realizacji) tych zmiennych.
Podobnie dla próbki o rozmiarze n statystyka rzędu n (innymi słowy, maksimum) wynosi
X(nie)=max{X1,...,Xnie}.{\ Displaystyle X _ {(n)} = \ max \ {\, X_ {1}, \ ldots, X_ {n} \, \}.}Statystyka porządkowa jest loci nieciągłości funkcji dystrybucji empirycznej próbki.
Analiza probabilistyczna
Gęstość statystyki zamówienia
Biorąc pod uwagę próbkę , zanotowane statystyki porządkowe są zatem uzyskiwane przez sortowanie rosnąco.
X=(X1,X2,...,Xnie){\ Displaystyle X = (X_ {1}, X_ {2}, \ ldots, X_ {n})}X(1),X(2),...,X(nie){\ Displaystyle X _ {(1)}, X _ {(2)}, \ ldots, X _ {(n)}}
Twierdzenie - Jeśli założymy próbki X być niezależne i jednakowo rozmieszczone zgodnie z prawem gęstość f i dystrybuantę F , to gęstość w k- statystyki rzędu TH
faX(k)(x)=nie!(k-1)!(nie-k)!fa(x)k-1(1-fa(x))nie-kfa(x).{\ Displaystyle f_ {X _ {(k)}} (x) = {n! \ over (k-1)! (nk)!} F (x) ^ {k-1} (1-F (x)) ^ {nk} f (x).}
Demonstracja
Obliczanie za pomocą funkcji rozkładu
Dystrybucja statystyki k- tego rzędu to
P.(X(k)≤x)=faX(k)(x)=P.(wu mojanies k remis nie X soniet ≤x)=∑jot=knie(niejot)P.(X1≤x)jot(1-P.(X1≤x))nie-jot=∑jot=knie(niejot)fa(x)jot(1-fa(x))nie-jot.{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {P} \ lewo (X _ {(k)} \ równoważnik x \ prawej) & {} = F_ {X _ {(k)}} (x) \ quad = \ quad \ mathbb {P} (\ mathrm {au} \ \ mathrm {mniej} \ k \ \ mathrm {des} \ n \ X \ \ mathrm {are} \ \ leq x) \\ & = \ sum _ { j = k} ^ {n} {n \ wybierz j} \ mathbb {P} (X_ {1} \ leq x) ^ {j} (1- \ mathbb {P} (X_ {1} \ leq x)) ^ {nj} \\ & = \ sum _ {j = k} ^ {n} {n \ choose j} F (x) ^ {j} (1-F (x)) ^ {nj}. \ end { wyrównane}}}Innymi słowy, liczba elementów próbki mniejszej niż x jest zgodna z prawem dwumianowym z parametrami n i F (x) , ponieważ są to n niezależnych eksperymentów, które mają dwa wyniki: „być mniejsze niż x ” i „być większe niż x ”, pierwszy z dwóch wyników mający prawdopodobieństwo F (x) , a drugi wynik mający prawdopodobieństwo 1-F (x) . Dryfując, znajdujemy sumę teleskopową, która daje gęstość:
faX(k)(x)=rerexfaX(k)(x)=∑jot=knie(niejot)(jotfa(x)jot-1fa(x)(1-fa(x))nie-jot+fa(x)jot(nie-jot)(1-fa(x))nie-jot-1(-fa(x)))=(niek)kfa(x)k-1fa(x)(1-fa(x))nie-k + ∑jot=k+1nie(niejot)jotfa(x)jot-1fa(x)(1-fa(x))nie-jot - ∑jot=knie-1(nie-jot)(niejot) fa(x)jotfa(x)(1-fa(x))nie-jot-1=(niek)kfa(x)k-1fa(x)(1-fa(x))nie-k + ∑jot=k+1nie(niejot)jotfa(x)jot-1fa(x)(1-fa(x))nie-jot - ∑jot=k+1nie(nie-jot+1)(niejot-1) fa(x)jot-1fa(x)(1-fa(x))nie-jot=(niek)kfa(x)k-1fa(x)(1-fa(x))nie-k + ∑jot=k+1nie((niejot)jot-(nie-jot+1)(niejot-1)) fa(x)jot-1fa(x)(1-fa(x))nie-jot=(niek)kfa(x)k-1fa(x)(1-fa(x))nie-k,{\ Displaystyle {\ rozpocząć {wyrównane} f_ {X _ {(k)}} (x) & {} = {d \ ponad dx} F_ {X _ {(k)}} (x) \\ & {} = \ suma _ {j = k} ^ {n} {n \ wybierz j} \ left (jF (x) ^ {j-1} f (x) (1-F (x)) ^ {nj} + F (x) ^ {j} (nj) (1-F (x)) ^ {nj-1} (- f (x)) \ right) \\ & {} = {n \ wybierz k} \, kF ( x) ^ {k-1} f (x) (1-F (x)) ^ {nk} \ + \ \ sum _ {j = k + 1} ^ {n} {n \ wybierz j} jF (x ) ^ {j-1} f (x) (1-F (x)) ^ {nj} \ - \ \ sum _ {j = k} ^ {n-1} (nj) {n \ wybierz j} \ F (x) ^ {j} f (x) (1-F (x)) ^ {nj-1} \\ & {} = {n \ wybierz k} \, kF (x) ^ {k-1} f (x) (1-F (x)) ^ {nk} \ + \ \ sum _ {j = k + 1} ^ {n} {n \ wybierz j} jF (x) ^ {j-1} f (x) (1-F (x)) ^ {nj} \ - \ \ sum _ {j = k + 1} ^ {n} (n-j + 1) {n \ wybierz j-1} \ F (x) ^ {j-1} f (x) (1-F (x)) ^ {nj} \\ & {} = {n \ wybierz k} \, kF (x) ^ {k-1} f (x) (1-F (x)) ^ {nk} \ + \ \ sum _ {j = k + 1} ^ {n} \ left ({n \ wybierz j} j- (nj + 1) {n \ wybierz j -1} \ right) \ F (x) ^ {j-1} f (x) (1-F (x)) ^ {nj} \\ & {} = {n \ wybierz k} \, kF (x ) ^ {k-1} f (x) (1-F (x)) ^ {nk}, \ end {aligned}}}dlatego
(niejot)jot = nie!jotjot!(nie-jot)! = nie!(nie-jot+1)(jot-1)!(nie-jot+1)! = (nie-jot+1)(niejot-1).{\ Displaystyle {n \ wybierz j} j \ = \ {\ Frac {n! \, j} {j! \, (nj)!}} \ = \ {\ Frac {n! \, (n-j + 1) } {(j-1)! \, (Nj + 1)!}} \ = \ (Nj + 1) {n \ wybierz j-1}.}Wreszcie:
faX(k)(x)=nie!(k-1)!(nie-k)!fa(x)k-1(1-fa(x))nie-kfa(x).{\ Displaystyle f_ {X _ {(k)}} (x) = {n! \ over (k-1)! (nk)!} F (x) ^ {k-1} (1-F (x)) ^ {nk} f (x).}Bezpośrednia kalkulacja
W serii n niezależnych i identycznych losowych eksperymentów, z których każdy ma trzy możliwe wyniki, powiedzmy a , b i c , z odpowiednimi prawdopodobieństwami p a , p b , p c , wspólne prawo liczb wyników N a (odpowiednio N b , N c ) typ ma (odpowiednio b , c ) jest wielomianowym rozkładem parametrów n i p = (p a , p b , p c ), opisanym przez:
P.((NIEw,NIEb,NIEvs)=(kw,kb,kvs))=(niekw,kb,kvs) pwkwpbkbpvskvs 11kw+kb+kvs=nie=nie!kw!kb!kvs! pwkwpbkbpvskvs 11kw+kb+kvs=nie.{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {P} \ lewo ((N_ {a}, N_ {b}, N_ {c}) = (k_ {a}, k_ {b}, k_ {c}) \ right) & = {n \ wybierz k_ {a}, k_ {b}, k_ {c}} \ p_ {a} ^ {k_ {a}} \, p_ {b} ^ {k_ {b}} \ , p_ {c} ^ {k_ {c}} \ 1 \! \! 1_ {k_ {a} + k_ {b} + k_ {c} = n} \\ & = {\ frac {n!} {k_ {a}! \, k_ {b}! \, k_ {c}!}} \ p_ {a} ^ {k_ {a}} \, p_ {b} ^ {k_ {b}} \, p_ {c } ^ {k_ {c}} \ 1 \! \! 1_ {k_ {a} + k_ {b} + k_ {c} = n}. \ end {aligned}}}Zatem gęstość X (k) jest uzyskiwana przez rozpoznanie serii n niezależnych i identycznych losowych eksperymentów, z których każdy ma trzy możliwe wyniki, X i ≤ x , x <X i ≤ x + dx i X i > x + dx ' ' , z odpowiednimi prawdopodobieństwami F (x) , f (x) dx i 1-F (x) -f (x) dx . Więc,
faX(k)(x) rex=P.(X(k)∈[x,x+rex])P.( z nie Xja,dokładnie k-1 są ≤x,dokładnie jeden z Xja∈[x,x+rex],a inni są ≥x+rex)=nie!(k-1)!1!(nie-k)! fa(x)k-1fa(x)rex(1-fa(x))nie-k=nie!(k-1)!(nie-k)! fa(x)k-1(1-fa(x))nie-kfa(x)rex.{\ Displaystyle {\ rozpocząć {wyrównane} f_ {X _ {(k)}} (x) \ dx & {} = \ mathbb {P} \ lewo (X _ {(k)} \ w [x, \, x + dx] \ right) \\ & {} \ mathbb {P} \ left ({\ text {wśród}} n \ X_ {i}, {\ text {dokładnie}} \ k-1 \ {\ text {are}} \ \ leq x, {\ text {dokładnie jeden z}} X_ {i} \ in [x, \, x + dx], {\ text {i pozostałe to}} \ \ geq x + dx \ right) \\ & = {\ frac {n!} {(k-1)! \, 1! \, (nk)!}} \ F (x) ^ {k-1} \, f (x) \, dx \, (1-F (x)) ^ {nk} \\ & = {\ frac {n!} {(K-1)! \, (Nk)!}} \ F (x) ^ { k-1} \, (1-F (x)) ^ {nk} \, f (x) \, dx. \ End {aligned}}}
W szczególności
faX(nie)(x)=niefa(x)nie-1 fa(x),{\ Displaystyle f_ {X _ {(n)}} (x) = nF (x) ^ {n-1} \ f (x),}wzór, który można znaleźć bezpośrednio, wyprowadzając wynik poniższego obliczenia:
P.(X(nie)≤x)=faX(nie)(x)=P.(max(X1,...,Xnie)≤x)=P.(każdy z nie X mist ≤x)=P.(X1≤x)...P.(Xnie≤x)=fa(x)...fa(x)=fa(x)nie{\ Displaystyle {\ rozpocząć {wyrównane} P \ lewo (X _ {(n)} \ równoważnik x \ prawej) & {} = F_ {X _ {(n)}} (x) \\ & = P \ lewo (\ max (X_ {1}, ..., X_ {n}) \ leq x \ right) \\ & = P \ left ({\ text {każdy z}} \ n \ X \ \ mathrm {est} \ \ leq x \ right) \\ & = P \ left (X_ {1} \ leq x \ right) ... P \ left (X_ {n} \ leq x \ right) \\ & = F \ left ( x \ right) ... F \ left (x \ right) \\ & = F \ left (x \ right) ^ {n} \ end {aligned}}}W przypadku ciągłego prawa jednorodnego gęstość statystyki k-tego rzędu jest gęstością prawa beta z parametrami k i n + 1- k .
Łączna gęstość wszystkich statystyk zamówień
Twierdzenie - Jeśli założymy próbka X niezależnie identycznie rozmieszczone zgodnie z prawem gęstości f , a następnie do wspólnego gęstości z n statystykach porządkowym
fa(x(1),...,x(nie)) = nie! (∏ja=1niefa(x(ja))) 11x(1)<x(2)<⋯<x(nie-1)<x(nie).{\ Displaystyle f (x _ {(1)}, \ kropki, x _ {(n)}) \ = \ n! \ \ lewo (\ prod _ {i = 1} ^ {n} f (x _ { (i)}) \ right) \ 1 \! \! 1_ {x _ {(1)} <x _ {(2)} <\ dots <x _ {(n-1)} <x _ {(n )}}.}
Demonstracja
Wystarczy pokazać, że dla dowolnej funkcji φ mierzalnej, ograniczonej i dodatniej lub zerowej,
mi[φ(X(1),X(2),...,X(nie))]= ∫Rnieφ(x(1),x(2),...,x(nie))nie! (∏ja=1niefa(x(ja))) 11x(1)<x(2)<⋯<x(nie-1)<x(nie)rex(1)...rex(nie).{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {E} \ lewo [\ varphi (X _ {(1)}, X _ {(2)}, \ kropki, X _ {(n)}) \ prawej] & = \ \ int _ {\ mathbb {R} ^ {n}} \ varphi (x _ {(1)}, x _ {(2)}, \ dots, x _ {(n)}) \, n ! \ \ left (\ prod _ {i = 1} ^ {n} f (x _ {(i)}) \ right) \ 1 \! \! 1_ {x _ {(1)} <x _ {( 2)} <\ dots <x_ {(n-1)} <x _ {(n)}} dx _ {(1)} \ dots dx _ {(n)}. \ End {aligned}}}Ale ponieważ X i są niezależne i mają gęstości , mamy:
P.(∀ja≠jot, Xja≠Xjot)=1.{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {P} \ lewo (\ forall i \ neq j, \ X_ {i} \ neq X_ {j} \ prawej) i = 1. \ koniec {wyrównane}}}Dlatego prawie na pewno
φ(X(1),X(2),...,X(nie))= ∑σ∈Snieφ(Xσ(1),Xσ(2),...,Xσ(nie)) 11Xσ(1)<Xσ(2)<⋯<Xσ(nie-1)<Xσ(nie).{\ Displaystyle {\ rozpocząć {wyrównane} \ varphi (X _ {(1)}, X _ {(2)}, \ kropki, X _ {(n)}) & = \ \ suma _ {\ sigma \ in {\ mathfrak {S}} _ {n}} \ varphi (X _ {\ sigma (1)}, X _ {\ sigma (2)}, \ dots, X _ {\ sigma (n)}) \ 1 \! \! 1_ {X _ {\ sigma (1)} <X _ {\ sigma (2)} <\ dots <X _ {\ sigma (n-1)} <X _ {\ sigma (n)} }. \ End {aligned}}}Wreszcie:
mi[φ(Xσ(1),Xσ(2),...,Xσ(nie))11Xσ(1)<Xσ(2)<⋯<Xσ(nie)]= mi[φ(X1,X2,...,Xnie)11X1<X2<⋯<Xnie]= ∫Rnieφ(x1,x2,...,xnie) (∏ja=1niefa(xja)) 11x1<x2<⋯<xnierex1...rexnie,{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {E} \ lewo [\ varphi (X _ {\ sigma (1)}, X _ {\ sigma (2)}, \ kropki, X _ {\ sigma (n) )}) \, 1 \! \! 1_ {X _ {\ sigma (1)} <X _ {\ sigma (2)} <\ dots <X _ {\ sigma (n)}} \ right] & = \ \ mathbb {E} \ left [\ varphi (X_ {1}, X_ {2}, \ dots, X_ {n}) \, 1 \! \! 1_ {X_ {1} <X_ {2} <\ kropki <X_ {n}} \ right] \\ & = \ \ int _ {\ mathbb {R} ^ {n}} \ varphi (x_ {1}, x_ {2}, \ dots, x_ {n}) \ \ left (\ prod _ {i = 1} ^ {n} f (x_ {i}) \ right) \ 1 \! \! 1_ {x_ {1} <x_ {2} <\ dots <x_ {n }} dx_ {1} \ dots dx_ {n}, \ end {aligned}}}ponieważ i mają tę samą gęstość Liniowość oczekiwania pozwala nam wnioskować.
(Xσ(1),Xσ(2),...,Xσ(nie)){\ Displaystyle (X _ {\ sigma (1)}, X _ {\ sigma (2)}, \ kropki, X _ {\ sigma (n)})}(X1,X2,...,Xnie){\ displaystyle (X_ {1}, X_ {2}, \ kropki, X_ {n})}∏ja=1niefa(xja). {\ Displaystyle \ prod _ {i = 1} ^ {n} f (x_ {i}). \}
Bibliografia
- Herbert Aron David i Haikady N. Nagaraja, Order Statistics , Wiley ,sierpień 2003, 3 e ed. , 458 str. ( ISBN 978-0-471-38926-2 )
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">