Ciągłe jednolite prawo
Mundur
|
Gęstości prawdopodobieństwa
|
|
|
Funkcja dystrybucyjna
|
|
Ustawienia
|
w,b∈ ]-∞,+∞[{\ Displaystyle a, b \ in \] \! - \ infty, + \ infty [\!}
|
---|
Wsparcie
|
w≤x≤b{\ Displaystyle a \ równoważnik x \ równoważnik b \!}
|
---|
Gęstości prawdopodobieństwa
|
1b-wdla w≤x≤b0pour x<w ou x>b{\ displaystyle {\ begin {matrix} {\ Frac {1} {ba}} i {\ mbox {for}} a \ leq x \ leq b \\\\ 0 & \ mathrm {for} \ x <a \ \ mathrm {lub} \ x> b \ end {matrix}} \!}
|
---|
Funkcja dystrybucyjna
|
0dla x<wx-wb-w dla w≤x<b1dla x≥b{\ displaystyle {\ begin {matrix} 0 & {\ mbox {for}} x <a \\ {\ frac {xa} {ba}} & ~~~~~ {\ mbox {for}} a \ leq x <b \\ 1 & {\ mbox {for}} x \ geq b \ end {matrix}} \!}
|
---|
Nadzieja
|
w+b2{\ displaystyle {\ frac {a + b} {2}}}
|
---|
Mediana
|
w+b2{\ displaystyle {\ frac {a + b} {2}}}
|
---|
Moda
|
dowolna wartość w [w,b]{\ displaystyle [a, b]}
|
---|
Zmienność
|
(b-w)212{\ Displaystyle {\ Frac {(ba) ^ {2}} {12}}}
|
---|
Asymetria
|
0{\ displaystyle 0 \!}
|
---|
Znormalizowana kurtooza
|
-65{\ Displaystyle - {\ Frac {6} {5}} \!}
|
---|
Entropia
|
ln(b-w){\ Displaystyle \ ln (ba) \!}
|
---|
Funkcja generująca momenty
|
mitb-mitwt(b-w){\ Displaystyle {\ Frac {{\ rm {e}} ^ {tb} - {\ rm {e}} ^ {ta}} {t (ba)}}}
|
---|
Charakterystyczna funkcja
|
mijatb-mijatwjat(b-w){\ Displaystyle {\ Frac {{\ rm {e}} ^ {{\ rm {i}} tb} - {\ rm {e}} ^ {{\ rm {i}} ta}} {{\ rm { i}} t (ba)}}}
|
---|
W teorii prawdopodobieństwa i statystyki , ciągłe jednolite przepisy tworzą rodzinę gęstości prawami prawdopodobieństwa charakteryzujących następującej własności: wszystkie przedziały o tej samej długości zawartej w poparcie ustawy mają taką samą szansę. Powoduje to, że gęstość prawdopodobieństw tych praw jest stała na ich podstawie.
Ciągłe prawo jednorodne jest uogólnieniem funkcji prostokąta ze względu na kształt jej funkcji gęstości prawdopodobieństwa. Jest parametryzowana przez najmniejszą i największą wartość a i b , jaką może przyjąć jednolita zmienna losowa . To ciągłe prawo jest często oznaczane przez U ( a , b ).
Charakteryzacja
Gęstość
Gęstości prawdopodobieństwa ciągłego rozkładu jednolitej jest funkcją przedziału [ , b ] :
fa(x)={1b-wdla w≤x≤b,0sjanieonie.{\ Displaystyle f (x) = {\ rozpocząć {przypadków} {\ Frac {1} {ba}} i {\ tekst {pour}} a \ równoważnik x \ równoważnik b, \\ 0 i \ mathrm {inaczej}. \ end {sprawy}}}
Funkcja dystrybucyjna
Funkcja dystrybucji jest określona przez
fa(x)={0dla x<wx-wb-wdla w≤x<b1dla x≥b{\ Displaystyle F (x) = {\ rozpocząć {przypadków} 0 i {\ tekst {za}} x <a \\ {\ dfrac {xa} {ba}} i {\ tekst {za}} a \ leq x <b \\ 1 & {\ text {for}} x \ geq b \ end {sprawy}}}
Funkcje generujące
Funkcja generująca momenty
Funkcja generująca moment jest
Mx=mi[mitx]=mitb-mitwt(b-w){\ Displaystyle M_ {x} = \ mathbb {E} [{\ rm {e}} ^ {tx}] = {\ Frac {{{\ rm {e}} ^ {tb} - {\ rm {e} } ^ {ta}} {t (ba)}}}co pozwala obliczyć wszystkie niecentrowane momenty , m k :
m1=w+b2,{\ displaystyle m_ {1} = {\ frac {a + b} {2}},}m2=w2+wb+b23,{\ Displaystyle m_ {2} = {\ Frac {a ^ {2} + ab + b ^ {2}} {3}},}mk=1k+1∑ja=0kwjabk-ja.{\ Displaystyle m_ {k} = {\ Frac {1} {k + 1}} \ sum _ {i = 0} ^ {k} a ^ {i} b ^ {ki}.}Tak więc, dla losowej zmiennej następującej tego prawa nadzieję następnie m +1 = ( + B ) / 2, a wariancja wynosi
m 2 - m 1 2 = ( b - ) 2 /12.
Funkcja generująca kumulantów
Dla n ≥ 2, n- ta kumulacja prawa jednorodności w przedziale [0, 1] to b n / n , gdzie b n jest n- tą liczbą Bernoulliego .
Nieruchomości
Statystyki zamówień
Niech X 1 , ..., X n będzie próbką iid wynikającą z prawa U ( 0,1 ). Niech X ( k ) będzie k- th statystyka zamówienie próbki. Zatem rozkład X ( k ) jest rozkładem beta parametrów k i n - k + 1. Oczekiwanie jest
mi[X(k)]=knie+1.{\ Displaystyle \ mathbb {E} [X _ {(k)}] = {k \ ponad n + 1}.}Ten fakt jest przydatny podczas konstruowania linii Henry'ego .
Różnice są
Var(X(k))=k(nie-k+1)(nie+1)2(nie+2).{\ displaystyle \ operatorname {Var} (X _ {(k)}) = {k (n-k + 1) \ ponad (n + 1) ^ {2} (n + 2)}.}
Jednolity wygląd
Prawdopodobieństwo, że zmienna jednolita mieści się w danym przedziale jest niezależne od położenia tego przedziału, ale zależy tylko od jego długości, pod warunkiem, że przedział ten jest uwzględniony w poparciu prawa. Tak więc, jeśli X ≈ U ( a , b ) i [ x , x + d ] jest podprzedziałem [ a , b ], z ustalonym d > 0, to
P.(X∈[x,x+re])=∫xx+rereyb-w=reb-w{\ Displaystyle \ mathbb {P} \ lewo (X \ in \ lewo [x, x + d \ prawej] \ prawej) = \ int _ {x} ^ {x + d} {\ Frac {\ mathrm {d} y} {ba}} \, = {\ frac {d} {ba}} \, \!}który jest niezależny od x . Fakt ten motywuje denominację tego prawa.
Standardowe prawo jednolite
Szczególny przypadek = 0 i b = 1 daje podstawę do standardowego prawie jednolity , również zauważyć U (0, 1). Zwróć uwagę na następujący fakt: jeśli u 1 jest rozkładane według standardowego rozkładu jednorodnego, to jest tak również w przypadku u 2 = 1 - u 1 .
Jednolite prawo na planie A
W każdej części A w Borel The środek Lebesgue'a λ ( ) jest skończona i ściśle dodatni, kojarzy rozkład prawdopodobieństwa, zwany jednolite prawo o gęstości prawdopodobieństwa funkcji ƒ zdefiniowane dla poprzez:
Rre,{\ displaystyle \ mathbb {R} ^ {d},} x∈Rre,{\ Displaystyle x \ in \ mathbb {R} ^ {d},}
fa(x) = 1λ(W) χW(x),{\ Displaystyle f (x) \ = \ {\ Frac {1} {\ lambda (A)}} \ \ chi _ {A} (x),}gdzie χ jest funkcją wskaźnik z zespołu A . Gęstość ƒ wynosi zero poza lecz równa stałej 1 / λ ( A ) o A .
Szczególnym przypadkiem omawianym głównie na tej stronie jest przypadek, w którym d = 1 i gdzie A jest przedziałem [ a , b ] zR.{\ displaystyle \ mathbb {R}.}
Transport i niezmienność
Warunek wystarczający - ustawa losowej zmiennej Y = T ( X ) , obrazu, przez transformację T , o jednolity zmiennej X na części A w jeszcze prawo jednolita na T ( A ) , gdy T jest, na zestaw pomijalne blisko, injective i różniczkowalna, a jeśli, prawie wszędzie na a , wartość bezwzględna jakobian z T jest stała.
Rre,{\ displaystyle \ mathbb {R} ^ {d},}
Przykłady przekształceń uwzględniających jednolitość:
- Jeśli T jest afiniczne i bijektywne, Y podlega jednorodnemu prawu względem T ( A ) .
- W szczególności, gdy T jest izometrycznym z pozostawiając A nienaruszalną, Y ma takie samo jak rozmieszczenie X .Rre{\ displaystyle \ mathbb {R} ^ {d}}
- Na przykład, izometria z liści niezmiennicze jednolitej ustawy o kuli jednostkowej w środku pochodzenia, pod warunkiem pozostawienia niezmiennik pochodzenia.Rre{\ displaystyle \ mathbb {R} ^ {d}}
- Inny przykład izometrii: jeśli U jest jednorodne na [0, 1], 1 - U również jest.
- Jeśli jest ułamkowej części z X , a nie za pomocą wstrzyknięć czy różniczkowalną na wszystkich [0, 1], ale spełniają hipotezę, jak podano powyżej, T ([0, 1 [) = [0, 1 [ . W związku z powyższym, a nawet pełnić funkcję U . Opuszczając nieco ramkę tej strony i odnotowując M ( x ) punkt koła trygonometrycznego , w którym znajduje się afiks, można zobaczyć M ( U ) jako punkt narysowany losowo równomiernie na okręgu trygonometrycznym. Punkty i są następnie otrzymywane przez obrót kąta 2π a (odpowiednio przez symetrię względem prostej o kącie kierunkowym π a ), które są izometriami pozostawiającymi niezmienny okrąg jednostkowy . Dlatego nie jest zaskakujące, że punkty te nadal są zgodne z jednolitym prawem na okręgu jednostkowym . To przekłada się na bardzo szczególną właściwość prawa jednolity: jest miarą Haar z{x}{\ displaystyle \ {x \}}T+,w(x)={w+x}{\ Displaystyle T _ {+, a} (x) = \ {a + x \}}T-,w(x)={w-x}{\ Displaystyle T _ {-, a} (x) = \ {topór \}}{w+U}{\ displaystyle \ {a + U \}}{w-U}{\ displaystyle \ {aU \}} mi2jaπx,{\ Displaystyle {\ rm {e}} ^ {2 {\ rm {i}} \ pi x},}M({w+U}){\ Displaystyle M (\ {a + U \})}M({w-U}){\ Displaystyle M (\ {aU \})}R∖Z.{\ Displaystyle \ mathbb {R} \ ukośnik odwrotny \ mathbb {Z}.}
Konsekwencja - jeśli sekwencja jest sekwencją niezależnych i jednakowych zmiennych losowych w ciągu [0, 1], a następnie sekwencja jest sekwencją niezależnych i jednakowych zmiennych losowych w ciągu [0, 1] .
V=(V1,V2,...,Vnie){\ Displaystyle V = (V_ {1}, V_ {2}, \ kropki, V_ {n})}Uk={V1+V2+⋯+Vk},{\ Displaystyle U_ {k} = \ {V_ {1} + V_ {2} + \ kropki + V_ {k} \},}U=(U1,U2,...,Unie){\ Displaystyle U = (U_ {1}, U_ {2}, \ kropki, U_ {n})}
Demonstracja
Warunkowe prawo wiedzy, że jest to prawo, które jest prawem jednolitym dla [0, 1], jak widzieliśmy przed chwilą kilka wierszy powyżej. Więc warunkowe prawo wiedzy, że absolutnie nie zależy od To ma dwie konsekwencje:
Uk,{\ Displaystyle U_ {k},}(V1,V2,...,Vk-1)=(w1,w2,...,wk-1),{\ Displaystyle (V_ {1}, V_ {2}, \ kropki, V_ {k-1}) = (a_ {1}, a_ {2}, \ kropki, a_ {k-1}),}{w1+w2+⋯+wk-1+Vk},{\ Displaystyle \ {a_ {1} + a_ {2} + \ kropki + a_ {k-1} + V_ {k} \},}Uk{\ displaystyle U_ {k}}(V1,V2,...,Vk-1)=(w1,w2,...,wk-1){\ Displaystyle (V_ {1}, V_ {2}, \ kropki, V_ {k-1}) = (a_ {1}, a_ {2}, \ kropki, a_ {k-1})}(w1,w2,...,wk-1).{\ Displaystyle (a_ {1}, a_ {2}, \ kropki, a_ {k-1}).}
-
Uk{\ displaystyle U_ {k}} przestrzega jednolitej ustawy o [0, 1];
-
Uk{\ displaystyle U_ {k}}jest niezależna od plemienia wygenerowanego przez i a fortiori od plemienia utworzonego od tego czasu(V1,V2,...,Vk-1){\ displaystyle (V_ {1}, V_ {2}, \ kropki, V_ {k-1})}(U1,U2,...,Uk-1),{\ Displaystyle (U_ {1}, U_ {2}, \ kropki, U_ {k-1}),}σ(V1,V2,...,Vk-1) ⊃ σ(U1,U2,...,Uk-1).{\ Displaystyle \ sigma (V_ {1}, V_ {2}, \ kropki, V_ {k-1}) \ \ supset \ \ sigma (U_ {1}, U_ {2}, \ kropki, U_ {k- 1}).}
To wystarczy, aby podsumować.
To może wydawać się zaskakujące, że zmienne i na przykład, są niezależne, gdy oboje są uzależnione przede wszystkim od zmiennych i ta szczególna konsekwencją własności niezmienności prawa jednolity: na przykład, będąc środkiem de Haar z nim jest idempotent dla splot .
{V1+V2}{\ displaystyle \ {V_ {1} + V_ {2} \}}{V1+V2+V3},{\ Displaystyle \ {V_ {1} + V_ {2} + V_ {3} \},}V1{\ displaystyle V_ {1}}V2.{\ Displaystyle V_ {2}.}R∖Z,{\ Displaystyle \ mathbb {R} \ ukośnik odwrotny \ mathbb {Z},}
Powiązane dystrybucje
Poniższe twierdzenie stwierdza, że wszystkie rozkłady są powiązane z jednolitym prawem:
Twierdzenie odwrotności - Dla zmiennej losowej o funkcji rozkładu F oznaczymy przez G jej odwrotność uogólnioną , zdefiniowaną przez:
ω∈]0,1[,{\ Displaystyle \ omega \ in] 0,1 [,}
sol(ω)=inf{x∈R | fa(x)≥ω}.{\ Displaystyle G (\ omega) = \ inf \ lewo \ {x \ w \ mathbb {R} \ | \ F (x) \ geq \ omega \ prawej \}.}
Jeśli oznacza jednolitą rzeczywistą zmienną losową przez [0, 1], to ma funkcję rozkładuU{\ displaystyle U}X=sol(U){\ Displaystyle X = G (U)}fa.{\ displaystyle F.}
Krótko mówiąc, aby uzyskać (niezależne) remisy według prawa charakteryzowanego przez F , wystarczy odwrócić tę funkcję i zastosować ją do losowań jednolitych (niezależnych).
Oto kilka przykładów tego prawa:
-
Y = –ln ( U ) / λ jest rozkładane zgodnie z prawem wykładniczym z parametrem λ;
-
Y = 1 - U 1 / n rozkłada się zgodnie z prawem beta parametrów 1 i n . Oznacza to zatem, że standardowe jednolite prawo jest szczególnym przypadkiem prawa beta, z parametrami 1 i 1.
Bardziej kompletną tabelę można znaleźć tutaj . Co więcej, sztuka generowania zmiennych losowych arbitralnych praw, na przykład przy użyciu zmiennych jednorodnych, została rozwinięta w Non-Uniform Random Variate Generation autorstwa Luca Devroye'a , opublikowanym przez Springer, dostępnym w sieci.
Aplikacje
W statystyce , gdy wartość p ( wartość p ) jest używana w statystycznej procedurze testowej dla prostej hipotezy zerowej , a test rozkładu jest ciągły, wówczas wartość p jest rozkładana równomiernie zgodnie z rozkładem jednorodnym na [ 0, 1] jeśli zachodzi hipoteza zerowa.
Zdobądź jednolite osiągnięcia prawne
Większość języków programowania udostępnia generator liczb pseudolosowych, którego dystrybucja jest w rzeczywistości standardowym, jednolitym prawem.
Jeśli u wynosi U (0, 1), to v = a + ( b - a ) u jest zgodne z prawem U ( a , b ).
Uzyskuj realizacje dowolnego prawa ciągłego
Zgodnie z cytowanym powyżej twierdzeniem, prawo jednorodności teoretycznie umożliwia uzyskanie ciągów z dowolnego prawa gęstości ciągłej. Wystarczy do tego odwrócić funkcję dystrybucji tego prawa i zastosować je do rysunków standardowego prawa jednolitego. Niestety w wielu praktycznych przypadkach nie mamy analitycznego wyrażenia dla funkcji rozkładu; można wtedy zastosować inwersję numeryczną (kosztowną w obliczeniach) lub metody konkurencyjne, jak np . metoda odrzucenia .
Najważniejszym przykładem niepowodzenia metody transformacji odwrotnej jest prawo normalne . Jednak metoda Boxa-Mullera zapewnia wygodną metodę dokładnego przekształcania jednorodnej próbki w normalną próbkę.
Matematycy tacy jak Luc Devroye czy Richard P. Stanley spopularyzowali stosowanie jednolitego prawa [0, 1] do badania losowych permutacji (na przykład rozmiary cykli , liczby Eulera , analiza algorytmów sortowania, takich jak sortowanie szybkie ).
Konstrukcja równomiernej permutacji losowej przy użyciu próbki o równomiernym rozkładzie
Niech będzie ciągiem jednolitych zmiennych losowych iid na [0, 1], zdefiniowanych w przestrzeni probabilizowanej (na przykład zdefiniowanej na obdarzonym jej plemieniem Borelian i jego miarą Lebesgue'a , przez lub, w równoważny sposób, przez For all integer k między 1 a n , niech
U=(U1,U2,...,Unie){\ Displaystyle U = (U_ {1}, U_ {2}, \ kropki, U_ {n})}(Ω,W,P.){\ Displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}Ω=[0,1]nie{\ Displaystyle \ Omega = [0,1] ^ {n}}Uk(ω1,ω2,...,ωnie) = ωk,{\ Displaystyle U_ {k} (\ omega _ {1}, \ omega _ {2}, \ kropki, \ omega _ {n}) \ = \ \ omega _ {k},}U(ω)=ω.{\ Displaystyle U (\ omega) = \ omega.}
σ(k,ω) = VSwrre{ja tmils qumi 1≤ja≤nie, mit tmils qumi Uja(ω)≤Uk(ω)}.{\ Displaystyle \ sigma (k, \ omega) \ = \ \ mathrm {karta} \ lewo \ {i \ \ mathrm {takie ~ as} \ 1 \ równoważnik i \ równoważnik n, \ \ mathrm {i ~ takie ~ to } \ U_ {i} (\ omega) \ leq U_ {k} (\ omega) \ right \}.}
Tak więc, jest interpretowany jako rangi z próby, gdy jest on umieszczony w porządku rosnącym.
σ(k,ω){\ Displaystyle \ sigma (k \ omega)}Uk(ω){\ Displaystyle U_ {k} (\ omega)}
Propozycja - mapa jest jednolitą, losową permutacją.
k↦σ(k,ω){\ Displaystyle k \ mapsto \ sigma (k \ omega)}
Demonstracja
Dla stałej permutacji τ oznaczamy
Wτ= {x∈Rnie∣xτ(1)<xτ(2)<⋯<xτ(nie)},{\ Displaystyle A _ {\ tau} = \ \ lewo \ {x \ in \ mathbb {R} ^ {n} \ mid x _ {\ tau (1)} <x _ {\ tau (2)} <\ kropki <x_ {\ tau (n)} \ right \},}
i pozować
τ.x= (xτ(1),xτ(2),...,xτ(nie)).{\ Displaystyle \ tau. x = \ (x _ {\ tau (1)}, x _ {\ tau (2)}, \ kropki, x _ {\ tau (n)}).}
Więc
{x∈Wτ} ⇔ {τ.x∈Wjare}.{\ displaystyle \ {x \ in A _ {\ tau} \} \ \ Leftrightarrow \ \ {\ tau .x \ in A _ {\ mathrm {Id}} \}.}
Co więcej, oczywiście, jeśli wtedy
U(ω)∈Wτ,{\ Displaystyle U (\ omega) \ w A _ {\ tau},}
{∀k tmil qumi 1≤k≤nie,σ(τ(k),ω) = k} ou minievsormi {σ(.,ω)=τ-1}.{\ Displaystyle \ lewo \ {\ forall k \ \ mathrm {takie ~ que} \ 1 \ równoważnik k \ równoważnik n \ quad \ sigma (\ tau (k), \ omega) \ = \ k \ prawo \} \ \ mathrm {lub ~ ponownie} \ \ {\ sigma (., \ omega) = \ tau ^ {- 1} \}.}
Tak jak
⋃τ∈SnieWτ = {x∈Rnie|lmis xja soniet tous rejafafami´rminiets},{\ Displaystyle \ bigcup _ {\ tau \ in {\ mathfrak {S}} _ {n}} A _ {\ tau} \ = \ \ lewo \ {x \ in \ mathbb {R} ^ {n} \, | \, \ mathrm {the} \ x_ {i} \ \ mathrm {are ~ all ~ diff {\ sharp {e}} rents} \ right \},}
wynika, że
b=Ω∖(⋃τ∈SnieWτ) = ⋃1≤ja<jot≤nie{x∈Rnie|xja=xjot}.{\ Displaystyle B = \ Omega \ ukośnik odwrotny \ lewo (\ bigcup _ {\ tau \ in {\ mathfrak {S}} _ {n}} A _ {\ tau} \ prawej) \ = \ \ bigcup _ {1 \ leq i <j \ leq n} \ left \ {x \ in \ mathbb {R} ^ {n} \, | \, x_ {i} = x_ {j} \ right \}.}
Jeśli istnieje para i < j as iw konsekwencji Zatem σ (., Ω ) nie jest permutacją. Wreszcie, ponieważ B i zbiory typów tworzą jego podział , wynika z tego, że dla dowolnej permutacji τ ,
U(ω)∈b,{\ Displaystyle U (\ omega) \ w B,}Uja(ω)=Ujot(ω),{\ Displaystyle U_ {i} (\ omega) = U_ {j} (\ omega),}σ(ja,ω)=σ(jot,ω).{\ Displaystyle \ sigma (i, \ omega) = \ sigma (j, \ omega).}Wρ{\ displaystyle A _ {\ rho}}Rnie,{\ displaystyle \ mathbb {R} ^ {n},}
{U(ω)∉Wτ} ⇒ {σ(.,ω)≠τ-1},{\ Displaystyle \ lewo \ {U (\ omega) \ notin A _ {\ tau} \ prawej \} \ \ Rightarrow \ \ {\ sigma (., \ omega) \ neq \ tau ^ {- 1} \}, }
w konsekwencji
P.(U∈Wτ) = P.(σ=τ-1).{\ Displaystyle \ mathbb {P} \ lewo (U \ w A _ {\ tau} \ prawej) \ = \ \ mathbb {P} \ lewo (\ sigma = \ tau ^ {- 1} \ po prawej).}
Ponieważ składowe wektora losowego są niezależnymi zmiennymi losowymi o gęstości odpowiednich oznaczonych gęstości, wiemy, że sam wektor losowy U ma gęstość f , określoną przez
U=(U1,U2,...,Unie){\ Displaystyle U = (U_ {1}, U_ {2}, \ kropki, U_ {n})} faja,1≤ja≤nie,{\ displaystyle f_ {i}, \ quad 1 \ równoważnik i \ równoważnik n,}
fa(x)=∏ja=1niefaja(xja).{\ Displaystyle f (x) = \ prod _ {i = 1} ^ {n} f_ {i} (x_ {i}).}
Podobnie, gęstość prawdopodobieństwa losowego wektora τ.U wynosi g , zdefiniowana przez:
sol(x)=∏ja=1niefaτ(ja)(xja).{\ Displaystyle g (x) = \ prod _ {i = 1} ^ {n} f _ {\ tau (i)} (x_ {i}).}
W przypadku, jak tutaj, gdzie składowe losowego wektora są iid, możemy wybrać gęstości prawdopodobieństw, które są równe. Zatem gęstości f i g losowych wektorów U i τ U są równe: losowe wektory U i τ U mają zatem to samo prawo. Dlatego dla dowolnej permutacji τ ,
faja{\ displaystyle f_ {i}}
P.(U∈Wjare) = P.(τ.U∈Wjare) = P.(U∈Wτ) = P.(σ=τ-1).{\ Displaystyle \ mathbb {P} \ lewo (U \ w A _ {\ mathrm {Id}} \ prawej) \ = \ \ mathbb {P} \ lewo (\ tau. U \ in A _ {\ mathrm {Id }} \ right) \ = \ \ mathbb {P} \ left (U \ in A _ {\ tau} \ right) \ = \ \ mathbb {P} \ left (\ sigma = \ tau ^ {- 1} \ po prawej).}
Inaczej,
P.(U∈b) = P.(∃ja<jot tmils qumi Uja=Ujot) ≤ ∑1≤ja<jot≤nieP.(Uja=Ujot) = 0.{\ Displaystyle \ mathbb {P} \ lewo (U \ w B \ prawej) \ = \ \ mathbb {P} \ lewo (\ istnieje i <j \ \ mathrm {takie ~ to} \ U_ {i} = U_ { j} \ po prawej) \ \ leq \ \ sum _ {1 \ leq i <j \ leq n} \ mathbb {P} \ left (U_ {i} = U_ {j} \ right) \ = \ 0.}
Rzeczywiście, hiperpłaszczyzna ma zerową miarę Lebesgue'a , a prawo prawdopodobieństwa U ma gęstość, a zatem jest absolutnie ciągłe w odniesieniu do miary Lebesgue'a, dlatego
{xja=xjot}{\ displaystyle \ {x_ {i} = x_ {j} \}}
{λ({xja=xjot})=0} ⇒ {0=P.U({xja=xjot})(=P.(Uja=Ujot))}.{\ Displaystyle \ lewo \ {\ lambda (\ {x_ {i} = x_ {j} \}) = 0 \ prawo \} \ \ Rightarrow \ \ lewo \ {0 = \ mathbb {P} _ {U} ( \ {x_ {i} = x_ {j} \}) (= \ mathbb {P} \ left (U_ {i} = U_ {j} \ right)) \ right \}.}
Wreszcie
nie!P.(σ=τ)=nie!P.(U∈Wτ-1) = nie!P.(U∈Wjare)=∑ρ∈SnieP.(U∈Wρ)=P.(U∈b)+∑ρ∈SnieP.(U∈Wρ)=1,{\ Displaystyle {\ rozpocząć {wyrównane} n! \, \ mathbb {P} \ lewo (\ sigma = \ tau \ prawej) & = n! \ \ mathbb {P} \ lewo (U \ in A _ {\ tau ^ {- 1}} \ right) \ = \ n! \, \ Mathbb {P} \ left (U \ in A _ {\ mathrm {Id}} \ right) \\ & = \ sum _ {\ rho \ in {\ mathfrak {S}} _ {n}} \ mathbb {P} \ left (U \ in A _ {\ rho} \ right) \\ & = \ mathbb {P} \ left (U \ in B \ right) + \ sum _ {\ rho \ in {\ mathfrak {S}} _ {n}} \ mathbb {P} \ left (U \ in A _ {\ rho} \ right) \\ & = 1, \ end {aligned}}}
gdzie ostatnia równość wykorzystuje fakt, że B i zbiory tworzą partycję Wρ{\ displaystyle A _ {\ rho}}Rnie.{\ Displaystyle \ mathbb {R} ^ {n}.}
Powyższe twierdzenie pozostaje prawdziwe, jeśli rozkład prawdopodobieństwa wspólny dla zmiennych ma gęstość , cokolwiek to jest, a nie tylko dla gęstości jednorodnej. Możemy nawet zadowolić się zmiennymi iid, których prawo jest rozproszone (bez atomów) modulo niewielką modyfikację dowodu. Jednak jednolite prawo jest szczególnie wygodne w różnych zastosowaniach.
Uja{\ displaystyle U_ {i}}
Liczba zejść w losowej permutacji i liczby Eulera
Niech będzie liczbą zejść permutacji losowo narysowanych równomiernie w
Oczywiście,
Xnie(ω){\ Displaystyle X_ {n} (\ omega)}σ(ω){\ Displaystyle \ sigma (\ omega)}Snie.{\ Displaystyle {\ mathfrak {S}} _ {n}.}
P.(Xnie=k)=nieombrmi remi vsws fawvorwblmisnieombrmi remi vsws possjablmis=W(nie,k)nie!,{\ Displaystyle {\ rozpocząć {wyrównane} \ mathbb {P} \ lewo (X_ {n} = k \ prawo) & = {\ Frac {\ mathrm {numer ~ ~ korzystnych ~ przypadków}} {\ mathrm {numer ~ z ~ możliwych ~ przypadków}}} \\ & = {\ frac {A (n, k)} {n!}}, \ end {aligned}}}
gdzie A ( n , k ) oznacza liczbę permutacji posiadania dokładnie k zejść. A ( n , k ) nazywa się liczbą Eulera . Pozujmy
Snie{\ displaystyle {\ mathfrak {S}} _ {n}}
Snie=U1+U2+⋯+Unie.{\ Displaystyle S_ {n} = U_ {1} + U_ {2} + \ kropki + U_ {n}.}
Mamy wtedy
Twierdzenie (S. Tanny, 1973) - Równoważnie,
P.(Xnie=k) = P.(⌊Snie⌋=k) = P.(k≤Snie<k+1),{\ Displaystyle \ mathbb {P} \ lewo (X_ {n} = k \ prawej) \ = \ \ mathbb {P} \ lewo (\ lfloor S_ {n} \ rfloor = k \ prawej) \ = \ \ mathbb { P} \ left (k \ leq S_ {n} <k + 1 \ right),}
lub
W(nie,k) = nie! P.(k≤Snie<k+1).{\ Displaystyle A (n, k) \ = \ n! \ \ mathbb {P} \ lewo (k \ równoważnik S_ {n} <k + 1 \ prawo).}
Demonstracja
Zakładamy, że ciąg skonstruowany przy użyciu sekwencji niezależnych i jednakowych zmiennych losowych na [0, 1], poprzez relację Wiemy wtedy, dzięki rozważaniom niezmienności ( patrz wyżej ), że ciąg składa się z niezależnych i jednorodnych zmiennych losowych na [0, 1] , 1]. Następnie konstruujemy jednolitą permutację losową σ (., Ω ) używając sekwencji U , jak wskazano w powyższej sekcji : istnieje zejście do rzędu i dla σ (., Ω ), jeśli σ ( i , ω )> σ ( i + 1, ω ), lub w równoważny sposób, w razie równoległe wyciąganych na trygonometrycznych koła punkty o o afiksów jeden Dokonuje się na wycieczkę do okręgu jednostkowego, polegający na przechodzenie przez punkty czym następnie ..., a następnie na tym, że kolejność, zawsze obracając przeciwnie do ruchu wskazówek zegara i zaczynając od punktu A z afiksem 1 (ze współrzędnymi kartezjańskimi (0, 1)). Wtedy całkowita długość tak przebytej ścieżki jest
U=(U1,U2,...,Unie){\ Displaystyle U = (U_ {1}, U_ {2}, \ kropki, U_ {n})}V=(V1,V2,...,Vnie){\ Displaystyle V = (V_ {1}, V_ {2}, \ kropki, V_ {n})}Uk={V1+V2+⋯+Vk}.{\ Displaystyle U_ {k} = \ {V_ {1} + V_ {2} + \ kropki + V_ {k} \}.}U=(U1,U2,...,Unie){\ Displaystyle U = (U_ {1}, U_ {2}, \ kropki, U_ {n})}Uja(ω)>Uja+1(ω).{\ Displaystyle U_ {i} (\ omega)> U_ {i + 1} (\ omega).}Mk(ω){\ Displaystyle M_ {k} (\ omega)} mi2jaπUk(ω).{\ Displaystyle {\ rm {e}} ^ {2 {\ rm {i}} \ pi U_ {k} (\ omega)}.}M1(ω),{\ Displaystyle M_ {1} (\ omega),}M2(ω),{\ Displaystyle M_ {2} (\ omega),}Mnie(ω),{\ Displaystyle M_ {n} (\ omega),}
2π (V1+V2+⋯+Vnie).{\ Displaystyle 2 \ pi \ \ lewo (V_ {1} + V_ {2} + \ kropki + V_ {n} \ po prawej).}
Co więcej, nie w dół do rangi í dla Ď (., Ω ) wtedy i tylko wtedy, gdy krok od powyższej podróży z punktu opracowanego przez A . Czyli liczba zjazdów σ (., Ω ) to liczba przejść przez punkt A , która jest jednocześnie liczbą pełnych obrotów koła jednostkowego wykonanych podczas podróży z punktu A do punktu A Wobec obliczeń dających całkowitą długość przebytą ścieżkę, patrz wyżej, liczba pełnych zakrętów jest również zapisana:
Mja(ω){\ Displaystyle M_ {i} (\ omega)}Mja+1(ω){\ Displaystyle M_ {i + 1} (\ omega)}Mnie(ω).{\ Displaystyle M_ {n} (\ omega).}
⌊V1(ω)+V2(ω)+⋯+Vnie(ω)⌋.{\ Displaystyle \ lewo \ lfloor V_ {1} (\ omega) + V_ {2} (\ omega) + \ kropki + V_ {n} (\ omega) \ prawo \ rfloor.}
Zatem liczba zstępów σ (., Ω ) jest równa Liczba zstępów σ ma zatem to samo prawo co⌊V1(ω)+V2(ω)+⋯+Vnie(ω)⌋.{\ Displaystyle \ lewo \ lfloor V_ {1} (\ omega) + V_ {2} (\ omega) + \ kropki + V_ {n} (\ omega) \ prawo \ rfloor.}⌊Snie⌋.{\ Displaystyle \ lewo \ lfloor S_ {n} \ prawo \ rfloor.}
Z tego natychmiast wynika centralne twierdzenie graniczne dla twierdzenia przez Słuckiego .
Xnie,{\ displaystyle X_ {n},}
Uwagi i odniesienia
-
Zobacz szczegółowy artykuł tutaj .
-
Wersja pdf (bezpłatna i autoryzowana) (en) Luc Devroye , Non-Uniform Random Variate Generation , New York, Springer-Verlag,1986, 1 st ed. ( czytaj online ) jest dostępny, a także humorystyczna relacja z kłótni Luca Devroye'a z jego redaktorem.
-
Dokładniej, metoda wymaga dwóch niezależnych losowań U (0, 1), aby zapewnić dwa niezależne normalne losowania.
-
patrz (w) S. Tanny , „ Probabilistyczna interpretacja liczb Eulera ” , Duke Math. J. , tom. 40,1973, s. 717-722lub (en) RP Stanley , » Eulerian partitions of a unit hypercube « , Higher Combinatorics , Dordrecht, M. Aigner, red., Reidel,1977.
Powiązane artykuły