Trochę teorii

Prawdopodobieństwo

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, szukaj
Prawdopodobieństwo – ogólne określenie wielu pojęć matematycznych, służących do - mówiąc w uproszczeniu - mierzenia szansy zajścia zdarzenia.
Wg najpopularniejszej w rachunku prawdopodobieństwa definicji Kołmogorowa prawdopodobieństwo to miara probabilistyczna, tj. funkcja P przypisująca każdemu zdarzeniu losowemu A\; pewną nieujemną liczbę rzeczywistą i mająca następujące własności:
P(A_1 \cup \dots \cup A_n \cup \dots )= P(A_1)+ \dots +P(A_n) + \dots
Wartość P(X)\; nazywa się prawdopodobieństwem zdarzenia X\;.

Spis treści

[pokaż]

Prawdopodobieństwo w ujęciu potocznym [edytuj]

Potocznie prawdopodobieństwo to pojęcie określające oczekiwania co do rezultatu danego zdarzenia, którego wyniku nie znamy (niezależnie od tego czy jest ono w jakimś sensie zdeterminowane czy też nie, ani też od tego czy miało miejsce w przeszłości czy dopiero się wydarzy). Jeśli jakieś mające nastąpić zdarzenie (np. rzut kostką), może przyjąć kilka rezultatów (liczba oczek), to jeden z rezultatów (liczba oczek większa od 1) możemy opisać jako uznawany przez nas za bardziej prawdopodobny od drugiego (liczba oczek równa 1), jeżeli na podstawie jakiejś przesłanki (np. poprzednich doświadczeń), nasze oczekiwania co do wystąpienia rezultatu A są większe niż co do wystąpienia rezultatu B.
Definicja prawdopodobieństwa w oparciu o subiektywne odczucia jest oczywiście zupełnie nieprzydatna dla celów praktycznych. Brak sformalizowanej definicji musieli szczególnie dotkliwie odczuwać pierwsi "praktycy" teorii prawdopodobieństwa, czyli nałogowi hazardziści. Jeśli rzucimy monetą 50 razy i za każdym razem wyrzucimy reszkę, nie oznacza to, iż jest bardziej prawdopodobne, że przy 51 rzucie wypadnie orzeł.

Definicja klasyczna (Laplace'a) [edytuj]

Definicje [edytuj]

Sposób liczenia prawdopodobieństwa z poprzedniego przykładu podał po raz pierwszy Pierre Simon de Laplace w roku 1812. Definicję tę nazywamy klasyczną, choć tak naprawdę jest to twierdzenie, którego dowód możemy znaleźć poniżej. Twierdzenie to brzmi:
Prawdopodobieństwem zajścia zdarzenia A nazywamy iloraz liczby zdarzeń sprzyjających zdarzeniu A do liczby wszystkich możliwych przypadków, zakładając, że wszystkie przypadki wzajemnie się wykluczają i są jednakowo możliwe.
Definicję tę można zapisać również w bardziej formalny sposób:
Oznaczmy zbiór wszystkich możliwych przypadków przez \Omega\;. Elementami zbioru \Omega\;zdarzenia elementarne \Omega\;, zaś zbiór \Omega\; to zbiór zdarzeń elementarnych. Zbiór zdarzeń sprzyjających A będzie w takim wypadku podzbiorem zbioru \Omega\colon A\subseteq \Omega\;.
Prawdopodobieństwo zajścia zdarzenia A możemy zapisać w postaci:
P(A) = {{|A|}\over{|\Omega|}}
gdzie |A|\; oznacza liczbę elementów (moc) zbioru A\;, zaś |\Omega|\; liczbę elementów (moc) zbioru \Omega\;.

Problemy definicji klasycznej [edytuj]

Definicja klasyczna pozwala obliczać prawdopodobieństwo w prostych przypadkach, jednak zawiera szereg wad: nie można jej stosować dla zbiorów nieskończonych, a przede wszystkim zawiera błąd logiczny. Zdarzenia elementarne muszą być jednakowo możliwe, co znaczy przecież to samo co jednakowo prawdopodobne. Okazuje się więc, że w definicji użyto pojęcia, które jest definiowane.
Podobne problemy dotyczą prawdopodobieństwa geometrycznego - zauważył to Joseph Louis Francois Bertrand opisując paradoks nazywany jego nazwiskiem – paradoks Bertranda.

Przykład [edytuj]

Przykład: Rzucamy sześcienną kostką. Jakie jest prawdopodobieństwo, że liczba oczek będzie większa od 5?
Odpowiedź: Zbiór zdarzeń elementarnych \Omega =\{1, 2, 3, 4, 5, 6\},\; zatem liczba możliwych zdarzeń elementarnych |\Omega|=6\;. Zbiór zdarzeń sprzyjających A = \{6\}\;, liczba zdarzeń sprzyjających |A|=1\;. Prawdopodobieństwo zajścia zdarzenia A\; wynosi:
P(A) = \frac{1}{6}

Dowód [edytuj]

Niech \Omega\; będzie zbiorem zdarzeń elementarnych, a N\; jego mocą. Znaczy to, że \Omega =\{ \omega_1 , \omega_2, \omega_3, \dots, \omega_N \}\;, gdzie \omega_i\; to zdarzenie elementarne.
Załóżmy, że wszystkie zdarzenia elementarne są jednakowo prawdopodobne (czyli P({ωi}) = P({ωj}) dla każdego i, j \in \{1, 2, 3,\dots , N\}. Oznaczmy p=P(\{{\omega}_i\})\; będące prawdopodobieństwem dowolnego zdarzenia elementarnego), wychodząc z II i III aksjomatu Kołmogorowa otrzymujemy:
1=P(\Omega)=P(\{{\omega}_1, {\omega}_2, {\omega}_3,...,{\omega}_N\})=\;
=P(\{{\omega}_1\} \cup \{{\omega}_2\} \cup \{{\omega}_3\} \cup ... \cup \{{\omega}_N\})=
=P(\{{\omega}_1\})+P(\{{\omega}_2\})+P(\{{\omega}_3\})+...P(\{{\omega}_N\})\;
=p+p+p+...+p=N \cdot p\;
Korzystając z przechodniości relacji równości mamy:
1=N \cdot p\;
Co przekształcamy w:
p=\frac{1}{N}
Niech zdarzenie A\;, którego prawdopodobieństwa poszukujemy będzie zbiorem zdarzeń elementarnych o mocy n_A\;. Dla uproszczenia przyjmijmy że są to zdarzenia o numerach od 1 do n_A\;, czyli:
A=\{{\omega}_1, {\omega}_2, {\omega}_3, ..., {\omega}_{n_A}\}
Stosując podobne przejścia jak w przypadku zbioru \Omega\; dostajemy:
P(A)=n_A \cdot p=n_A \cdot \frac{1}{N}=\frac{n_A}{N}
czyli
P(A)=\frac{n_A}{N}
co czytamy jako
Prawdopodobieństwo zdarzenia A wyraża się ilorazem mocy tego zbioru oraz mocy zbioru zdarzeń elementarnych
(co było do udowodnienia)

Prawdopodobieństwo geometryczne [edytuj]

Definicja klasyczna nie pozwala obliczać prawdopodobieństwa w przypadku, gdy zbiory A\; i \Omega\; są nieskończone, jeśli jednak zbiory te mają interpretację geometryczną, zamiast liczebności zbiorów można użyć miary geometrycznej (długość, pole powierzchni, objętość).
Przykład: z przedziału [0,4]\; wybieramy losowo punkt. Jakie jest prawdopodobieństwo, że wybrany punkt będzie należał do przedziału [1,2]\;?
Geometric probability PL example.svg
Długości przedziałów wynoszą odpowiednio: | [0,4] | = 4 i | [1,2] | = 1. Zatem prawdopodobieństwo opisanego zdarzenia wynosi:
P(A) = \frac{1}{4}

Definicja częstościowa (von Misesa) [edytuj]

Inną próbę sformułowania definicji prawdopodobieństwa podjął w 1931 roku Richard von Mises. Zaproponował, żeby zdefiniować prawdopodobieństwo jako granicę ciągu częstości:
P(A) = \lim_{n \rightarrow \infty} \frac{k_{n}(A)}{n}
gdzie k_n(A)\; to liczba rezultatów sprzyjających zdarzeniu A\; po n\; próbach.
Definicja ta nie mówi jednak nic o warunkach istnienia granicy i dlatego nie spełnia wymogów formalnych.

Przykład [edytuj]

Przypuśćmy, że ktoś zaproponował nam grę losową: "orzeł wygrywamy, reszka przegrywamy". Na pewno zanim zagramy, będziemy chcieli zbadać jakie są szanse wygranej, przeprowadzamy więc doświadczenie, polegające na wielokrotnym rzucie monetą. Rzucamy 100 razy, orzeł wypadł 48 razy, a więc w 48/100 = 0,48 wszystkich przypadków. Kontynuujemy doświadczenie, po 1000 rzutów orzeł wypadł 508 razy, czyli w 508/1000 = 0,508 wszystkich przypadków. Znaleziona przez nas wielkość to częstość wypadania orła. Gdyby powtarzać dalej to doświadczenie, stosunek ten dążyłby do wartości 0,5, będącej prawdopodobieństwem wylosowania orła według definicji von Misesa.

Aksjomatyczna definicja prawdopodobieństwa (Kołmogorowa) [edytuj]

Nową definicję prawdopodobieństwa podał w 1933 Andriej Kołmogorow, który korzystając z teorii miary zaksjomatyzował teorię prawdopodobieństwa.
Załóżmy, że \Omega\; jest zbiorem zdarzeń elementarnych \omega\;, zaś M\; jest σ-ciałem na zbiorze \Omega\;. Prawdopodobieństwem nazywamy funkcję P\colon M \to R spełniającą następujące warunki:
  1. P(A) \geqslant 0\; dla każdego A \in M\;
  2. P(\Omega) = 1\;
  3. jeśli (A_n)\; jest dowolnym ciągiem podzbiorów M\; parami rozłącznych, to:
P\left( \bigcup_{n = 1}^{\infty} A_n \right) = \sum_{n = 1}^{\infty} P(A_n)
Ta definicja przenosi się także na algebry Boole'a.
Alternatywną aksjomatyzację pojęcia prawdopodobieństwa podał Richard Threlkeld Cox.
Bezpośrednie konsekwencje definicji:
0 \leqslant P(A) \leqslant 1\;
P(\emptyset)=0\;
(odwrotna implikacja nie jest prawdziwa - P(A)=0\; nie implikuje A=\emptyset\;)
A\subseteq B\Rightarrow P(A)\leqslant P(B) (monotoniczność)
A\subseteq B\Rightarrow P(B|A)=1
P(A)+P(A^\prime)=1,\; gdzie A^\prime\; oznacza zdarzenie losowe przeciwne do A\;
P(A\cup B) = P(A) + P(B) - P(A \cap B)