Home

dystrybucje

Dystrybucje, czyli rozkłady prawdopodobieństwa, opisują, jakie wartości może przyjąć losowa zmienna i z jakim prawdopodobieństwem. Służą one do modelowania niepewności w zjawiskach losowych i stanowią podstawę wielu metod w statystyce, analizie danych i teorii prawdopodobieństwa.

Dystrybucje dzielimy na dyskretne i ciągłe. Dystrybucje dyskretne przyjmują wartości z przeszeregowanego, skończonego lub przeliczalnego zbioru

Główne funkcje opisujące dystrybucje to funkcja masy prawdopodobieństwa (PMF) dla dystrybuji dyskretnych, funkcja gęstości prawdopodobieństwa (PDF)

Zastosowania obejmują modelowanie niepewności, szacowanie parametrów, testy statystyczne oraz symulacje. W praktyce często estymuje się rozkład

(np.
0,
1,
2,
...).
Przykłady
to
Bernoulliego
(ślepy/nieślepy
wynik
jednego
eksperymentu),
Binomialna
(liczba
sukcesów
w
ustalonej
liczbie
prób),
Geometriczna
(liczba
prób
do
pierwszego
sukcesu)
i
Poissona
(liczba
zdarzeń
w
stałym
okresie).
Dystrybucje
ciągłe
mają
wartości
na
przedziale
rzeczywistych
lub
w
jego
części,
np.
Uniform,
Normalny
(Gaussa),
Exponentialny,
Gamma,
Beta.
dla
dystrybuji
ciągłych
oraz
funkcja
dystrybuanty
(CDF),
F(x)
=
P(X
≤
x),
która
łączy
oba
przypadki.
Własności
podstawowe
obejmują
nieujemność
i
całkowite
zsumowanie
(dla
PMF)
lub
całkowitą
całkę
(dla
PDF,
która
prowadzi
do
1
w
całej
przestrzeni
wartości).
Charakterystyka
rozkładu
obejmuje
miary
takie
jak
oczekiwana
wartość
E[X],
wariancja
Var(X)
i
inne
momenty.
empiryczny
z
danych
(histogramy,
KDE)
lub
dopasowuje
parametry
teoretycznych
rodzin
dystrybucji.
Dystrybucje
są
także
podstawą
metod
inferencji
i
decyzji
w
naukach
przyrodniczych,
ekonomii
i
inżynierii.