Subsections

4 Náhodné vektory

Další podrobnosti o nahodných vektorech naleznete například v [14]. Zde uvedeme jen základní definice.

4.1 Popis rozložení náhodného vektoru

Nechť $X_1, \ldots ,X_n$ jsou náhodné veličiny, $\Phi_1, \ldots ,\Phi_n$ jejich distribuční funkce (resp. $\varphi_1,\ldots,\varphi_n$ hustoty pravděpodobnosti ve spojitém případě resp. $\pi_1, \ldots \pi_n$ pravděpodobnostní funkce v diskrétním případě).
Náhodný vektor je uspořádaná n-tice $X = (X_1, \ldots ,X_n)$. Jeho distribuční funkci definujeme vztahem:

\begin{displaymath}
\forall \; (x_1, \ldots ,x_n) \in R^n : \Phi (x_1, \ldots ,x_n) =
P(X_1 \leq x_1 \cap \ldots \cap X_n \leq x_n).
\end{displaymath} (17)

$\Phi(x_1, \ldots ,x_n)$ má anlogické vlastnosti jako distribuční funkce skalární náhodné veličiny: speciálně je neklesající a zprava spojitá vzhledem ke každé jednotlivé proměnné, dale
\begin{displaymath}
\lim_{x_1 \to \infty, \ldots ,x_n \to \infty } \Phi_1(x_1, \ldots ,x_n) = 1
\end{displaymath} (18)


\begin{displaymath}
\forall \; i \in (1, \ldots ,n):
\lim_{x_i \to - \infty} \Phi_1(x_1, \ldots ,x_n) = 0
\end{displaymath} (19)


\begin{displaymath}
\forall \; i \in (1, \ldots ,n):
\lim_{x_1 \to \infty, \ld...
...s , x_{n \to \infty}}
\Phi_1(x_1, \ldots ,x_n) = \Phi_i(x_i)
\end{displaymath} (20)

$\Phi_i(x_i)$ se v této souvislosti nazývá marginální distribuční funkce náhodné veličiny $X_i$ $\Phi(x_1, \ldots ,x_n)$ se nazývá simultánní distribuční funkce náhodné vekoru X.

4.2 Diskrétní náhodný vektor

Náhodný vektor $X = (X_1, \ldots ,X_n)$ se nazývá diskrétní, právě když existuje funkce $\pi (x_1, \ldots ,x_n)$, která je nulová v $R^n$ s výjimkou nejméně jednoho a nejvýše spočetně mnoha bodů, kde je kladná
(pro všechna $(x_1, \ldots ,x_n) \in R^n$: $\pi (x_1, \ldots ,x_n) \geq 0$), je normovaná
( $\sum \limits _{x_1 = - \infty}^\infty \ldots
\sum \limits _{x_n = - \infty}^\infty \pi(x_1, \ldots ,x_n) = 1 $) a platí pro ni:

\begin{displaymath}
\forall \; (x_1, \ldots ,x_n) \in R^n : \Phi (x_1, \ldots ,...
...1 \leq x_1} \ldots \sum_{t_n \leq x_n} \pi(t_1, \ldots ,t_n).
\end{displaymath} (21)

Funkce $\pi (x_1, \ldots ,x_n)$ se nazývá pravděpodobnostní funkce diskrétního náhodného vektoru $X$.
Pro pravděpodobnostní funkci dále platí:
\begin{displaymath}
\forall \; (x_1, \ldots ,x_n) \in R^n : \pi (x_1, \ldots ,x_n) =
P(X_1=x_1 \wedge \ldots \wedge X_n = x_n)
\end{displaymath} (22)


\begin{displaymath}
\forall \; i \in (1, \ldots ,n):
\sum_{x_1 \in R} \ldots \...
...
\ldots \sum_{x_n \in R} \pi(x_i, \ldots ,x_n) = \pi_i(x_i).
\end{displaymath} (23)

$\pi_i(x_i)$ se nazývá marginální pravděpodobnostní funkce náhodné veličiny $X_i$ $\pi (x_1, \ldots ,x_n)$ simultánní pravděpodobnostní funkce náhodného vektoru $X$. Pravděpodobnost, že náhodný vektor $X = (X_1, \ldots ,X_n)$ se bude realizovat v oblasti $B \subseteq R^n$, se vypočte podle vzorce
\begin{displaymath}
P(X \in B) =
\sum_{(x_1, \ldots ,x_b)} ... \sum_{\in \; B}
\pi(x_1, \ldots ,x_n).
\end{displaymath} (24)

4.3 Spojitý náhodný vektor

Náhodný vektor $X = (X_1, \ldots ,X_n)$ se nazývá spojitý, právě když existuje po částech spojitá nezáporná funkce $\varphi(x_1, \ldots x_n)$ (vlastnost S1: pro všechna $(x_1, \ldots x_n) \in R^n$: $\varphi(x_1, \ldots ,x_n) \geq 0)$, která je normovaná
(vlastnost S2: $\int \limits _{-\infty}^\infty \ldots \int \limits _{-\infty}^\infty
\varphi(t_1, \ldots ,t_n)\; dt_1 \ldots dt_n = 1)$
a platí pro ni

\begin{displaymath}
\forall \; (x_1, \ldots ,x_n) \in R^n : \Phi (x_1, \ldots ,...
...\infty}^{x_n} \varphi(t_1, \ldots ,t_n)
\; dt_1 \ldots dt_n.
\end{displaymath} (25)

Funkce $\varphi (x_1, \ldots , x_n)$ se nazývá hustota pravděpodobnosti spojitého náhodného vektoru $X$. Pro hustotu pravděpodobnosti dále platí:
\begin{displaymath}
\varphi(x_1, \ldots ,x_n) = \frac{\partial \Phi(x_1, \ldots ,x_n)}
{\partial x_1 \ldots \partial x_n}
\end{displaymath} (26)

ve všech bodech spojitosti funkce $\varphi (x_1, \ldots , x_n)$.
\begin{displaymath}
\forall \; i \in (1, \ldots ,n) :
\int\limits_{-\infty}^{\...
...\; dx_1 \ldots dx_{i-1}dx_{i+1} \ldots dx_n
=\varphi_i(x_i).
\end{displaymath} (27)

$\varphi_i(x_i)$ se nazývá marginální hustota náhodné veličiny $X_i$ $\varphi (x_1, \ldots , x_n)$ simultánní hustota náhodného vektoru $X$. Pravděpodobnost, že náhodný vektor $X =((X_1, \ldots , X_n)$ se bude ralizovat v oblasti $B \subseteq R^n$, se vypočte podle vzorce
\begin{displaymath}
P(X \in) = \int\limits _B \ldots \int\varphi(x_1, \ldots ,x_n) \;
dx_1 \ldots dx_n,
\end{displaymath} (28)

pokud integrál vpravo existuje.

Příklad: Nezávisle na sobě hodíme dvěma kostkami. Náhodná veličina $X_1$ udává počet ok, která padla na první kostce a náhodná veličina $X_2$ udává maximum z počtu ok, která padla na obou kostkách. Najděte simultánní pravděpodobnostní funkci $\pi(x_1,x_2)$ a obě marginální pravděpodobnostní funkce $\pi_1(x_1)$$\pi_2(x_2)$.

$\pi(1,1)=1/36$ $\pi(1,2)=1/36$ $\pi(1,3)=1/36$ $\pi(1,4)=1/36$ $\pi(1,5)=1/36$ $\pi(1,6)=1/36$ $\pi_1(1)=1/6$
$\pi(2,1)=0$ $\pi(2,2)=2/36$ $\pi(2,3)=1/36$ $\pi(2,4)=1/36$ $\pi(2,5)=1/36$ $\pi(2,6)=1/36$ $\pi_1(2)=1/6$
$\pi(3,1)=0$ $\pi(3,2)=0$ $\pi(3,3)=3/36$ $\pi(3,4)=1/36$ $\pi(3,5)=1/36$ $\pi(3,6)=1/36$ $\pi_1(3)=1/6$
$\pi(4,1)=0$ $\pi(4,2)=0$ $\pi(4,3)=0$ $\pi(4,4)=4/36$ $\pi(4,5)=1/36$ $\pi(4,6)=1/36$ $\pi_1(4)=1/6$
$\pi(5,1)=0$ $\pi(5,2)=0$ $\pi(5,3)=0$ $\pi(5,4)=0$ $\pi(5,5)=5/36$ $\pi(5,6)=1/36$ $\pi_1(5)=1/6$
$\pi(6,1)=0$ $\pi(6,2)=0$ $\pi(6,3)=0$ $\pi(6,4)=0$ $\pi(6,5)=0$ $\pi(6,6)=6/36$ $\pi_1(6)=1/6$
$\pi_2(1)=1/36$ $\pi_2(2)=3/36$ $\pi_2(3)=5/36$ $\pi_2(4)=7/36$ $\pi_2(5)=9/36$ $\pi_2(6)=11/36$  


Příklad Nechť je dán systém složený ze dvou bloků. Pravděpodobnost, že i-tý blok správně funguje je $\theta_i$, $0 < \theta_i < 1$ pro $i = 1, 2$ a pravděpodobnost, že správně fungují oba bloky je $\theta_{12}$, $0 < \theta_{12} < 1$. Nechť náhodná veličina $X_i$ je ukazatel fungování i-tého bloku, i=1,2. Vyjádřete pravděpodobnostní funkci $\pi(x_1,x_2)$ náhodněho vektoru $(X_1,X_2)$ a obě marginální pravděpodobnostní funkce $\pi_1(x_1)$$\pi_2(x_2)$.

$\pi(0,0)=1 - \theta_1 - \theta_2 + \theta_{12}$ $\pi(0,1) = \theta_2 - \theta_{12}$ $\pi_1(0) = 1-\theta_1$
$\pi(1,0)=1 - \theta_1 - \theta_{12}$ $\pi(1,1) = \theta_{12}$ $\pi_1(1) = \theta_1$
$\pi_2(0)=1 - \theta_2$ $\pi_2(1)= \theta_2$  

© František Šťastný, 1997