Variabili casuali

Schema riassuntivo dei modelli di variabile casuale #

Modelli di variabili discrete #

\[p(a):= \text{probabilità che la variabile casuale assuma il valore } a\]

Funzione di ripartizione di probabilità #

\[F(b)=\displaystyle\sum_{a=-\infty}^{b}p(a)\]

Valore medio #

\[E[X] = \displaystyle\sum_{k=1}^{n} x_k \cdot p(x_k) \quad X \in \{x_1, x_2, \dots, x_n\}\]

Bernoulli #

\(\begin{aligned} X \sim Be(p), \qquad &p:= \text{rappresenta la probabilità che si verifichi l'evento} \\ &\quad p \in (0,1) \\ &q := 1-p \\ \\ &X = \begin{cases} 1 & \text{se l'evento si verifica} \\ 0 & \text{se l'evento non si verifica} \end{cases} \end{aligned}\)

Funzione di massa di probabilità #

\(p(a) = \begin{cases} p & \text{se } a=1 \\ 1-p & \text{se } a=0 \end{cases}\)

Funzione di ripartizione di probabilità #

\(F(b) = \begin{cases} 0 & \text{se } b<0 \\ p & \text{se } 0 \le b < 1 \\ 1 & \text{se } b \ge 1 \end{cases}\)

Valore medio #

\(E[X] = p\)

Varianza #

\(Var(X) = p \cdot q\)

Funzione generatrice dei momenti #

\(\phi(t) = q + pe^{t}\)

Binomiale #

\[\begin{aligned} X \sim B(n,p) \qquad &n:= \text{numero di volte che è stato ripetuto un esperimento} \\ &p:= \text{probabilità che l'evento si verifichi} \end{aligned}\] \(X= \displaystyle\sum^n _{j=1}Y_j \quad \text{con} \ Y_1 ,..., Y_n \sim Be(p) \text{ indipendenti}\)

\(X \in \{0,1,...,n\} :=\) numero di prove in cui si verifica l’evento

Funzione di massa di probabilità #

\(p(k) = \displaystyle \binom{n}{k}p^k(1-p)^{n-k}\)

Valore medio #

\(E[X] = np\)

Varianza #

\(Var(X) = npq\)

Funzione generatrice dei momenti #

\(\phi(t) = (q + pe^{t})^n\)

Riproducibilità della binomiale #

\[\left.\begin{aligned} X \sim B(n,p)\\ Y \sim B(m,p) \end{aligned}\right\} \text{indipendenti} \Rightarrow X+Y \sim B(n+m,p)\]

Variabile casuale binomiale negativa #

Si ripete un esperimento in maniera i.i.d fino ad osservare l’evento A \(k\) volte, dove \(r \in \mathbb{N}^+\) .

\[\begin{aligned} &X \sim NB(r,p) \qquad \text{con} \ p \in (0,1) \\ &X \in \{r,r+1,...,+\infty\} \end{aligned}\]

Funzione di massa di probabilità #

\[ p(k)=\binom{k-1}{r-1} p^r \cdot (1-p)^{k-r}\]

Posso definire la binomiale negativa come una somma di geometriche, ovvero sia

\[ X \sim NB(r,p) \qquad \text{con} \ p \in (0,1)\]

allora

\[ X = \sum_{j=1}^{r} Y_j \quad \text{con} \ Y_j \sim G(p) \text{ indipendenti}\]

Valor Medio #

\[E[X] = \displaystyle \frac{r}{p}\]

Varianza #

\[Var(X) = \displaystyle \frac{rq}{p^2}\]

Poisson #

\[X \sim Po(\lambda ) \qquad \text{con} \ \lambda \in \mathbb{R}^+\]

Una variabile casuale di Poisson rappresenta il numero di eventi che si osservano in un intervallo temporale/spaziale a patto che il singolo evento abbia una bassa probabilità di verificarsi

Funzione di massa di probabilità #

\(p(k) = \displaystyle \frac{\lambda^k}{k!}e^{-\lambda}\)

Valore medio #

\(E[X] = \lambda\)

Momento secondo #

\(E[X^2] = \lambda + \lambda^2\)

Varianza #

\(Var(X) = \lambda\)

Funzione generatrice dei momenti #

\(\displaystyle \phi(t) = e^{\lambda(e^t-1)}\)

Riproducibilità della Poissoniana #

\[\left.\begin{aligned} X \sim Po(\lambda) \\ Y \sim Po(\mu ) \end{aligned}\right\} \text{indipendenti} \ \Rightarrow X+Y \sim Po(\lambda +\mu)\]

Geometrica #

Si ripete un esperimento finchè non si verifica un evento. Si conta il numero di volte che l’esperimento è stato ripetuto prima che l’evento si sia verificato.

\(\begin{aligned} X \sim G(p), \qquad &p:= \text{rappresenta la probabilità che si verifichi l'evento} \\ &p \in (0,1) &q := 1-p \end{aligned}\)

Funzione di massa di probabilità #

\[p(k) = (1-p)^{k-1} \cdot p\]

Modelli di variabili continue #

\[f(a):= \text{densità di probabilità}\]

Proprietà:

  • \(\displaystyle\int_{-\infty}^{\infty} f(a) da = 1\)

Funzione di ripartizione di probabilità #

\[F(b)=\displaystyle\int_{-\infty}^{b}f(a) da\]

Valore medio #

\[E[X] = \displaystyle\int_{-\infty}^{+\infty} x \cdot f(x) dx\]

Uniforme #

\(X \sim U(\alpha,\beta), \qquad \alpha < \beta\)

Funzione di densità di probabilità #

\(f(x) = \begin{cases} k = \frac{1}{\beta-\alpha} & \text{se } \alpha \le x \le \beta \\ 0 & \text{altrimenti} \end{cases}\)

Funzione di ripartizione di probabilità #

\[F(a) = \begin{cases} 0 & \text{se } a < \alpha \\ \frac{a-\alpha}{\beta-\alpha} & \text{se } \alpha \le a \le \beta \\ 1 & \text{se } a > \beta \end{cases}\]

Valore medio #

\[E[X] = \displaystyle\frac{\alpha+\beta}{2}\]

Varianza #

\[Var(X) = \displaystyle\frac{(\beta-\alpha)^2}{12}\]

Coppie di variabili casuali uniformi #

Siano

\[\left.\begin{aligned} &X \sim U(\alpha,\beta) \\ &Y \sim U(\gamma,\delta) \end{aligned} \right\} \text{indipendenti}\]
Funzione di densità di probabilità congiunta #
\[\underbrace{f(x,y) =f_X(x) \cdot f_Y(y)}_{\text{per l'indip.}} = \begin{cases} k = \frac{1}{(\beta-\alpha)(\delta-\gamma)} & \text{se } x \in [\alpha, \beta], \ y \in [\gamma, \delta] \\ 0 & \text{altrimenti} \end{cases}\]
Probabilità che \((X,Y) \in \mathcal B\) #

Sia \(R = \{(x,y) \in \mathbb R^2 \mid x \in [\alpha, \beta], \ y \in [\gamma, \delta]\}\) il rettangolo di definizione di \((X,Y)\) .

\[\begin{aligned} P((X,Y) \in \mathcal B) = \displaystyle\frac{\text{Area}(\mathcal B)}{\text{Area}(R)} \end{aligned}\]

Esponenziale #

\[X \sim E(\lambda), \qquad \lambda \in \mathbb R^+\]
N.B. Le variabili esponenziali NON sono riproducibili.

Funzione di densità di probabilità #

\[f(x) = \begin{cases} \lambda e^{-\lambda x} & \text{se } x \ge 0 \\ 0 & \text{altrimenti} \end{cases}\]

Funzione di ripartizione di probabilità #

\[F(a) = \begin{cases} 0 & \text{se } a < 0 \\ 1-e^{-\lambda a} & \text{se } a \ge 0 \end{cases}\]

Valore medio #

\[E[X] = \displaystyle\frac{1}{\lambda}\]

Varianza #

\[Var(X) = \displaystyle\frac{1}{\lambda^2}\]

Funzione generatrice dei momenti #

\[\phi(t) = \begin{cases} \text{non esiste} & \text{se } t \ge \lambda \\ \displaystyle \frac{\lambda}{\lambda-t} & \text{se } t < \lambda \end{cases}\]

Variabile casuale NORMALE (o Gaussiana) #

\[X \sim N(\mu,\sigma^2) \qquad \mu \in \mathbb R, \ \sigma^2 \in \mathbb R^+\]

Funzione di densità di probabilità #

⚠️ DA SAPERE A MEMORIA
\[f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{\displaystyle -\frac{(x-\mu)^2}{2\sigma^2}}\]

Funzione di ripartizione di probabilità #

\[\begin{aligned} F(a) &= \int_{-\infty}^a f(x) dx = \\ &= \int_{-\infty}^a \frac{1}{\sigma^2\sqrt{2\pi}}e^{-\frac{(x-\mu)^2}{2\sigma^2}} dx \end{aligned}\]

Massima probabilità #

\[f(\mu) = \frac{1}{\sigma \sqrt{2\pi}}, \qquad \text{con } \mu = E[X]\]

Funzione generatrice dei momenti #

\[\phi(t) = e^{\mu t + \frac{t^2}{2} \sigma^2}\]

Lognormale #

Sia \(X \sim N(\mu,\sigma^2)\) con \(\mu \in \mathbb R, \sigma^2 \in \mathbb R^+\) .

\[\begin{aligned} &Y = e^X \ge 0 \\ &Y \sim \text{Lognormal}(\mu,\sigma^2) \end{aligned}\]

Funzione di densità di probabilità #

\[f(a) = \begin{cases} \frac{1}{\displaystyle a \sigma \sqrt{2\pi}} e^{-\frac{(\ln a - \mu)^2}{2\sigma^2}} & \text{se } a > 0 \\ 0 & \text{altrimenti} \end{cases}\]

Funzione di ripartizione di probabilità #

\[\begin{aligned} F(a) &= P(Y \le a) = \\ &= P(e^X \le a) = \\ &= \begin{cases} P(X \le ln(a)) & \text{se } a > 0 \\ 0 & \text{altrimenti} \end{cases}\\ &= \begin{cases} P(\frac{X-\mu}{\sigma} \le \frac{ln(a)-\mu}{\sigma}) & \text{se } a > 0 \\ 0 & \text{altrimenti} \end{cases} &= \begin{cases} F_z\left(\frac{ln(a)-\mu}{\sigma}\right) & \text{se } a > 0 \\ 0 & \text{altrimenti} \end{cases} \end{aligned}\]

Valore Medio #

\[E[Y] = e^{\displaystyle \mu + \frac{\sigma^2}{2}}\]

Varianza #

\[Var(Y) = e^{\displaystyle 2 \mu + \sigma^2} ( e^{\sigma^2}-1 )\]

Momento secondo #

\[E[Y^2] = e^{\displaystyle 2 \mu + 2 \sigma^2}\]