Schema riassuntivo dei modelli di variabile casuale #
Modelli di variabili discrete #
\[p(a):= \text{probabilità che la variabile casuale assuma il valore } a\]Funzione di ripartizione di probabilità #
\[F(b)=\displaystyle\sum_{a=-\infty}^{b}p(a)\]Valore medio #
\[E[X] = \displaystyle\sum_{k=1}^{n} x_k \cdot p(x_k) \quad X \in \{x_1, x_2, \dots, x_n\}\]Bernoulli #
\(\begin{aligned} X \sim Be(p), \qquad &p:= \text{rappresenta la probabilità che si verifichi l'evento} \\ &\quad p \in (0,1) \\ &q := 1-p \\ \\ &X = \begin{cases} 1 & \text{se l'evento si verifica} \\ 0 & \text{se l'evento non si verifica} \end{cases} \end{aligned}\)Funzione di massa di probabilità #
\(p(a) = \begin{cases} p & \text{se } a=1 \\ 1-p & \text{se } a=0 \end{cases}\)Funzione di ripartizione di probabilità #
\(F(b) = \begin{cases} 0 & \text{se } b<0 \\ p & \text{se } 0 \le b < 1 \\ 1 & \text{se } b \ge 1 \end{cases}\)Funzione generatrice dei momenti #
\(\phi(t) = q + pe^{t}\)Binomiale #
\[\begin{aligned} X \sim B(n,p) \qquad &n:= \text{numero di volte che è stato ripetuto un esperimento} \\ &p:= \text{probabilità che l'evento si verifichi} \end{aligned}\] \(X= \displaystyle\sum^n _{j=1}Y_j \quad \text{con} \ Y_1 ,..., Y_n \sim Be(p) \text{ indipendenti}\)\(X \in \{0,1,...,n\} :=\) numero di prove in cui si verifica l’evento
Funzione di massa di probabilità #
\(p(k) = \displaystyle \binom{n}{k}p^k(1-p)^{n-k}\)Valore medio #
\(E[X] = np\)Riproducibilità della binomiale #
\[\left.\begin{aligned} X \sim B(n,p)\\ Y \sim B(m,p) \end{aligned}\right\} \text{indipendenti} \Rightarrow X+Y \sim B(n+m,p)\]Variabile casuale binomiale negativa #
Si ripete un esperimento in maniera i.i.d fino ad osservare l’evento A \(k\) volte, dove \(r \in \mathbb{N}^+\) .
\[\begin{aligned} &X \sim NB(r,p) \qquad \text{con} \ p \in (0,1) \\ &X \in \{r,r+1,...,+\infty\} \end{aligned}\]Funzione di massa di probabilità #
\[ p(k)=\binom{k-1}{r-1} p^r \cdot (1-p)^{k-r}\]Posso definire la binomiale negativa come una somma di geometriche, ovvero sia
\[ X \sim NB(r,p) \qquad \text{con} \ p \in (0,1)\]allora
\[ X = \sum_{j=1}^{r} Y_j \quad \text{con} \ Y_j \sim G(p) \text{ indipendenti}\]Valor Medio #
\[E[X] = \displaystyle \frac{r}{p}\]Varianza #
\[Var(X) = \displaystyle \frac{rq}{p^2}\]Poisson #
\[X \sim Po(\lambda ) \qquad \text{con} \ \lambda \in \mathbb{R}^+\]Una variabile casuale di Poisson rappresenta il numero di eventi che si osservano in un intervallo temporale/spaziale a patto che il singolo evento abbia una bassa probabilità di verificarsi
Funzione di massa di probabilità #
\(p(k) = \displaystyle \frac{\lambda^k}{k!}e^{-\lambda}\)Valore medio #
\(E[X] = \lambda\)Funzione generatrice dei momenti #
\(\displaystyle \phi(t) = e^{\lambda(e^t-1)}\)Riproducibilità della Poissoniana #
\[\left.\begin{aligned} X \sim Po(\lambda) \\ Y \sim Po(\mu ) \end{aligned}\right\} \text{indipendenti} \ \Rightarrow X+Y \sim Po(\lambda +\mu)\]Geometrica #
Si ripete un esperimento finchè non si verifica un evento. Si conta il numero di volte che l’esperimento è stato ripetuto prima che l’evento si sia verificato.
\(\begin{aligned} X \sim G(p), \qquad &p:= \text{rappresenta la probabilità che si verifichi l'evento} \\ &p \in (0,1) &q := 1-p \end{aligned}\)Funzione di massa di probabilità #
\[p(k) = (1-p)^{k-1} \cdot p\]Modelli di variabili continue #
\[f(a):= \text{densità di probabilità}\]
Proprietà:
- \(\displaystyle\int_{-\infty}^{\infty} f(a) da = 1\)
Funzione di ripartizione di probabilità #
\[F(b)=\displaystyle\int_{-\infty}^{b}f(a) da\]Valore medio #
\[E[X] = \displaystyle\int_{-\infty}^{+\infty} x \cdot f(x) dx\]Uniforme #
\(X \sim U(\alpha,\beta), \qquad \alpha < \beta\)Funzione di densità di probabilità #
\(f(x) = \begin{cases} k = \frac{1}{\beta-\alpha} & \text{se } \alpha \le x \le \beta \\ 0 & \text{altrimenti} \end{cases}\)Funzione di ripartizione di probabilità #
\[F(a) = \begin{cases} 0 & \text{se } a < \alpha \\ \frac{a-\alpha}{\beta-\alpha} & \text{se } \alpha \le a \le \beta \\ 1 & \text{se } a > \beta \end{cases}\]Valore medio #
\[E[X] = \displaystyle\frac{\alpha+\beta}{2}\]Varianza #
\[Var(X) = \displaystyle\frac{(\beta-\alpha)^2}{12}\]Coppie di variabili casuali uniformi #
Siano
\[\left.\begin{aligned} &X \sim U(\alpha,\beta) \\ &Y \sim U(\gamma,\delta) \end{aligned} \right\} \text{indipendenti}\]Funzione di densità di probabilità congiunta #
\[\underbrace{f(x,y) =f_X(x) \cdot f_Y(y)}_{\text{per l'indip.}} = \begin{cases} k = \frac{1}{(\beta-\alpha)(\delta-\gamma)} & \text{se } x \in [\alpha, \beta], \ y \in [\gamma, \delta] \\ 0 & \text{altrimenti} \end{cases}\]Probabilità che \((X,Y) \in \mathcal B\) #
Sia \(R = \{(x,y) \in \mathbb R^2 \mid x \in [\alpha, \beta], \ y \in [\gamma, \delta]\}\) il rettangolo di definizione di \((X,Y)\) .
\[\begin{aligned} P((X,Y) \in \mathcal B) = \displaystyle\frac{\text{Area}(\mathcal B)}{\text{Area}(R)} \end{aligned}\]Esponenziale #
\[X \sim E(\lambda), \qquad \lambda \in \mathbb R^+\]N.B. Le variabili esponenziali NON sono riproducibili.
Funzione di densità di probabilità #
\[f(x) = \begin{cases} \lambda e^{-\lambda x} & \text{se } x \ge 0 \\ 0 & \text{altrimenti} \end{cases}\]Funzione di ripartizione di probabilità #
\[F(a) = \begin{cases} 0 & \text{se } a < 0 \\ 1-e^{-\lambda a} & \text{se } a \ge 0 \end{cases}\]Valore medio #
\[E[X] = \displaystyle\frac{1}{\lambda}\]Varianza #
\[Var(X) = \displaystyle\frac{1}{\lambda^2}\]Funzione generatrice dei momenti #
\[\phi(t) = \begin{cases} \text{non esiste} & \text{se } t \ge \lambda \\ \displaystyle \frac{\lambda}{\lambda-t} & \text{se } t < \lambda \end{cases}\]Variabile casuale NORMALE (o Gaussiana) #
\[X \sim N(\mu,\sigma^2) \qquad \mu \in \mathbb R, \ \sigma^2 \in \mathbb R^+\]Funzione di densità di probabilità #
⚠️ DA SAPERE A MEMORIA\[f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{\displaystyle -\frac{(x-\mu)^2}{2\sigma^2}}\]
Funzione di ripartizione di probabilità #
\[\begin{aligned} F(a) &= \int_{-\infty}^a f(x) dx = \\ &= \int_{-\infty}^a \frac{1}{\sigma^2\sqrt{2\pi}}e^{-\frac{(x-\mu)^2}{2\sigma^2}} dx \end{aligned}\]Massima probabilità #
\[f(\mu) = \frac{1}{\sigma \sqrt{2\pi}}, \qquad \text{con } \mu = E[X]\]Funzione generatrice dei momenti #
\[\phi(t) = e^{\mu t + \frac{t^2}{2} \sigma^2}\]Lognormale #
Sia \(X \sim N(\mu,\sigma^2)\) con \(\mu \in \mathbb R, \sigma^2 \in \mathbb R^+\) .
\[\begin{aligned} &Y = e^X \ge 0 \\ &Y \sim \text{Lognormal}(\mu,\sigma^2) \end{aligned}\]