Probabilites Statistiques 784C80
1. **Énoncé du problème :**
Nous avons plusieurs exercices de probabilités et statistiques à résoudre.
---
### Exercice 1
1. Déterminer sans calcul $P(M)$, $P(T/M)$ et $P(\overline{T}/\overline{M})$.
- $P(M)$ est la probabilité qu'un individu soit malade, donnée comme 5 pour 1000, donc $P(M) = \frac{5}{1000} = 0.005$.
- $P(T/M)$ est la probabilité d'avoir un test positif sachant que l'individu est malade, donnée comme 0.8.
- $P(\overline{T}/\overline{M})$ est la probabilité d'avoir un test négatif sachant que l'individu n'est pas malade, donnée comme 0.9.
2. Montrer que $P(T \cap \overline{M}) = P(\overline{M})(1 - P(\overline{T}/\overline{M}))$.
- Par définition de la probabilité conditionnelle :
$$P(T \cap \overline{M}) = P(\overline{M}) \times P(T/\overline{M})$$
- Or, $P(T/\overline{M}) = 1 - P(\overline{T}/\overline{M})$ car $T$ et $\overline{T}$ sont complémentaires.
- Donc,
$$P(T \cap \overline{M}) = P(\overline{M})(1 - P(\overline{T}/\overline{M}))$$
3. Calculer :
(a) $P(T)$, la probabilité d'avoir un test positif.
- Utiliser la formule des probabilités totales :
$$P(T) = P(T \cap M) + P(T \cap \overline{M}) = P(M)P(T/M) + P(\overline{M})P(T/\overline{M})$$
- Avec $P(\overline{M}) = 1 - P(M) = 0.995$ et $P(T/\overline{M}) = 1 - P(\overline{T}/\overline{M}) = 1 - 0.9 = 0.1$.
- Donc,
$$P(T) = 0.005 \times 0.8 + 0.995 \times 0.1 = 0.004 + 0.0995 = 0.1035$$
(b) $P(M/T)$, la probabilité d'être malade sachant que le test est positif.
- Par formule de Bayes :
$$P(M/T) = \frac{P(T \cap M)}{P(T)} = \frac{P(M)P(T/M)}{P(T)} = \frac{0.005 \times 0.8}{0.1035} \approx 0.0387$$
(c) $P(M/\overline{T})$, la probabilité d'être malade sachant que le test est négatif.
- $P(\overline{T}) = 1 - P(T) = 1 - 0.1035 = 0.8965$
- $P(\overline{T} \cap M) = P(M)P(\overline{T}/M) = 0.005 \times (1 - 0.8) = 0.005 \times 0.2 = 0.001$
- Donc,
$$P(M/\overline{T}) = \frac{P(\overline{T} \cap M)}{P(\overline{T})} = \frac{0.001}{0.8965} \approx 0.00112$$
4. **Fiabilité du test :**
- Le test détecte bien les malades (80% de sensibilité) mais a un taux de faux positifs de 10%.
- La probabilité d'être malade quand le test est positif est faible (3.87%), ce qui montre que le test n'est pas très fiable pour confirmer la maladie.
---
### Exercice 2
1. La densité est donnée par
$$f(x, \theta) = \theta (1 - x)^{\theta - 1}, \quad x \in ]0,1[,$$
qui est la densité d'une loi Beta de paramètres $(1, \theta)$.
- Pour une loi Beta$(\alpha, \beta)$, on a
$$E(X) = \frac{\alpha}{\alpha + \beta}, \quad E(X^2) = \frac{\alpha(\alpha + 1)}{(\alpha + \beta)(\alpha + \beta + 1)}$$
- Ici, $\alpha = 1$, $\beta = \theta$ donc
$$E(X) = \frac{1}{1 + \theta}, \quad E(X^2) = \frac{1 \times 2}{(1 + \theta)(2 + \theta)} = \frac{2}{(1 + \theta)(2 + \theta)}$$
2. La variance est
$$\sigma^2 = E(X^2) - (E(X))^2 = \frac{2}{(1 + \theta)(2 + \theta)} - \left(\frac{1}{1 + \theta}\right)^2 = \frac{2}{(1 + \theta)(2 + \theta)} - \frac{1}{(1 + \theta)^2}$$
---
### Exercice 3
1. **Loi des grands nombres :**
- La moyenne empirique d'un grand nombre d'observations indépendantes et identiquement distribuées converge presque sûrement vers l'espérance mathématique.
2. **Exemple :**
- Si $X_1, X_2, ..., X_n$ sont des tirages indépendants d'une variable aléatoire $X$ avec $E(X) = \mu$, alors
$$\overline{X}_n = \frac{1}{n} \sum_{i=1}^n X_i \xrightarrow[n \to \infty]{} \mu$$
---
### Exercice 4
1. Définir $Y = \frac{2 \sqrt{X}}{\theta}$.
- Trouvons la loi de $Y$.
- La densité de $X$ est
$$f_X(x) = \frac{1}{2 \theta \sqrt{x}} \exp\left(-\frac{\sqrt{x}}{\theta}\right), \quad x > 0$$
- Posons $Y = \frac{2 \sqrt{X}}{\theta} \Rightarrow \sqrt{X} = \frac{\theta Y}{2} \Rightarrow X = \frac{\theta^2 Y^2}{4}$.
- Le jacobien de la transformation est
$$\frac{dX}{dY} = \frac{\theta^2}{2} Y$$
- La densité de $Y$ est
$$f_Y(y) = f_X\left(\frac{\theta^2 y^2}{4}\right) \times \left|\frac{dX}{dY}\right| = \frac{1}{2 \theta \sqrt{\frac{\theta^2 y^2}{4}}} \exp\left(-\frac{\frac{\theta y}{2}}{\theta}\right) \times \frac{\theta^2}{2} y$$
- Simplifions :
$$\sqrt{\frac{\theta^2 y^2}{4}} = \frac{\theta y}{2}$$
- Donc,
$$f_Y(y) = \frac{1}{2 \theta \frac{\theta y}{2}} e^{-\frac{y}{2}} \times \frac{\theta^2}{2} y = \frac{1}{\theta^2 y} e^{-\frac{y}{2}} \times \frac{\theta^2}{2} y = \frac{1}{2} e^{-\frac{y}{2}}$$
- Pour $y > 0$, ce qui est la densité d'une loi exponentielle de paramètre $\frac{1}{2}$.
2. Estimation du maximum de vraisemblance $\hat{\theta}_n$.
- La vraisemblance pour un échantillon $X_1, ..., X_n$ est
$$L(\theta) = \prod_{i=1}^n f_X(x_i, \theta) = \prod_{i=1}^n \frac{1}{2 \theta \sqrt{x_i}} \exp\left(-\frac{\sqrt{x_i}}{\theta}\right)$$
- Le logarithme de la vraisemblance est
$$\ell(\theta) = -n \ln(2 \theta) - \sum_{i=1}^n \frac{1}{2} \ln x_i - \frac{1}{\theta} \sum_{i=1}^n \sqrt{x_i}$$
- Dérivons par rapport à $\theta$ et posons à zéro :
$$\frac{d\ell}{d\theta} = -\frac{n}{\theta} + \frac{1}{\theta^2} \sum_{i=1}^n \sqrt{x_i} = 0$$
- D'où
$$\hat{\theta}_n = \frac{1}{n} \sum_{i=1}^n \sqrt{x_i}$$
3. Convergence de $\hat{\theta}_n$.
- Par la loi des grands nombres,
$$\hat{\theta}_n = \frac{1}{n} \sum_{i=1}^n \sqrt{X_i} \xrightarrow[n \to \infty]{} E(\sqrt{X}) = \theta$$
- Donc $\hat{\theta}_n$ est un estimateur convergent de $\theta$.
4. Intervalle de confiance au seuil $\alpha = 0.05$.
- Sachant que $Y_i = \frac{2 \sqrt{X_i}}{\theta}$ suit une loi exponentielle de paramètre $\frac{1}{2}$, la somme $\sum Y_i$ suit une loi Gamma $\Gamma(n, \frac{1}{2})$.
- On peut construire un intervalle de confiance pour $\theta$ basé sur la distribution de $\sum \sqrt{X_i}$.
- L'intervalle est
$$\left[ \frac{2 \sum \sqrt{X_i}}{\chi^2_{1 - \frac{\alpha}{2}, 2n}}, \frac{2 \sum \sqrt{X_i}}{\chi^2_{\frac{\alpha}{2}, 2n}} \right]$$
- Où $\chi^2_{p, k}$ est le quantile de la loi du chi-deux à $k$ degrés de liberté.
---
**Réponses aux 4 exercices complètes.**