Module Math2-Prob1 : Introduction à la théorie des probabilités
Table of Contents
- 1. Prérequis
- 2. Objectif d'apprentissage
- 3. Descriptions des enseignements
- 3.1. Partie 1 (4 semaines, 4cc 4TD) : Espaces de probabilité dénombrables.
- 3.2. Partie 2 (3,5 semaines, 3cc 2TD 2TP) : Statistique élémentaire
- 3.3. Partie 3 (4 semaines, 4cc 3TD 1TP) : chaînes de Markov à espace d'état fini
- 3.4. Partie 4 (2,5 semaines, 2cc 2TD 1TP) Eléments de théorie de l'information - partie à traiter éventuellement.
- 4. Références
1 Prérequis
Module Math1-Bases3
2 Objectif d'apprentissage
Introduction à la théorie moderne des probabilités et de son axiomatisation.
3 Descriptions des enseignements
3.1 Partie 1 (4 semaines, 4cc 4TD) : Espaces de probabilité dénombrables.
-1a Rappel de L1 : espaces de probabilité dénombrables (axiome de sigma-additivité et conséquences), indépendance d'événements et probabilités conditionnelles, variables aléatoires, notion d'expérience de Bernoulli et lois classiques (binomiale, géométrique, Poisson)
-1b Notion d'espérance (d'une fonction réelle d'une variable aléatoire, sans évoquer le théorème de transfert)
-1c Lois de probabilités/variables aléatoires sur Z : fonction de répartition, moyenne, variance, moments, quantiles
-1d Espaces produit et couples de variables aléatoires sur Z : marginales, lois conditionnelles, indépendance (facultatif: covariance et corrélation linéaire comme notion de dépendance, Cauchy-Schwarz)
3.2 Partie 2 (3,5 semaines, 3cc 2TD 2TP) : Statistique élémentaire
- 2a Statistique descriptive univariée : notion d'échantillon et de mesure empirique (sans modèle probabiliste sous-jacent, donc loi uniforme sur n réels), statistiques descriptives via quantiles, rang, moyenne empirique, variance empirique, moments empiriques, fonction de répartition empirique, histogramme
TP : Génération de variables discrètes, représentations graphiques d'un échantillon
- 2b Proportion empirique et sondage : loi faible des grands nombres pour Bernoulli (calcul binomiale), intervalles de fluctuations (exact, lien test en première), intervalle de confiance non asymptotique (lien estimation en terminale)
- 2c Moyenne empirique : son espérance et variance, loi faible pour variables discrètes bornées (par Chernoff / déviation), appliquer à Monte-Carlo pour estimer une espérance (donc une limite de série), intervalle de confiance.
TP: modèle de Bernoulli (sondage avec remise), illustration LGN pour cas quelconque (un fini, un Poisson)
3.3 Partie 3 (4 semaines, 4cc 3TD 1TP) : chaînes de Markov à espace d'état fini
- 4a Définitions : matrice de transition, loi de \(X_n\), calculs de puissances de matrices, faire sentir l'importance des vecteurs propres, probabilité invariante
- 4b Manipulations : classes de récurrence, périodicité, irréductibilité, énoncer le théorème de convergence sous hypothèse d'irréductibilité
- 4c Statistiques dans les chaines de Markov : estimer les transitions, mesurer les temps d'occupation, admettre convergence vers mesure invariante (conséquence pour les moyennes ergodiques, en variante de Monte-Carlo) TP : chaîne de Markov à 3 états, (estimer transitions, observer que les proportions d'occupation convergent vers l'invariante, vérification empirique de la LGN ergodique)
3.4 Partie 4 (2,5 semaines, 2cc 2TD 1TP) Eléments de théorie de l'information - partie à traiter éventuellement.
- 3a Notion d'entropie de Shannon : propriété de regroupement, maximalité de la loi uniforme, (facultatif: nécessité du log, Boltzmann-Gibbs)
- 3b Codage de Huffman : l'entropie minore l'espérance du nombre de questions, information mutuelle (\(\max(S(X),S(Y))<=S(X,Y)<=S(X)+S(Y)\) les égalités si bijection ou independance en exo sur une table de contingence finie)
TP : le codage sur alphabet court (lien langage et "loi de Zipf")
4 Références
- Ross, Initiation aux probabilités, Traduction de la neuvième édition américaine, Presses polytechniques et universitaires romandes, 2014
- Ross, A First Course in Probability, Pearson, 2014