Module Math2-Prob1 : Introduction à la théorie des probabilités

Table of Contents

1 Prérequis

Module Math1-Bases3

2 Objectif d'apprentissage

Introduction à la théorie moderne des probabilités et de son axiomatisation.

3 Descriptions des enseignements

3.1 Partie 1 (4 semaines, 4cc 4TD) : Espaces de probabilité dénombrables.

-1a Rappel de L1 : espaces de probabilité dénombrables (axiome de sigma-additivité et conséquences), indépendance d'événements et probabilités conditionnelles, variables aléatoires, notion d'expérience de Bernoulli et lois classiques (binomiale, géométrique, Poisson)

-1b Notion d'espérance (d'une fonction réelle d'une variable aléatoire, sans évoquer le théorème de transfert)

-1c Lois de probabilités/variables aléatoires sur Z : fonction de répartition, moyenne, variance, moments, quantiles

-1d Espaces produit et couples de variables aléatoires sur Z : marginales, lois conditionnelles, indépendance (facultatif: covariance et corrélation linéaire comme notion de dépendance, Cauchy-Schwarz)

3.2 Partie 2 (3,5 semaines, 3cc 2TD 2TP) : Statistique élémentaire

  • 2a Statistique descriptive univariée : notion d'échantillon et de mesure empirique (sans modèle probabiliste sous-jacent, donc loi uniforme sur n réels), statistiques descriptives via quantiles, rang, moyenne empirique, variance empirique, moments empiriques, fonction de répartition empirique, histogramme

TP : Génération de variables discrètes, représentations graphiques d'un échantillon

  • 2b Proportion empirique et sondage : loi faible des grands nombres pour Bernoulli (calcul binomiale), intervalles de fluctuations (exact, lien test en première), intervalle de confiance non asymptotique (lien estimation en terminale)
  • 2c Moyenne empirique : son espérance et variance, loi faible pour variables discrètes bornées (par Chernoff / déviation), appliquer à Monte-Carlo pour estimer une espérance (donc une limite de série), intervalle de confiance.

TP: modèle de Bernoulli (sondage avec remise), illustration LGN pour cas quelconque (un fini, un Poisson)

3.3 Partie 3 (4 semaines, 4cc 3TD 1TP) : chaînes de Markov à espace d'état fini

  • 4a Définitions : matrice de transition, loi de \(X_n\), calculs de puissances de matrices, faire sentir l'importance des vecteurs propres, probabilité invariante
  • 4b Manipulations : classes de récurrence, périodicité, irréductibilité, énoncer le théorème de convergence sous hypothèse d'irréductibilité
  • 4c Statistiques dans les chaines de Markov : estimer les transitions, mesurer les temps d'occupation, admettre convergence vers mesure invariante (conséquence pour les moyennes ergodiques, en variante de Monte-Carlo) TP : chaîne de Markov à 3 états, (estimer transitions, observer que les proportions d'occupation convergent vers l'invariante, vérification empirique de la LGN ergodique)

3.4 Partie 4 (2,5 semaines, 2cc 2TD 1TP) Eléments de théorie de l'information - partie à traiter éventuellement.

  • 3a Notion d'entropie de Shannon : propriété de regroupement, maximalité de la loi uniforme, (facultatif: nécessité du log, Boltzmann-Gibbs)
  • 3b Codage de Huffman : l'entropie minore l'espérance du nombre de questions, information mutuelle (\(\max(S(X),S(Y))<=S(X,Y)<=S(X)+S(Y)\) les égalités si bijection ou independance en exo sur une table de contingence finie)

TP : le codage sur alphabet court (lien langage et "loi de Zipf")

4 Références

  • Ross, Initiation aux probabilités, Traduction de la neuvième édition américaine, Presses polytechniques et universitaires romandes, 2014
  • Ross, A First Course in Probability, Pearson, 2014

Author: genzmer yohann

Created: 2023-06-26 lun. 11:21

Validate