Séance 5, le 4 avril 2022

Nous avons examiné les tests statistiques. Le premier est basé sur une bande dessinée des Dingodossiers. Le deuxième exercice portaient sur de test d’une pièce (voir aussi Checking whether a coin is fair). Le troisième porte sur la question de l’hétéroscédasticité.

Sur la correction, R a été utilisé comme langage de programmation. Dans les TD, j’ai utilisé un Jupyter Notebook ainsi que les bibliothèques Pandas et SciPy.

Séance 4, le 28 mars 2022

Nous avons parlé des estimateurs. En particulière l’estimateur du maximum de vraisemblance, l’estimateur par moment et l’estimateur empirique.

Pour l’exercice trois Lé Nguyén Hoang et Heu?reka ont collaboré à la réalisation d’une vidéo sur le biais et la variance des estimateurs et leur relation avec la sous-apprentissage et la sur-apprentissage. Comme le suggère le mot “apprentissage”, il y a ici un lien fort avec l’apprentissage automatique (machine learning) et le dilemme biais-variance.

Séance 3, le 21 mars 2022

Nous avons considère le problème du char d’assaut allemand et le modèle de Nate Silver. Vous trouverez plus d’informations sur les estimations dans How FiveThirtyEight’s 2020 Presidential Forecast Works.

On a parlé aussi des intervalles de confiance. Ne pas confondre avec la notion d’inveralle de fluctuation.

Séance 2, le 14 mars 2022

Nous avons parlé de la fonction de vraisemblance et d’impact de choix de priore. Nous avons résolu les exercices 1 et 3.

Le premier exemple concerne le MTFF ou MTTFF (l’anglais Mean Time (to) first failure) qui décrit le temps moyenne de bon fonctionnement d’un équipement. Nous avons introduit une période d’observation maximale $t_{\text{stop}}$ et nous obtenons ainsi une loi qui est un mélange d’une loi continue et d’une loi discrète.

Dans l’exemple trois, nous avons deux groupes qui choisissent chacun une priore différente. L’un choisit une loi normale et l’autre une distribution de Student-t (les deux ont la même moyenne et la même variance). Après l’observaton, qui est loin d’être attendue, les deux groupes complètement modifient leur loi. On peut voir plus de détails dans l’outil.

Vous trouverez de plus amples information sur la loi gamma, sur la loi exponentielle et sur le processus de Poisson sur Wikipedia. La fonction logit est lie à la régression logistique parfois appelée modèle logit. Des autres fonctions logistiques appartient aussi en apprentissage automatique.

Séance 1, le 7 mars 2022