Techniques du bootstrap et ré-échantillonnage (F-ech-00)

    

Les méthodes statistiques classiques (comme le test de Student, l’évaluation d’une corrélation ou un calcul de régression linéaire) ne sont valables que sous des conditions restrictives assez compliquées à énoncer, et souvent à justifier. Depuis les années 80, il est possible de s’affranchir des hypothèses incontrôlables et des lourds tracas mathématiques de la statistique classique en appliquant des méthodes simples, basées sur des calculs massifs. Le récent développement de la puissance des ordinateurs a permis aux techniques de ré-échantillonnage de s’imposer comme une alternative incontournable aux méthodes classiques. Non seulement les problèmes usuels sont résolus de façon très efficace, mais cette approche résout de façon simple de très nombreux problèmes qui seraient inextricables mathématiquement. Ces méthodes s’appellent :
- Le Bootstrap
- Le Jackknife
- Les Tests de Permutation


Informations
Public : Tout statisticien : les chargés d'études de l'industrie, du biomédical, de la pharmaceutique, du marketing et des affaires.
Pré-requis : Il est conseillé d'avoir participé au préalable au stage Pratique de la Statistique I ou d'avoir acquis par la pratique un niveau équivalent.
Méthode : Alternance d'exposés, de manipulations et d'exercices réalisés dans Excel et R (ou tout autre logiciel en intra-entreprise). Quelques outils de calcul pour les applications seront fournis aux participants.
Animateur : Alain MORINEAU
Durée : 2 jour(s)
Prochaine(s) session(s) :
Lieu Du Au
Paris02/10/2017 03/10/2017

Frais d'inscription :
- Inter-entreprises : Prix unitaire par stagiaire(s) inscrit(s)
1 inscrit2 inscrits 3 inscrits et +
1000€ HT900€ HT800€ HT
- Intra-entreprise : Nous consulter
Programme
Introduction aux méthodes de ré-échantillonnage
Le bagage mathématique et théorique pour la compréhension et l’utilisation de ces techniques est remarquablement élémentaire. On en fera préalablement le tour :
  • Rappels de quelques éléments indispensables de statistique élémentaire
  • Notion pratique de variabilité, de précision d'une estimation et d’intervalle de confiance
  • Le test d’hypothèse, fonctionnement de la prise de décision statistique
  • Rappels sur l’échantillonnage et introduction au « ré-échantillonnage »
  • Le ré-échantillonnage en toute simplicité
  • Pourquoi les techniques de ré-échantillonnage marchent ?
Le Bootstrap Le Bootstrap est de loin la plus populaire des techniques de résolution des questions statistiques par le ré-échantillonnage. Son principe étant rappelé, il reste à mettre en pratique la méthode pour évaluer sa souplesse et sa simplicité. Ceci se fera par le biais de nombreux exemples.
  • Estimation ponctuelle d’un critère statistique, comme la moyenne, l’écart-type, la corrélation, les coefficients d’un modèle linéaire ou non linéaire, etc.
  • Le principe universel du « Plug-in » pour toute estimation Bootstrap.
  • On montre que, dans le cas où l’estimation classique est biaisée, l’estimation Bootstrap ne l’est pas.
  • Estimation d’un critère statistique par intervalle de confiance : le plus usuel est l’intervalle Bootstrap percentile, mais on introduira aussi l’intervalle dit « basic », l’intervalle « Bootstrap-t », et le Bootstrap paramétrique.
  • Intervalle de confiance Bootstrap pour une corrélation : comparaison de l’intervalle Bootstrap et de l’intervalle classique qui est basé sur l’hypothèse de normalité
  • Intervalle de confiance Bootstrap pour les coefficients d’une régression ; généralisation aux coefficients d’un modèle quelconque.
  • Exemple qui n’a pas de solution mathématique : intervalle de confiance d’une moyenne tronquée (estimation robuste d’une moyenne)
  • Évaluation de deux approches Bootstrap différentes et complémentaires pour l’estimation des modèles en général : leur intérêt et leur spécificité.
Le Jackknife et les autres procédures
Le Jackknife, qui a historiquement précédé le Bootstrap, poursuit les mêmes objectifs d’évaluation de la variabilité et de la précision des estimations. Le Bootstrap supplante Jackknife quand les deux méthodes sont applicables, mais le Jackknife a d’autres applications que le Bootstrap n’a pas. Le mode de fonctionnement du Jackknife se généralise jusqu’aux procédures de validation des modèles, du type « validation croisée ».
  • Principe du Jackknife.
  • Le Jackknife pour le calcul de la variance et du biais d’un estimateur.
  • Application au coefficient de corrélation et au coefficient de variation.
  • Estimation Jackknife d’une régression linéaire.
  • Le Jackknife pour évaluer la qualité prédictive d’un modèle.
  • Extension du Jackknife à la validation des modèles
  • Validation croisée pour évaluer la qualité un modèle ou comparer plusieurs modèles
Application aux tests d’hypothèses
  • Comment passer d’un intervalle de confiance à un test d’hypothèse.
  • Principe des tests de permutations appelés à juste titre tests exacts. Application à la comparaison de deux moyennes. Généralisation à l’analyse de la variance à un facteur. Alternative exacte au test d’indépendance du Khi2.
  • Utilisation du Bootstrap pour réaliser des tests : tester l’égalité de deux moyennes, tester la nullité d’une corrélation.
  • Comparaison avec les méthodes de la statistique classique (t de Student, F de Fisher, Khi2 etc.).
Conclusions
La formation s’attache à faire valoir l’intérêt de méthodes assez récentes et sans doute encore trop peu utilisées. Ces méthodes rompent avec l’approche mathématique associée au raisonnement statistique, au profit de procédures « exactes » que les moyens de calcul actuels permettent.
  • Une approche rigoureuse de la décision statistique, débarrassée de toute lourdeur mathématique.
  • Des méthodes valides sans hypothèses non contrôlables ou probabilistes.
  • Des méthodes s’appliquant même là où la statistique classique n’a pas de solution.
  • Une mise en pratique simple pour résoudre des problèmes très variés.


Pour plus de renseignements, contactez :

- Tél : +33 (0) 1 72 92 05 58