L'inférence prédictive non bayésienne (à l'exception du cas SLR) est un domaine relativement récent. Sous la rubrique «non-bayésien», nous pouvons subdiviser les approches en celles qui sont «fréquentistes» classiques par rapport à celles qui sont basées sur la «vraisemblance».
Prédiction fréquenciste classique
αβ
Maintenant, j'ai généralement eu des problèmes avec la façon dont les IP classiques sont présentés et enseignés dans la plupart des cours de statistiques, car la tendance écrasante est de les interpréter comme des intervalles prédictifs postérieurs bayésiens, ce qu'ils ne sont décidément pas. Plus fondamentalement, ils parlent de différentes probabilités! Les Bayésiens ne font aucune réclamation sur les performances d'échantillonnage répétées de leurs quantités (sinon, ils seraient fréquentistes). Deuxièmement, un IP bayésien accomplit quelque chose de plus similaire dans son esprit à un intervalle de tolérance classique qu'à un intervalle de prédiction classique.
Pour référence: les intervalles de tolérance doivent être spécifiés par deux probabilités: la confiance et la couverture. La confiance nous indique à quelle fréquence elle est correcte dans des échantillons répétés. La couverture nous indique la mesure de probabilité minimale de l'intervalle sous la distribution vraie (par opposition à l'IP, qui donne la mesure de probabilité attendue ... encore sous échantillonnage répété). C'est essentiellement ce que l'IP bayésien essaie également de faire, mais sans prétentions d'échantillonnage répété.
Ainsi, la logique de base de la régression linéaire simple Stats 101 est de dériver les propriétés d'échantillonnage répété de l'IP sous l'hypothèse de normalité. C'est l'approche fréquentiste + gaussienne qui est généralement considérée comme "classique" et enseignée dans les classes de statistiques d'introduction. Ceci est basé sur la simplicité des calculs qui en résultent (voir Wikipedia pour une belle vue d'ensemble).
Les distributions de probabilité non gaussiennes sont généralement problématiques car elles peuvent manquer de quantités pivots qui peuvent être soigneusement inversées pour obtenir un intervalle. Par conséquent, il n'y a pas de méthode "exacte" pour ces distributions, souvent parce que les propriétés de l'intervalle dépendent des vrais paramètres sous-jacents.
Reconnaissant cette incapacité, une autre classe de prédiction est apparue (et d'inférence et d'estimation) avec l'approche de vraisemblance.
Inférence basée sur la vraisemblance
Les approches basées sur les vraisemblances, comme de nombreux concepts statistiques modernes, peuvent être retracées jusqu'à Ronald Fisher. L'idée de base de cette école est que, sauf dans des cas particuliers, nos inférences statistiques sont logiquement plus faibles que lorsque nous traitons des inférences à partir d'une distribution normale (dont les estimations des paramètres sont orthogonales ), où nous pouvons faire des énoncés de probabilité exacts. Dans cette conception de l'inférence, il faut vraiment éviter les déclarations sur la probabilité, sauf dans le cas exact, sinon, il faut faire des déclarations sur la probabilité et reconnaître que l'on ne connaît pas la probabilité exacte d'erreur (au sens fréquentiste).
Par conséquent, nous pouvons voir la probabilité comme apparentée à la probabilité bayésienne, mais sans les exigences d'intégrabilité ou la confusion possible avec la probabilité fréquentiste. Son interprétation est entièrement subjective ... bien qu'un rapport de vraisemblance de 0,15 soit souvent recommandé pour l'inférence à paramètre unique.
Cependant, on ne voit pas souvent des articles qui donnent explicitement des «intervalles de vraisemblance». Pourquoi? Il semble que cela soit en grande partie une question de sociologie, car nous nous sommes tous habitués aux déclarations de confiance basées sur les probabilités. Au lieu de cela, ce que vous voyez souvent, c'est un auteur se référant à un intervalle de confiance "approximatif" ou "asymptotique" de tel ou tel. Ces intervalles sont largement dérivés des méthodes de vraisemblance, où nous nous appuyons sur la distribution asymétrique du chi carré du rapport de vraisemblance de la même manière que nous nous appuyons sur la normalité asymptotique de la moyenne de l'échantillon.
Avec cette «correction», nous pouvons maintenant construire des régions de confiance «approximatives» à 95% avec presque autant de cohérence logique que les Bayésiens.
De CI à PI dans le cadre de vraisemblance
Le succès et la facilité de l'approche de probabilité ci-dessus ont conduit à des idées sur la façon de l'étendre à la prédiction. Un très bon article d'enquête à ce sujet est donné ici (je ne reproduirai pas son excellente couverture). Cela remonte à David Hinkley à la fin des années 1970 (voir JSTOR ), qui a inventé le terme. Il l'a appliqué au pérenne « Problème de prédiction binomiale de Pearson ». Je vais résumer la logique de base.
yyy
Les règles de base pour se débarrasser des paramètres de "nuisance" pour obtenir une probabilité prédictive sont les suivantes:
- μ , σ
- Si un paramètre est aléatoire (par exemple, d' autres données non observées ou « effets aléatoires »), vous intégrez - les (comme dans l' approche bayésienne).
La distinction entre un paramètre fixe et aléatoire est unique à l'inférence de vraisemblance, mais a des liens avec des modèles à effets mixtes, où il semble que les cadres bayésien, fréquentiste et de vraisemblance entrent en collision.
J'espère que cela a répondu à votre question sur le vaste domaine de la prédiction "non bayésienne" (et l'inférence d'ailleurs). Étant donné que les hyperliens peuvent changer, je ferai également une fiche pour le livre "In All Lik vraisemblance: modélisation statistique et inférence utilisant la vraisemblance" qui traite en profondeur du cadre moderne de vraisemblance, y compris une bonne partie des problèmes épistémologiques de vraisemblance vs bayésienne vs fréquentiste inférence et prédiction.
Les références
- Intervalles de prédiction: méthodes non paramétriques . Wikipédia. Consulté le 13/09/2015.
- Bjornstad, Jan F. Probabilité prédictive: un examen. Statist. Sci. 5 (1990), no. 2, 242--254. doi: 10.1214 / ss / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- David Hinkley. Probabilité prédictive . Les Annales de la statistique Vol. 7, n ° 4 (juil., 1979), pp. 718-728 Publié par: Institute of Mathematical Statistics URL stable: http://www.jstor.org/stable/2958920
- Yudi Pawitan. Selon toute vraisemblance: modélisation statistique et inférence utilisant la vraisemblance. Oxford University Press; 1 édition (30 août 2001). ISBN-10: 0198507658, ISBN-13: 978-0198507659. Surtout les chapitres 5.5-5.9, 10 et 16.