Où puis-je lire sur la justification de l'utilisation des distributions de probabilité paramétriques?


8

J'aimerais trouver une référence, de préférence gratuite sur Internet, où je pourrai lire la justification théorique ou pratique de l'utilisation des distributions de probabilité paramétriques / analytiques.

Par distributions paramétriques, j'entends celles nommées comme Normal, Weibull, etc.

Réponses:



1

Dans un certain sens, il n'existe pas de statistiques sans "paramètres" et "modèles". Il s'agit dans une certaine mesure d'un étiquetage arbitraire, selon ce que vous reconnaissez comme un "modèle" ou un "paramètre". Les paramètres et les modèles sont essentiellement des moyens de traduire des hypothèses et des connaissances sur le monde réel en un système mathématique. Mais cela est vrai de tout algorithme mathématique. Vous devez en quelque sorte convertir votre problème du monde réel dans le cadre mathématique que vous avez l'intention d'utiliser pour le résoudre.

L'utilisation d'une distribution de probabilité qui a été attribuée selon un certain principe est une façon de procéder à cette conversion de manière systématique et transparente. Les meilleurs principes que je connaisse sont le principe de l'entropie maximale (MaxEnt) et le principe des groupes de transformation (qui, je pense, pourrait aussi être appelé le principe de «l'invariance» ou de «l'indifférence au problème»).

Une fois attribué, vous pouvez utiliser la théorie des probabilités bayésienne pour manipuler de manière cohérente ces probabilités "d'entrée" qui contiennent vos informations et hypothèses en probabilités de "sortie" qui vous indiquent la quantité d'incertitude présente dans l'analyse qui vous intéresse.

Quelques introductions du point de vue Bayes / MaxEnt décrites ci-dessus peuvent être trouvées ici , ici et ici . Celles-ci sont basées sur l'interprétation de la probabilité comme une extension de la logique déductive. Ils sont plutôt du côté théorique des choses.

En tant que note de fin mineure, je recommande ces méthodes principalement parce qu'elles me semblent les plus attrayantes - je ne peux pas penser à une bonne raison théorique pour abandonner les comportements normatifs qui se cachent derrière la logique Bayes / MaxEnt. Bien sûr, vous n'êtes peut-être pas aussi obligé que moi, et je peux penser à quelques compromis pratiques autour de la faisabilité et des limitations logicielles. Les statistiques du «monde réel» peuvent souvent être sur l'idéologie que vous approximez (approximativement Bayes vs approximativement Maximum de vraisemblance vs approximativement basée sur la conception) ou quelle idéologie vous comprenez et êtes capable d'expliquer à vos clients.


Je ne pense pas que votre première déclaration soit vraie. Nous avons des statistiques non paramétriques et un rééchantillonnage pour résoudre les problèmes.
Neil McGuigan

1
Ceci est un exemple de ce que j'entendais par là selon ce que vous voulez dire quand vous dites "paramètre" et "modèle". Les statistiques non paramétriques reposent davantage sur des formes flexibles de fonctions de modèle plutôt que sur l'absence de «paramètres». En fait, de nombreuses méthodes statistiques non paramétriques sont fortement paramétrées. Et le rééchantillonnage est une méthode paramétrique basée sur l'expansion empirique des séries cdf et taylor - du moins c'est ce que j'ai obtenu du papier Efrons sur bootstrap et jacknife.
probabilités

1

Une manière bayésienne d'introduire et de motiver des modèles paramétriques consiste à utiliser l'échangeabilité et le théorème de représentation de De Finetti. Il y a une discussion dans cette question:

Qu'est-ce qui est si cool dans le théorème de représentation de De Finetti?

Une excellente introduction est donnée dans le premier chapitre de la théorie des statistiques de Schervish . Tout le langage théorique de mesure nécessaire à la discussion est donné dans son annexe tour de force (avec preuves complètes!). J'ai beaucoup appris de ce livre et je vous recommande fortement de l'acheter.

Cet article étudie la généralité de la construction bayésienne:

Sandra Fortini, Lucia Ladelli et Eugenio Regazzini

Sankhyā: The Indian Journal of Statistics, Series A (1961-2002)

Vol. 62, n ° 1 (février 2000), p. 86-109

Il est disponible en téléchargement ici: http://sankhya.isical.ac.in/search/62a1/62a17092.pdf

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.