La théorie des probabilités est-elle l'étude des fonctions non négatives qui s'intègrent / s'additionnent à une?


26

C'est probablement une question idiote, mais la théorie des probabilités est-elle l'étude de fonctions qui s'intègrent / s'additionnent à une?

MODIFIER. J'ai oublié la non-négativité. La théorie des probabilités est-elle donc l'étude des fonctions non négatives qui s'intègrent / s'additionnent à une?


Oui, les probabilités sont toujours égales à un. Les probabilités d'autre part n'ont pas cette contrainte.
Mike Hunter

2
La seule réponse raisonnable à la question posée est non, notamment parce qu'il existe de nombreuses fonctions f qui s'intègrent à 1 mais pour lesquelles abf(u)du ne peut pas représenter les probabilités pour certains a et b . Par exemple, considérons une fonction comprise entre 1,5 et 0 et -0,5 entre 1 et 2 et 0 partout ailleurs. (mais c'est aussi sans doute "non" pour d'autres raisons aussi)
Glen_b -Reinstate Monica


1
Il existe de sérieux articles sur la probabilité négative, par exemple Maurice S. Bartlett. doi.org/10.1017/S0305004100022398
Nick Cox

2
@dontloo ce que je visais là-bas est maintenant assez bien couvert par la citation de Tao dans la réponse de Chaconne.
Glen_b -Reinstate Monica

Réponses:


31

À un niveau purement formel, on pourrait appeler la théorie des probabilités l'étude des espaces de mesure avec la mesure totale un, mais ce serait comme appeler la théorie des nombres l'étude des chaînes de chiffres qui se terminent

- des sujets de Terry Tao en théorie des matrices aléatoires .

Je pense que c'est la chose vraiment fondamentale. Si nous avons un espace de probabilité et une variable aléatoire X : Ω R avec une mesure directe P X : = P X - 1 , alors la raison pour laquelle une densité f = d P X(Ω,F,P)X:ΩRPX:=PX1 s'intègre à un parce queP(Ω)=1f=dPXdμP(Ω)=1 . Et c'est plus fondamental que pdfs vs pmfs.

Voici la preuve:

Rfdμ=RdPX=PX(R)=P({ωΩ:X(ω)R})=P(Ω)=1.

Il s'agit presque d'une reformulation de la réponse d'AdamO (+1) car tous les CDF sont càdlàg, et il existe une relation biunivoque entre l'ensemble des CDF sur et l'ensemble de toutes les mesures de probabilité sur ( R , B ) , mais puisque le CDF d'un RV est défini en fonction de sa distribution, je considère les espaces de probabilité comme le point de départ de ce type d'effort.R(R,B)


Je mets à jour pour développer la correspondance entre les CDF et les mesures de probabilité et comment les deux sont des réponses raisonnables à cette question.

Nous commençons par commencer par deux mesures de probabilité et analyser les CDF correspondants. Nous concluons en commençant par un CDF et en regardant la mesure induite par celui-ci.

Soit et R des mesures de probabilité sur ( R , B ) et soit F Q et F R leurs CDF respectifs (c'est-à-dire F Q ( a ) = Q ( ( - , a ] ) et de même pour R ). Q et R les deux représenteraient des mesures directes de variables aléatoires (c'est-à-dire des distributions), mais peu importe d'où elles viennent pour cela.QR(R,B)FQFRFQ(a)=Q((,a])RQR

L'idée clé est la suivante: si et R s'accordent sur une collection d'ensembles suffisamment riche, alors ils s'accordent sur l' algèbre σ générée par ces ensembles. Intuitivement, si nous avons une collection bien tenue d'événements qui, à travers un nombre dénombrable de compléments, d'intersections et d'unions, forment tous BQRσB , alors s'entendre sur tous ces ensembles ne laisse aucune marge de manœuvre pour être en désaccord sur un ensemble Borel.

Formalisons cela. Soit et soit L = { A R : Q ( A ) = R ( A ) } , c'est-à-dire L est le sous-ensemble de P ( R ) sur lequel Q et R d'accord (et sont définis) .Notez que nous leur permettons de se mettre d'accord sur des ensembles non-Borel puisque L tel que défini n'est pas nécessairement un sous-ensemble deS={(,a]:aR}L={AR:Q(A)=R(A)}LP(R)QRL . Notre objectif est de montrer que BLBBL .

Il s'avère que (l' algèbre σ générée par S ) est en fait B , donc nous espérons que S est une collection d'événements suffisamment grande pour que si Q = R partout sur S alors ils sont forcés d'être égaux sur tout Bσ(S)σSBSQ=RSB .

Notez que est fermé sous des intersections finies, et que L est fermé sous des compléments et des intersections disjointes dénombrables (cela découle de l' additivité σ ). Cela signifie que S est un π -système et L est un λ -système . Soit dit en π - λ théorème que nous avons donc σ ( S ) = B de la L . Les éléments de SSLσSπLλπλσ(S)=BLSsont loin d'être aussi complexes qu'un ensemble borel arbitraire, mais parce que tout ensemble borel peut être formé à partir d'un nombre dénombrable de compléments, d'unions et d'intersections d'éléments de , s'il n'y a pas un seul désaccord entre Q et R sur des éléments de S alors cela sera suivi jusqu'à ce qu'il n'y ait pas de désaccord sur tout B BSQRSBB .

Nous venons de montrer que si alors Q = R (sur B ), ce qui signifie que la carte Q F Q de P : = { P : P  est une mesure de probabilité sur  ( R , B ) } à F : = { F : RR : F  est un CDF } est une injection.FQ=FRQ=RBQFQP:={P:P is a probability measure on (R,B)}F:={F:RR:F is a CDF}

Maintenant, si nous voulons penser à aller dans l'autre sens, nous voulons commencer par un CDF et montrer qu'il existe une mesure de probabilité unique Q telle que F ( a ) = Q ( ( - , a ] ) . Cela établira que notre cartographie Q F Q est en fait une bijection. Pour cette direction, nous définissons F sans aucune référence à une probabilité ou à des mesures.FQF(a)=Q((,a])QFQF

On définit d'abord une fonction de mesure de Stieltjes comme une fonction telle queG:RR

  1. est non décroissantG
  2. est continu à droiteG

(et notez comment être càdlàg découle de cette définition, mais en raison de la contrainte supplémentaire non décroissante "la plupart" des fonctions càdlàg ne sont pas des fonctions de mesure de Stieltjes).

On peut montrer que chaque fonction de Stieltjes induit une mesure unique μ sur ( R , B ) définie par μ ( ( a , b ] ) = G ( b ) - G ( a ) (voir par exemple la probabilité de Durrett et les processus aléatoires pour plus de détails Par exemple, la mesure de Lebesgue est induite par G ( x ) = xGμ(R,B)

μ((a,b])=G(b)G(a)
G(x)=x .

Notant maintenant qu'un CDF est une fonction de Stieltjes avec les propriétés supplémentaires que lim x - F ( x ) : = F ( - ) = 0 et lim x F ( x ) : = F ( ) = 1 , nous pouvons appliquer ce résultat pour montrer que pour chaque CDF F, nous obtenons une mesure unique Q sur ( R , B )FlimxF(x):=F()=0limxF(x):=F()=1FQ(R,B)défini par

Q((a,b])=F(b)F(a).

Notez comment et Q ( ( - , - ] ) = F ( ) - F ( - ) = 1 donc Q est une mesure de probabilité et est exactement celle que nous aurions utilisée pour définir FQ((,a])=F(a)F()=F(a)Q((,])=F()F()=1QF si nous allions dans l'autre sens.

All together we have now seen that the mapping QFQ is 1-1 and onto so we really do have a bijection between P and F. Bringing this back to the actual question, this shows that we could equivalently hold up either CDFs or probability measures as our object which we declare probability to be the study of (while also recognizing that this is a somewhat facetious endeavor). I personally still prefer probability spaces because I feel like the theory more naturally flows in that direction but CDFs are not "wrong".


3
+1 pour une perspective plus large sur la question; Vous notez à juste titre que l'espace-fonction càdlàg de Skorokhod n'est qu'une notion actuelle de ce que la théorie des probabilités implique, radicalement différente de celle de Borel, et les découvertes de Skorokhod ne datent que d'environ 40 ans. Qui sait ce que le prochain siècle pourrait découvrir?
AdamO

1
@AdamO absolutely, and there’s the weirder ones like non-Archimedean probability, where even if they never become the dominant view (and to my knowledge no one is seriously trying to do that) I find they help me to better understand the standard formulation (eg how serious of a thing sigma additivity is)
jld

I read the question title and thought of that quote from Terence Tao; must have read it years ago (2010) but it's really memorable. As he goes on to say, At a practical level, the opposite is true…
ShreevatsaR

See my comment on the question: How do alternative theories of probability, such as Bayesian (and Dempster-Shafer and the Transferable Belief Model and Dezert-Smarandache Theory), imprecise probabilities, plausibility theory, etc. relate to this question and discussion ?
E. Douglas Jensen

@ E.DouglasJensen Je ne suis pas sûr, je traite cela en termes d'axiomes Kolmogorov standard, donc dans ce contexte, je pense que ma réponse est "correcte", mais si nous changeons les axiomes, je suppose que tous les paris sont désactivés . De plus, je ne suis pas du tout philosophique à ce sujet, donc si nous essayons de le connecter au monde réel de quelque manière que ce soit, par exemple avec des questions comme "quelle est la probabilité que le soleil se lève", alors je suis sûr que cela devient plus compliqué. Néanmoins, il semble un pari assez sûr que la probabilité que « quelque chose » se produit est la valeur maximale (probablement ) et qu'il n'y a pas d' incertitude dans ce1
jld

12

No; the Cantor distribution is just such a counterexample. It's a random variable, but it has no density. It has a distribution function, however. I would say, therefore, that probability theory is the study of càdlàg functions, inclusive of the Cantor DF, that have left limits of 0 and right limits of 1.


Nice, I never heard of cadlag functions. However, these still assume a real and a metric space. Not all probability theory is done on such spaces.
HRSE

1
You may for example go back to Terrence Fine, Theories of Probability. Also note that cadlag functions (at least according to the wikipedia article) have the real numbers as a domain. LJ Savage's "Foundations of Statistics" gives an account of (subjective) probability theory on spaces that are not necessarily real.
HRSE

1
@jwg Certains autres commentaires dans ce post traitent de la probabilité négative, qui semble être d'une certaine utilité en physique quantique, bien que mon esprit simple ne puisse pas imaginer une telle chose.
AdamO

1
XX:ΩRn then the CDF is defined in terms of the pushforward measure PX:=PX1 (not the measure P on (Ω,F)) and since X is real valued PX is necessarily a measure on (Rn,Bn) which means we can feed it sets like (,a] so F has Rn as its domain. Am i missing something?
jld

1
I think well ordered means every subset has a least element while totally ordered means for all x and y, exactly one of x<y, x>y, or x=y holds, so N is both, R is just totally ordered, and C is neither. We absolutely need to multiply and add probabilities so at the very least the codomain of P ought to be a field, but I don’t think it has to be totally ordered or complete. Complex valued measures are an example of the first and hyperreal valued measures are an example of the second. All of these are metric spaces though (or can be)
jld

6

I'm sure you'll get good answers, but will give you a slightly different perspective here.

You may have heard mathematicians saying that physics is pretty much mathematics, or just an application of mathematics to the most basic laws of nature. Some mathematicians (many?) actually do believe that this the case. I've heard that over and over in university. In this regard you're asking a similar question, though not as wide sweeping as this one.

Physicist usually don't bother even responding to this statement: it's too obvious to them that it's not true. However, if you try to respond it becomes clear that the answer is not so trivial, if you want to make it convincing.

My answer is that physics is not just a bunch of models and equations and theories. It's a field with its own set of approaches and tools and heuristics and the ways of thinking. That's one reason why although Poincare developed relativity theory before Einstein, he didn't realize all the implications and didn't pursue to get everyone on board. Einstein did, because he was a physicist and he got what it meant immediately. I'm not a fan of the guy, but his work on Brownian motion is another example of how a physicist builds a mathematical model. That paper is amazing, and is filled with intuition and traces of thinking that are unmistakenly physics-ey.

So, my answer to you is that even if it were the case that probability deals with the kind of functions you described, it would still not have been the study of those function. Nor it is a measure theory applied to some subclass of measures. Probability theory is the distinct field that studies probabilities, it's linked to a natural world through radioactive decay and quantum mechanics and gases etc. If it happens so that certain functions seem to be suitable to model probabilities, then we'll use them and study their properties too, but while doings so we'll keep an eye on the main prize - the probabilities.


1
+1 for bringing reality to a math fight and actually answering the question with the only reasonable answer, i.e. that any such reductionism misses the point
jld

@Chaconne I learned a useful word today reductionism, will incorporate it in my vocabulary :)
Aksakal

+1, this is what I was trying to say with my answer, but I said it less effectively than you I think.
Nathaniel

4

Well, partially true, it lacks a second condition. Negative probabilities do not make sense. Hence, these functions have to satisfy two conditions:

  • Continuous distributions:

    Df(x)dx=1andf(x)>0xD
  • Discrete distributions:

    xDP(x)=1and0<P(x)1xD

Where D is the domain where probability distribution is defined.


Thanks a lot Carlos for the answer, actually I want to know what if the non negative condition was added?
dontloo

1
I would say that reducing probability field to study of probability density/mass functions (fulfilling the upper properties) is too bare. Moreover, as it has been stated by @AdamO, there are some cases of random variables which do not have probability density function, even though they have a well defined cdf.
Carlos Campos

@CarlosCampos: Regarding negative probabilities: They actually do make sense in some contexts, e.g. half coins. See en.wikipedia.org/wiki/Negative_probability for a bit more information.
Inkane

3

Je dirais non, ce n'est pas fondamentalement la théorie des probabilités, mais je le dirais pour des raisons différentes de celles des autres réponses.

Fondamentalement, je dirais que la théorie des probabilités est l'étude de deux choses:

  1. Processus stochastiques, et

  2. Inférence bayésienne.

Les processus stochastiques incluent des choses comme lancer des dés, tirer des boules dans des urnes, etc., ainsi que les modèles les plus sophistiqués de la physique et des mathématiques. L'inférence bayésienne raisonne sous l'incertitude, en utilisant des probabilités pour représenter la valeur de quantités inconnues.

Ces deux choses sont plus étroitement liées qu'elles ne le paraissent à première vue. L'une des raisons pour lesquelles nous pouvons les étudier sous le même parapluie est que des aspects importants des deux peuvent être représentés comme des fonctions non négatives qui se résument / s'intègrent à une seule. Mais la probabilité n'est pas seulement l'étude de ces fonctions - leur interprétation en termes de processus aléatoires et d'inférence en est également une partie importante.

Par exemple, la théorie des probabilités comprend des concepts tels que les probabilités conditionnelles et les variables aléatoires, et des quantités telles que l'entropie, les informations mutuelles, et l'attente et la variance des variables aléatoires. Alors qu'on pouvait définir ces choses uniquement en termes de fonctions non négatives normalisées, la motivation de cela semblerait assez étrange sans l'interprétation en termes de processus aléatoires et d'inférence.

De plus, on rencontre parfois des concepts dans la théorie des probabilités, en particulier du côté de l'inférence, qui ne peuvent pas être exprimés en termes d'une fonction non négative qui se normalise à un. Les soi-disant «prieurs impropres» viennent à l'esprit ici, et AdamO a donné la distribution de Cantor comme un autre exemple.

Il y a certainement certains domaines de la théorie des probabilités dans lesquels l'intérêt principal est dans les propriétés mathématiques des fonctions non négatives normalisées, pour lesquelles les deux domaines d'application que j'ai mentionnés ne sont pas importants. Lorsque c'est le cas, nous l'appelons souvent théorie de la mesure plutôt que théorie des probabilités. Mais la théorie des probabilités est aussi - en fait, je dirais surtout - un champ appliqué, et les applications des distributions de probabilités sont en elles-mêmes une composante non triviale du champ.


2
Vous avez rendu le domaine des sujets en théorie des probabilités assez étroit ...
Tim

@Tim not on purpose - I divided it into two areas, but intended each of them to be interpreted very broadly. Can you give me some other topics that don't fit under either heading?
Nathaniel
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.