Fonction de vraisemblance des données tronquées


8

J'ai un peu de mal à comprendre le concept et la dérivation de la probabilité de données tronquées.

Par exemple, si je veux trouver la fonction de vraisemblance basée sur un échantillon d'une distribution, mais en prenant un échantillon de la distribution, j'observe les valeurs tronquées (où il y a un seuil de , c'est-à-dire tout est enregistré comme ):Mxi>MM

x1,x2,M,x3,M,x4,x5,...,x10

où le nombre de valeurs est . Ensuite, la probabilité est supposée être donnée par:Mm

L(x;θ)=i=110f(xi;θ)[P(X>M)]m

J'apprécierais beaucoup une explication / preuve de la raison pour laquelle il en est ainsi, surtout pourquoi le deuxième facteur est tel qu'il est. Intuitivement et mathématiquement si possible. Merci d'avance.


Qu'est-ce que le " " minuscule ? m
Alecos Papadopoulos

C'est le nombre d'occurrences de .. c'est-à-dire que j'ai observé points de données, dont ne sont pas tronqués, et d'entre eux le sont (j'observe ces choix, tous avec la valeur )M10+m10mmM
Delvesy

2
Comme le souligne @Alecos, vous utilisez idiosyncrasiquement "tronqué". "Censuré" est le terme habituel.
Scortchi - Réintégrer Monica

Quelques autres termes sur lesquels vous voudrez peut-être effectuer une recherche: «effets de plafond / plancher», «régression bêta» et «modèles zéro gonflés».
DWin

Réponses:


8

Ce que vous décrivez nécessite un traitement spécial, ce n'est pas ce que nous entendons habituellement par "variables aléatoires tronquées" - et ce que nous entendons généralement est que la variable aléatoire ne se situe pas en dehors du support tronqué, ce qui signifie qu'il n'y a pas de concentration de masse de probabilité à le point de troncature. Pour contraster les cas:

A) Signification "habituelle" d'un rv tronqué
Pour toute distribution que nous tronquons son support, nous devons "corriger" sa densité afin qu'elle s'intègre à l'unité lorsqu'elle est intégrée sur le support tronqué. Si la variable est prise en charge dans , , alors (pdf , cdf )[a,b]<a<b<fF

abfX(x)dx=aMfX(x)dx+MbfX(x)dx=aMfX(x)dx+[1FX(M)]=1

aMfX(x)dx=FX(M)

Puisque le LHS est l'intégrale sur le support tronqué, nous voyons que la densité du rv tronqué, appelons-le , doit êtreX~

fX~(x~)=fX(xXM)=fX(x)dx[FX(M)]1
afin que il s'intègre à l'unité sur . Le terme moyen dans l'expression ci-dessus nous fait penser (à juste titre) à cette situation comme une forme de conditionnement - mais pas sur une autre variable aléatoire, mais sur les valeurs possibles que le RV lui-même peut prendre. Ici, une fonction conjointe densité / vraisemblance d'une collection de iid rv tronqués serait fois la densité ci-dessus, comme d'habitude.[a,M]nn

B) Probabilité de concentration massique
Ici, c'est ce que vous décrivez dans la question, les choses sont différentes. Le point concentre toute la masse de probabilité qui correspond à l'appui de la variable supérieure à . Cela crée un point de discontinuité dans la densité et lui donne deux branchesM M

fX(x)=fX(x)x<MfX(x)=P(XM)xM

Informellement, le second est "comme un RV discret" où chaque point de la fonction de masse de probabilité représente les probabilités réelles. Supposons maintenant que nous ayons telles variables aléatoires iid, et nous voulons former leur fonction conjointe densité / vraisemblance. Avant de regarder l'échantillon réel, quelle branche choisir? Nous ne pouvons pas prendre cette décision, nous devons donc en quelque sorte inclure les deux. Pour ce faire, nous devons utiliser des fonctions d'indicateur: notons la fonction d'indicateur qui prend la valeur lorsque et sinon. La densité d'un tel VR peut s'écrirenI{xM}IM(x)1xM0

fX(x)=fX(x)[1IM(x)]+P(XM)IM(x)
et donc la fonction de densité conjointe de telles variables iid estn

fX(Xθ)=i=1n[fX(xi)[1IM(xi)]+P(XiM)IM(xi)]

Maintenant, ce qui précède vu comme une fonction de vraisemblance, l'échantillon réel constitué de réalisations de ces variables aléatoires entre en jeu. Et dans cet échantillon, certaines réalisations observées seront inférieures au seuil , certaines égales. Notons le nombre de réalisations dans l'échantillon égal à , et tout le reste, . Il est immédiat que pour les réalisations, la partie correspondante de la densité qui restera vraisemblablement sera la partie , tandis que pour les réalisations, l'autre partie. alorsnMmMvm+v=nmP(XiM)v

L(θ{xi;i=1,...n})=i=1v[fX(xi)]j=1m[P(XjM)]=i=1v[fX(xi)][P(XM)]m

Je vous remercie. J'apprécie beaucoup la réponse. Je suppose que mon principal problème est le premier point de la section b) ... c'est-à-dire comment la "deuxième branche" du pdf est définie. C'est un pmf discret et ne définit pas vraiment un pdf à partir de la définition d'un pdf. Cette section pourrait-elle être expliquée plus en détail? Merci beaucoup.
Delvesy

Ces variables aléatoires sont dites de "type mixte", c'est-à-dire qu'elles sont en partie continues et en partie discrètes. Intuitivement, cela a un sens évident, comme le montrent vos questions. Pour un traitement rigoureux, recherchez «variables aléatoires de type mixte» ou «distributions de type mixte». Ne les confondez pas avec des "mélanges".
Alecos Papadopoulos

4

La théorie de la vraisemblance est un cadre assez général. La plupart des manuels donnent des résultats pour les cas séparés de r.vs continus et pour ceux de r.vs. discrets Cependant, des cas mixtes se produisent dans la pratique, comme c'est le cas ici.

Pour un RV discret , la probabilité d'une observation est définie comme la probabilité d'obtenir la valeur observée , disons . Pour un rv continu, la probabilité est généralement définie comme la densité en , disons . Cependant, dans la pratique, on sait seulement que - en raison d'une précision de mesure limitée, et doit être utilisé comme vraisemblance. En prenant , avecAaapA(a)LxfX(x)xL<X<xUPr{xL<X<xU}xL:=xdx/2xU:=x+dx/2dxpetit, on obtient jusqu'à un multiplicatif qui n'a pas d'importance. La définition habituelle peut donc être considérée comme supposant implicitement une précision infinie sur l'observation.fX(x)dx

Pour un couple de r.vs et avec un type mixte mixte discret / continu, la probabilité sera la distribution conjointe, qui est généralement exprimée en utilisant des distributions conditionnelles, par exemple Ainsi, pour un intervalle de petite longueur , est fois la densité de conditionnelle à , disonsAX

L:=Pr{A=a,xL<X<xU}=Pr{A=a}×Pr{xL<X<xU|A=a}.
(xL,xU)dxLpA(a)X{A=a}fX|A(x|a). Encore une fois, nous omettons le terme .dx

Revenons maintenant à votre exemple et considérons une seule observation. Alors est un RV de Bernoulli avec une probabilité de succès . Selon ou non, que ce soit vous observez que ou vous observez les deux et la valeur de . Dans les deux cas, vous utilisez la formule ci-dessus, mais est pris soit comme soit comme un intervalle de petite longueur contenant . En effet, cela donne A=1{X>M}Pr{X>M}X>MA=1A=0xX(xL,xU)(M,)dxx

L={Pr{X>M}×1if X>M i.e. A=1,Pr{XM}×fX|A(x|a)dxif XM i.e. A=0.
Puisque , la vraisemblance est simplement dans le second cas et nous obtenons la vraisemblance revendiquée, jusqu'au terme pour une observation avec une précision infinie. Lorsque des observations indépendantes et sont faites, la vraisemblance est obtenue comme le produit des vraisemblances marginales conduisant à l'expression dans la question.fX|A(x|0)=fX(x)/Pr{XM}fX(x)dxdxAiXi
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.