Une variable aléatoire ou variable stochastique est une valeur qui est sujette à une variation aléatoire (c.-à-d. Le caractère aléatoire au sens mathématique).
La variable aléatoire est définie comme une fonction mesurable d'une algèbre σ ( Ω 1 , F 1 ) avec la mesure sous-jacente P à une autre algèbre σ ( Ω 2 , F 2 ) .XXXσσ\sigma(Ω1,F1)(Ω1,F1)(\Omega_1, \mathcal F_1)PPPσσ\sigma(Ω2,F2)(Ω2,F2)(\Omega_2, \mathcal F_2) Comment parler d'un échantillon de cette variable aléatoire? La …
Je suis tombé sur cette dérivation que je ne comprends pas: si sont des échantillons aléatoires de taille n pris dans une population de moyenne et de variance , alorsX1,X2,...,XnX1,X2,...,XnX_1, X_2, ..., X_nμμ\muσ2σ2\sigma^2 X¯=(X1+X2+...+Xn)/nX¯=(X1+X2+...+Xn)/n\bar{X} = (X_1 + X_2 + ... + X_n)/n E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(\bar{X}) = E(X_1 + X_2 + ... + …
L'un des problèmes de mon manuel se pose comme suit. Un vecteur continu stochastique bidimensionnel a la fonction de densité suivante: FX, Y( x , y) = { 15 x y20si 0 <x <1 et 0 <y <xautrementfX,Y(x,y)={15xy2if 0 < x < 1 and 0 < y < x0otherwise f_{X,Y}(x,y)= …
Souvent, dans les articles de recherche que vous lisez, les chercheurs ont contrôlé certaines variables. Cela peut être fait par des méthodes telles que l'appariement, le blocage, etc. Mais j'ai toujours pensé que le contrôle des variables était quelque chose qui se faisait statistiquement en mesurant plusieurs variables qui pouvaient …
Soit et Y deux variables aléatoires indépendantes ayant la même distribution uniforme de densitéXXXOuiYYU( 0 , 1 )U(0,1)U(0,1) F( x ) = 1f(x)=1f(x)=1 si (et ailleurs).00 ≤ x ≤ 10≤x≤10≤x≤1000 Soit une vraie variable aléatoire définie par:ZZZ Z= X- OuiZ=X−YZ=X-Y si (et ailleurs).0X> YX>YX>Y000 Dériver la distribution de .ZZZ Calculez …
Supposons que et sont des variables aléatoires géométriques indépendantes avec le paramètre . Quelle est la probabilité que ?X1X1X_1X2X2X_2pppX1≥X2X1≥X2X_1 \geq X_2 Je suis confus à propos de cette question car on ne nous dit rien sur et part leur géométrie. Ne serait-ce pas parce que et peuvent être n'importe quoi …
Est-il possible que le PDF de la différence de deux iid rv ressemble à un rectangle (au lieu, disons, du triangle que nous obtenons si les rv sont tirés de la distribution uniforme). c'est-à-dire est-il possible que le PDF f de jk (pour deux iid rv pris dans une distribution) …
Un pdf est généralement écrit comme , où le minuscule est traité comme une réalisation ou un résultat de la variable aléatoire qui a ce pdf. De même, un cdf est écrit comme , qui a la signification . Cependant, dans certaines circonstances, telles que la définition de la fonction …
Si , trouvez la distribution de .X∼C(0,1)X∼C(0,1)X\sim\mathcal C(0,1)Y=2X1−X2Y=2X1−X2Y=\frac{2X}{1-X^2} Nous avonsFY(y)=Pr(Y≤y)FY(y)=Pr(Y≤y)F_Y(y)=\mathrm{Pr}(Y\le y) =Pr(2X1−X2≤y)=Pr(2X1−X2≤y)\qquad\qquad\qquad=\mathrm{Pr}\left(\frac{2X}{1-X^2}\le y\right) =⎧⎩⎨⎪⎪⎪⎪⎪⎪Pr(X∈(−∞,−1−1+y2√y])+Pr(X∈(−1,−1+1+y2√y]),ify>0Pr(X∈(−1,−1+1+y2√y])+Pr(X∈(1,−1−1+y2√y]),ify<0={Pr(X∈(−∞,−1−1+y2y])+Pr(X∈(−1,−1+1+y2y]),ify>0Pr(X∈(−1,−1+1+y2y])+Pr(X∈(1,−1−1+y2y]),ify<0\qquad\qquad=\begin{cases} \mathrm{Pr}\left(X\in\left(-\infty,\frac{-1-\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y>0\\ \mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(1,\frac{-1-\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y<0 \end{cases} Je me demande si la distinction de cas ci-dessus est correcte ou non. D'un autre côté, la méthode suivante semble plus simple: On peut écrire utilisant l'identité \ frac {2 \ …
T implique l'indépendance de et ?Cov(f(X),Y)=0∀f(.)Cov(f(X),Y)=0∀f(.)\mathbb{Cov} \left(f(X),Y\right) = 0 \; \forall \; f(.)XXXYYY Je ne suis au courant de la définition suivante de l' indépendance entre et .XXXYYY fx,y(x,y)=fx(x)fy(y)fx,y(x,y)=fx(x)fy(y) f_{x,y}(x,y) = f_x(x)f_y(y)
Soit IID et . Cela semble évident, mais j'ai du mal à le déduire formellement.ˉ X = ∑ n i = 1 X i E [ X iXiXiX_iX¯=∑ni=1XiX¯=∑i=1nXi\bar{X} = \sum_{i=1}^{n} X_iE[XiX¯]= ?E[XiX¯]= ? E\left[\frac{X_i}{\bar{X}}\right] = \ ?
Eh bien, nous ne pouvons pas, voir par exemple https://en.wikipedia.org/wiki/Subindependence pour un contre-exemple intéressant. Mais la vraie question est: existe-t-il un moyen de renforcer la condition pour que l'indépendance suive? Par exemple, existe-t-il un ensemble de fonctions sorte que si pour tout alors l'indépendance suit? Et, quelle taille doit avoir …
J'essaie de trouver la distribution de probabilité d'une somme d'un nombre aléatoire de variables qui ne sont pas distribuées de manière identique. Voici un exemple: John travaille dans un centre d'appels du service client. Il reçoit des appels avec des problèmes et essaie de les résoudre. Ceux qu'il ne peut …
Je m'intéresse à la construction de variables aléatoires pour lesquelles les inégalités de Markov ou Chebyshev sont serrées. Un exemple trivial est la variable aléatoire suivante. . Sa moyenne est nulle, la variance est 1 et P ( | X | ≥ 1 ) = 1 . Pour cette variable …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.