Il s'agit essentiellement d'une réplication d' une question que j'ai trouvée sur math.se , qui n'a pas obtenu les réponses que j'espérais. Soit une séquence de variables aléatoires indépendantes et distribuées de manière identique, avec et .{Xi}i∈N{Xi}i∈N\{ X_i \}_{i \in \mathbb{N}}V [ X i ] = 1E[Xi]=1E[Xi]=1\mathbb{E}[X_i] = 1V[Xi]=1V[Xi]=1\mathbb{V}[X_i] = …
Nous sommes généralement initiés à la méthode des estimateurs de moments en «assimilant les moments de la population à leur homologue de l'échantillon» jusqu'à ce que nous ayons estimé tous les paramètres de la population; de sorte que, dans le cas d'une distribution normale, nous n'aurions besoin que des premier …
C'est la suite constructiviste de cette question . Si nous ne pouvons pas avoir une variable aléatoire uniforme discrète ayant comme support tous les rationnels dans l'intervalle , alors la meilleure chose suivante est: [0,1][0,1][0,1] Construisez une variable aléatoire qui a ce support, , et qui suit une certaine distribution. …
Je fais un master en statistique et on me conseille d'apprendre la géométrie différentielle. Je serais plus heureux d'entendre parler des applications statistiques de la géométrie différentielle car cela me motiverait. Quelqu'un connaît-il des applications de la géométrie différentielle en statistique?
J'ai un problème avec la preuve de E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] qui révèlent très probablement une incompréhension plus profonde des attentes et des attentes conditionnelles. La preuve que je connais va comme suit (une autre version de cette preuve peut être trouvée ici ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} …
Le texte de Wackerly et al énonce ce théorème "Soit et les fonctions génératrices de moments des variables aléatoires X et Y, respectivement. Si les deux fonctions génératrices de moments existent et pour toutes les valeurs de t, alors X et Y ont la même distribution de probabilité. " sans …
J'ai pensé à ce problème sous la douche, il a été inspiré par les stratégies d'investissement. Disons qu'il y avait un arbre d'argent magique. Chaque jour, vous pouvez offrir une somme d'argent à l'arbre monétaire et il la triplera ou la détruira avec une probabilité de 50/50. Vous remarquez immédiatement …
Il s'agit d'un traitement plus général de la question posée par cette question . Après avoir dérivé la distribution asymptotique de la variance de l'échantillon, nous pouvons appliquer la méthode Delta pour arriver à la distribution correspondante pour l'écart type. Soit un échantillon de taille de iid variables aléatoires non …
Existe-t-il une définition mathématique ou algorithmique du sur-ajustement? Les définitions souvent fournies sont le tracé 2D classique de points avec une ligne passant par chaque point et la courbe de perte de validation qui augmente soudainement. Mais y a-t-il une définition mathématiquement rigoureuse?
J'ai étudié les mathématiques il y a dix ans, j'ai donc une formation en mathématiques et en statistiques, mais cette question me tue. Cette question est encore un peu philosophique pour moi. Pourquoi les statisticiens ont-ils développé toutes sortes de techniques pour travailler avec des matrices aléatoires? Je veux dire, …
J'étudie les statistiques et je rencontre souvent des formules contenant le loget je suis toujours confus si je dois interpréter cela comme la signification standard de log, c'est-à-dire la base 10, ou si dans les statistiques le symbole log est généralement supposé être le logarithme naturel ln. J'étudie en particulier …
Laissez et , . Quelle est l'attente de comme ?X1∼U[0,1]X1∼U[0,1]X_1 \sim U[0,1]Xi∼U[Xi−1,1]Xi∼U[Xi−1,1]X_i \sim U[X_{i - 1}, 1]i=2,3,...i=2,3,...i = 2, 3,...X1X2⋯XnX1X2⋯XnX_1 X_2 \cdots X_nn→∞n→∞n \rightarrow \infty
La question a déjà été soulevée, mais je veux poser une question spécifique qui tentera d'obtenir une réponse qui la clarifiera (et la classera): Dans "Poor Man's Asymptotics", on garde une distinction claire entre (a) une séquence de variables aléatoires qui converge en probabilité vers une constante contrairement à (b) …
J'espérais que quelqu'un pourrait proposer un argument expliquant pourquoi les variables aléatoires et , ayant la distribution normale standard, sont statistiquement indépendantes. La preuve de ce fait découle facilement de la technique MGF, mais je la trouve extrêmement contre-intuitive.Y 2 = X 1 + X 2 X iOui1= X2- X1Y1=X2−X1Y_1=X_2-X_1Oui2= …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.