Questions marquées «probability»

Une probabilité fournit une description quantitative de l'occurrence probable d'un événement particulier.

3
Pourquoi le facteur de normalisation est requis dans le théorème de Bayes?
Le théorème de Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Tout va bien. Mais, j'ai lu quelque part: Fondamentalement, P (données) n'est rien d'autre qu'une constante de normalisation, c'est-à-dire une constante qui fait que la densité postérieure s'intègre à une. Nous savons que 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 1 et …



3
Intuition pour l'attente conditionnelle de -algebra
Soit un espace de probabilité, étant donné une variable aléatoire et une -algebra nous pouvons construire une nouvelle variable aléatoire , qui est l'espérance conditionnelle.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ |G ]E[ξ|G]E[\xi|\mathscr{G}] Quelle est …



5
Quand le théorème de la limite centrale et la loi des grands nombres ne sont pas d'accord
Il s'agit essentiellement d'une réplication d' une question que j'ai trouvée sur math.se , qui n'a pas obtenu les réponses que j'espérais. Soit une séquence de variables aléatoires indépendantes et distribuées de manière identique, avec et .{Xi}i∈N{Xi}i∈N\{ X_i \}_{i \in \mathbb{N}}V [ X i ] = 1E[Xi]=1E[Xi]=1\mathbb{E}[X_i] = 1V[Xi]=1V[Xi]=1\mathbb{V}[X_i] = …




2
Comment prédire quand le prochain événement se produit, en fonction des heures des événements précédents?
Je suis un lycéen et je travaille sur un projet de programmation informatique, mais je n'ai pas beaucoup d'expérience en statistique et en modélisation de données au-delà d'un cours de statistique au lycée donc je suis un peu confus. Fondamentalement, j'ai une liste raisonnablement longue (supposons qu'elle soit suffisamment grande …



4
Motivation théorique pour utiliser log-vraisemblance vs vraisemblance
J'essaie de comprendre à un niveau plus profond l'ubiquité du log-vraisemblance (et peut-être plus généralement log-probabilités) dans les statistiques et la théorie des probabilités. Les probabilités logarithmiques apparaissent partout: nous travaillons généralement avec la vraisemblance logarithmique pour l'analyse (par exemple pour la maximisation), les informations de Fisher sont définies en …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.