une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.
Supposons que nous ayons un modèle linéaire qui satisfait toutes les hypothèses de régression standard (Gauss-Markov). Nous nous intéressons à θ = 1 / β 1 .yje= β0+ β1Xje+ ϵjeyi=β0+β1xi+ϵiy_i = \beta_0 + \beta_1 x_i + \epsilon_iθ=1/β1θ=1/β1\theta = 1/\beta_1 Question 1: Quelles hypothèses sont nécessaires pour la distribution de θ …
J'ai besoin de faire une inférence sur un paramètre positif . Pour tenir compte de la positivité, j'ai reparamétrisé . En utilisant la routine MLE, j'ai calculé l'estimation ponctuelle et se pour . La propriété d'invariance du MLE me donne directement une estimation ponctuelle pour , mais je ne sais …
J'étudie actuellement la régression logistique. Mais je pas à calculer l'ordonnée à l'origine ( ) et le coefficient ( ). Je le cherchais sur Internet, mais je n'obtiens que des didacticiels utilisant Microsoft Excel ou des fonctions intégrées dans R. J'ai entendu dire qu'il pouvait être résolu par Maximum Lik …
Supposons que nous remplaçons la fonction de perte de la régression logistique (qui est normalement log-vraisemblance) par le MSE. Autrement dit, le rapport de cotes logarithmique doit toujours être une fonction linéaire des paramètres, mais minimiser la somme des différences au carré entre la probabilité estimée et le résultat (codé …
J'ai du mal à mettre en œuvre l'estimateur du maximum de vraisemblance pour un processus Hawkes multivarié (HP). Plus précisément, alors que l'expression analytique pour une fonction log-vraisemblance d'un HP univarié peut être trouvée facilement en ligne (par exemple Ozaki, 1979), il semble y avoir différentes versions (incohérentes ou équivalentes?) …
Considérons une réponse y et de la matrice de données X . Supposons que je crée un modèle de formulaire - y ~ g (X,θθ\theta) (g () pourrait être n'importe quelle fonction de X et θθ\theta) Maintenant, pour estimer θθ\thetaen utilisant la méthode du maximum de vraisemblance (ML), je pourrais …
Dans "L'apprentissage automatique: une perspective probabiliste" de Kevin Murphy, le chapitre 3.2, l'auteur montre l'apprentissage conceptuel bayésien sur un exemple appelé "jeu de nombres": Après avoir observé NNN des échantillons de {1,...,100}{1,...,100}\{1,...,100\}, nous voulons choisir une hypothèse qui décrit le mieux la règle qui a généré les échantillons. Par exemple, …
Cette question semble suffisamment fondamentale pour que je sois convaincue qu'il y ait une réponse ici quelque part, mais je ne l'ai pas trouvée. Je comprends que si la variable dépendante d'une régression est normalement distribuée, la probabilité maximale et les moindres carrés ordinaires produisent les mêmes estimations de paramètres. …
J'ai vu la justification suivante pour le test de Wald de l'hypothèse nulle pour un paramètre scalaire . Lorsque est le MLE pour estimé à partir d'un échantillon indépendant de taille , sous l'hypothèse nulle nous avons dans la distribution , où est l'information attendue pour une seule observation, évaluée …
J'essaie de comprendre la différence entre la Newton-Raphsontechnique et la Fisher scoringtechnique en calculant la première itération pour chaque méthode pour un Bernoulliéchantillon. (Je sais que dans ce cas, je peux calculer explicitement et immédiatement mais je veux le faire de manière itérative juste pour comprendre et voir comment chaque …
On m'a donné un tableau de et , qui sont tels que le nombre de indique un nombre d'enfants que tous les ont.x = ( 0 , 1 , 2 , 3 , 4 , 5 , 6 )x=(0,1,2,3,4,5,6)x=(0,1,2,3,4,5,6)y= ( 3062 , 587 , 284 , 103 , 33 , …
Dans un modèle d'équation structurelle, on utilise souvent l'estimateur ML. Dans le cas où les variables ne sont pas normales à plusieurs variables, ML peut-il être utilisé? Souvent, les indicateurs dont vous disposez pour travailler ne sont pas normaux à plusieurs variables. Je ne sais pas comment procéder dans ce …
J'ai trouvé que pour un modèle de régression linéaire simple, OLS et la méthode du maximum de vraisemblance (en supposant une distribution normale) donnent le même résultat (valeurs des paramètres). À partir de là, pouvons-nous dire que l'OLS fait également des hypothèses implicites sur la distribution normale ou vice-versa? Je …
Pourquoi un GLM prédit-il la moyenne et non le mode d'un signal? Cela ne contredit-il pas le fondement même du GLM, c'est-à-dire le maximum de vraisemblance? Les équations à résoudre pour les paramètres du modèle dans un GLM sont basées sur la maximisation de la vraisemblance comme décrit par la …
Je comprends où l'étape E se produit dans l'algorithme (comme expliqué dans la section mathématique ci-dessous). Dans mon esprit, l'ingéniosité clé de l'algorithme est l'utilisation de l'inégalité de Jensen pour créer une limite inférieure à la vraisemblance logarithmique. En ce sens, prendre le Expectationest simplement fait pour reformuler la probabilité …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.