L'estimation conjointe utilise des données pour estimer deux paramètres ou plus en même temps. Une estimation séparée évalue chaque paramètre un par un.
L'estimation est le résultat d'une certaine forme de processus d'optimisation. Pour cette raison, il n'existe pas de solutions d'estimation uniques en statistique. Si vous changez votre objectif, vous changez ce qui est optimal. Lorsque vous apprenez des choses telles que la régression, personne ne vous dit pourquoi vous faites ce que vous faites. L'objectif de l'instructeur est de vous donner un certain degré de fonctionnalité de base en utilisant des méthodes qui fonctionnent dans un large éventail de circonstances. Au début, vous n'apprenez pas la régression. Au lieu de cela, vous apprenez une ou deux méthodes de régression qui sont largement applicables dans un large éventail de circonstances.
Le fait que vous recherchiez des solutions qui résolvent un objectif caché le rend un peu difficile à comprendre.
z= βXx + βyy+ α
z( x , y){ βX, βy, α }{ x , y, z}
Dans une estimation distincte, vous estimeriez un paramètre à la fois. Dans l'estimation conjointe, vous les estimeriez tous en même temps.
Xzyy
XzXzz= βXx + αz= βyy+ α
Maintenant, comment cela se fait. Toute estimation, à l'exception de quelques cas exceptionnels, utilise le calcul pour trouver un estimateur qui minimise une certaine forme de perte ou un certain type de risque. Le souci est que vous n'aurez pas de chance dans le choix de votre échantillon. Malheureusement, il existe un nombre infini de fonctions de perte. Il existe également un nombre infini de fonctions de risque.
J'ai trouvé plusieurs vidéos pour vous car c'est un sujet géant pour que vous puissiez le regarder sous une forme plus générale. Ils viennent de Mathematical Monk.
https://www.youtube.com/watch?v=6GhSiM0frIk
https://www.youtube.com/watch?v=5SPm4TmYTX0
https://www.youtube.com/watch?v=b1GxZdFN6cY
et
https://www.youtube.com/watch?v=WdnP1gmb8Hw .