Que signifie le terme «préalable» dans l'apprentissage automatique


12

Je suis nouveau dans l'apprentissage automatique. J'ai lu plusieurs articles dans lesquels ils ont utilisé l'apprentissage en profondeur pour diverses applications et j'ai utilisé le terme "avant" dans la plupart des cas de conception de modèle, disons avant dans l'estimation de la pose du corps humain. Quelqu'un peut-il expliquer ce que cela signifie réellement. Je n'ai pu trouver la formulation mathématique des antérieurs et postérieurs que dans les tutoriels.


5
C'est un concept mathématique donc, oui, il est formulé mathématiquement. Cependant, la page Wikipedia semble donner beaucoup d'intuition. L'avez-vous vérifié? Si oui, pourriez-vous en dire plus sur ce que vous n'avez pas compris et ce que vous recherchez dans une réponse?
David Richerby

@David Richerby . Merci pour votre réponse. Oui, j'avais vérifié cette page wikipedia et je pouvais recueillir une vague idée que c'était quelque chose sur les connaissances ou les informations sur une variable. J'avais lu des articles sur l'estimation de la posture du corps où il y avait des mentions de prieurs de posture du corps, des antécédents cinématiques du corps, de la modélisation des priors sur la pose humaine 3D, des priors d'apprentissage, avant d'estimer la pose humaine 3D. Je ne pouvais pas comprendre clairement ce que le terme "avant" signifie réellement dans ce contexte.
Amy

Réponses:


13

En termes simples et sans aucun symbole mathématique, a priori signifie des croyances initiales sur un événement en termes de distribution de probabilité . Vous configurez ensuite une expérience et obtenez des données, puis vous «mettez à jour» votre croyance (et donc la distribution de probabilité) en fonction du résultat de l'expérience (la distribution de probabilité a posteriori).

Exemple: Supposons que l'on nous donne deux pièces. Mais nous ne savons pas quelle pièce est fausse. La pièce 1 est impartiale (les TÊTES et les QUEUES ont une probabilité de 50%), et la pièce 2 est biaisée, disons, nous savons qu'elle donne des TÊTES avec une probabilité de 60%. Mathématiquement:

Étant donné que nous avons des TÊTES, la probabilité qu'il s'agisse de la pièce 1 est de 0,4 et la probabilité qu'il s'agisse de la pièce 2 est de 0,6

p(H|Coin1)=0.4
p(H|Coin2)=0.6

C'est tout ce que nous savons avant de mettre en place une expérience.

Maintenant, nous allons choisir une pièce pour la lancer, et sur la base des informations que nous avons (H ou T), nous allons deviner quelle pièce nous avons choisie (pièce 1 ou pièce 2).

Initialement, nous supposons que deux pièces ont des chances égales, car nous n'avons pas encore d'informations. C'est notre prieur . C'est une distribution uniforme .p(Coin1)=p(Coin2)=0.5

Maintenant, nous prenons au hasard une pièce, la lançons et avons une TÊTE. En ce moment, tout se passe. Nous calculons la probabilité / distribution postérieure en utilisant la formule bayésienne:

p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4

p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6

Donc, initialement, nous avions probabilité de pour chaque pièce, mais maintenant, après l'expérience, nos croyances ont changé, nous pensons maintenant que la pièce est la pièce 1 avec une probabilité de 0,4 et qu'elle est la pièce 2 avec une probabilité de 0,6. Voici notre distribution postérieure, la distribution de Bernoulli .0.5

C'est le principe de base de l'inférence bayésienne et des statistiques utilisées dans l'apprentissage automatique.


2
Vous devez corriger l'exemple ci-dessus. Ce calcul montre que les deux pièces sont biaisées (la première avec une probabilité de têtes de 40% et la seconde avec une probabilité de têtes de 60%) Dans le cas où la première est biaisée, il s'agit toujours d'une distribution de Bernoulli mais avec des probabilités P (Coin1 | H) = 5/11 et P (Coin2 | H) =
6/11

1
Si «Étant donné que nous avons des TÊTES, la probabilité qu'il s'agisse de la Pièce 1 est de 0,4» devrait être réécrit comme «Étant donné que nous avons la Pièce 1, la probabilité qu'il s'agisse de TÊTES est de 0,4» ?
Mateen Ulhaq

L'explication n'explique pas en termes d'apprentissage automatique.
user3023715
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.