Qu'est-ce que le Deep Bayesian Learning?


13

Qu'est-ce que le Deep Learning Bayésien et comment est-il lié aux statistiques bayésiennes traditionnelles et au Deep Learning traditionnel?

Quels sont les principaux concepts et mathématiques impliqués? Puis-je dire que ce sont juste des statistiques bayésiennes non paramétriques? Quels sont ses travaux phares ainsi que ses principaux développements et applications actuels?

PS: Le Bayesian Deep Learning suscite beaucoup d'attention, voir l'atelier NIPS.

Réponses:


10

En quittant le lien de votre atelier NIPS, Yee Whye Teh a prononcé un discours liminaire au NIPS sur le Bayesian Deep Learning (vidéo: https://www.youtube.com/watch?v=LVBvJsTr3rg , slides: http: //csml.stats. ox.ac.uk/news/2017-12-08-ywteh-breiman-lecture/). Je pense qu'à un certain moment de la conférence, Teh a résumé l'apprentissage profond bayésien en appliquant le cadre bayésien aux idées de l'apprentissage profond (comme l'apprentissage d'un postérieur sur les poids d'un réseau de neurones), et l'apprentissage bayésien profond en appliquant des idées de l'apprentissage profond à la Cadre bayésien (comme les processus gaussiens profonds ou les familles exponentielles profondes). Il existe bien sûr des idées qui chevauchent la ligne entre les deux concepts, comme les auto-encodeurs variationnels. Lorsque la plupart des gens parlent d'apprentissage approfondi bayésien, ils signifient généralement l'un des deux, et cela se reflète dans les articles acceptés lors de l'atelier que vous avez lié (avec l'atelier de l'année précédente). Alors que les idées remontent aux travaux de Neal sur l'apprentissage bayésien des réseaux de neurones dans les années 90 (http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.446.9306&rep=rep1&type=pdf ), et il y a eu des travaux au fil des ans depuis lors, probablement l'un des articles récents les plus importants serait le papier d'autoencodeur variationnel original ( https://arxiv.org/pdf/1312.6114.pdf ).


10

Je suggérerais que vous obteniez d'abord une bonne compréhension de ce qu'est le modèle probabiliste sous-jacent dans un réseau neuronal bayésien traditionnel. Dans ce qui suit, certains termes seront écrits en gras . S'il vous plaît, essayez de googler ces termes pour trouver des informations plus détaillées. Ceci est juste un aperçu de base. J'espère que ça aide.

Prenons le cas de la régression dans les réseaux de neurones à action directe et établissons une notation.

Soit désignent les valeurs des prédicteurs au niveau de la couche d'entrée . Les valeurs des unités dans les couches internes seront notées ( z ( ) 1 , , z ( ) N ) , pour(x1,,xp)=:(z1(0),,zN0(0))(z1(),,zN()) . Enfin, nous avons lacouche de sortie ( y 1 , , y k ) = : ( z ( L ) 1 , , z ( L ) N L ) .=1,,L1 (y1,,yk)=:(z1(L),,zNL(L))

Les poids et les biais de l'unité à la couche seront notés respectivement w ( ) i j et b ( ) i pour = 1 , , L , i = 1 , N et j = 1 , , N - 1 .jewjej()bje()=1,,Lje=1,Nj=1,,N-1

Soit la fonction d'activation de l'unité i à la couche , pour = 1 , , L et i = 1 , N .gje():RN-1Rje=1,,Lje=1,N

Les fonctions d'activation couramment utilisées sont la logistique , ReLU (aka partie positive ) et tanh .

Maintenant, pour , définissons les fonctions de transition de couche G ( ) : R N - 1R N : ( z ( - 1 ) 1 , , z ( - 1 ) N - 1 )( z ( ) 1 , , z (=1,,L dans laquelle z ( ) i=g ( ) i

g():RN-1RN:(z1(-1),,zN-1(-1))(z1(),,zN()),
pouri=1,, N .
zi()=gje()(j=1N-1wjej()zj(-1)+bje()),
je=1,,N

Notant l'ensemble des poids et des biais de toutes les unités dans toutes les couches par , c'est-à-dire θ = { w ( ) i j , b ( ) i : = 1 , , Lθ notre réseau neuronal est la famille de fonctions G θ : R pR k obtenue par composition des fonctions de transition de couche: G θ = G ( L )G ( L - 1 )G ( 1 ) .

θ={wjej(),bje():=1,,L;je=1,N;j=1,,N-1},
gθ:RpRk
gθ=g(L)g(L-1)g(1).

Il n'y a aucune probabilité impliquée dans la description ci-dessus. Le but de l'activité originale de réseau de neurones est l'ajustement de fonction .

Le «profond» dans le Deep Learning signifie l'existence de nombreuses couches internes dans les réseaux de neurones considérés.

{(xi,yi)Rp×Rk:i=1,,n}

i=1nyiGθ(xi)2,
θxGθ^(x)θ^comme pénalité à la fonction objectif, ou en utilisant l' abandon pendant l'entraînement. Geoffrey Hinton (alias Deep Learning Godfather) et ses collaborateurs ont inventé bon nombre de ces choses. Les réussites du Deep Learning sont partout.

Lx,y(θ,σ2)σnexp(12σ2i=1nyiGθ(xi)2),
π(θ,σ2)exp(-12σ02=1Lje=1N((bje())2+j=1N-1(wjej())2))×π(σ2).

Par conséquent, les a priori marginaux pour les poids et les biais sont des distributions normales avec une moyenne nulle et une variance commune σ02. Ce modèle commun original peut être beaucoup plus impliqué, avec le compromis de rendre l'inférence plus difficile.

Le Bayesian Deep Learning est confronté à la tâche difficile d'échantillonner à partir de la distribution postérieure correspondante. Après cela, les prédictions sont faites naturellement avec la distribution prédictive postérieure , et les incertitudes impliquées dans ces prédictions sont entièrement quantifiées. Le Saint Graal dans le Bayesian Deep Learning est la construction d'une solution efficace et évolutive. De nombreuses méthodes de calcul ont été utilisées dans cette quête: l' échantillonnage de Metropolis-Hastings et Gibbs , l' hamiltonien de Monte Carlo et, plus récemment, l' inférence variationnelle .

Consultez les vidéos de la conférence NIPS pour quelques exemples de réussite: http://bayesiandeeplearning.org/

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.