J'ai du mal à faire le lien mathématique entre un réseau de neurones et un modèle graphique.
Dans les modèles graphiques, l'idée est simple: la distribution de probabilité factorise en fonction des cliques du graphique, les potentiels étant généralement de la famille exponentielle.
Existe-t-il un raisonnement équivalent pour un réseau de neurones? Peut-on exprimer la distribution de probabilité sur les unités (variables) dans une machine Boltzmann restreinte ou un CNN en fonction de leur énergie, ou le produit des énergies entre unités?
De plus, la distribution de probabilité est-elle modélisée par un RBM ou un réseau de croyances profondes (par exemple avec des CNN) de la famille exponentielle?
J'espère trouver un texte qui formalise la connexion entre ces types modernes de réseaux de neurones et les statistiques de la même manière que Jordan et Wainwright l'ont fait pour les modèles graphiques avec leurs modèles graphiques, leurs familles exponentielles et leur inférence variationnelle . Tout pointeur serait génial.
"using deep nets as factors in an MRF"
), mais plus sur la façon de regarder un filet profond comme un graphique de facteurs probabilistes. Quand Yann LeCun dit "of course deep Boltzmann Machines are a form of probabilistic factor graph themselves"
, je suis intéressé à voir cette connexion mathématiquement.
https://distill.pub/2017/feature-visualization/
( Comment les réseaux de neurones construisent leur compréhension des images ), en ce qu'une image complexe a des objets composants représentés par des nœuds de couche cachés. Les poids peuvent «altérer» la «topologie» de manière non discrète. Bien que je ne l'ai pas vu, certaines méthodes pourraient inclure des facteurs de retrait pour supprimer les bords et donc changer la topologie d'origine