Equilibrium Propagation: Bridging the Gap between Energy-Based Models and Backpropagation

Bridging the Gap Between Deep Learning and Neuroscience
Juin 2018

Equilibrium Propagation: Bridging the Gap between Energy-Based Models and Backpropagation

Juin 2018

Nous introduisons Equilibrium Propagation, un cadre d’apprentissage pour les modèles basés sur l’énergie. Il ne s’agit que d’un seul type de calcul neuronal, effectué à la fois dans la première phase (lorsque la prédiction est faite) et dans la seconde phase de l’entraînement (après que la cible ou l’erreur de prédiction est révélée). Bien que cet algorithme calcule le gradient d’une fonction objectif de la même manière que la rétropropagation, il n’a pas besoin d’un calcul ou d’un circuit spécial pour la seconde phase, où les erreurs sont propagées implicitement. La propagation d’équilibre partage des similitudes avec l’apprentissage contrasté de Hebbian et la divergence contrastive tout en résolvant les problèmes théoriques des deux algorithmes: notre algorithme calcule le gradient d’une fonction objective bien définie. La fonction objectif étant définie en termes de perturbations locales, la deuxième phase de la propagation à l’équilibre correspond uniquement au décalage de la prédiction (distribution à point fixe ou stationnaire) vers une configuration réduisant l’erreur de prédiction. Dans le cas d’un réseau supervisé multicouche récurrent, les unités de sortie sont légèrement décalées vers leur cible dans la seconde phase, et la perturbation introduite au niveau de la couche de sortie se propage en arrière dans les couches cachées. Nous montrons que le signal «rétro-propagé» pendant cette seconde phase correspond à la propagation de dérivées d’erreur et code le gradient de la fonction objectif lorsque la mise à jour synaptique correspond à une forme standard de plasticité dépendant du pic de synchronisation. Ce travail rend le tout plus plausible qu’un mécanisme similaire à rétropropagation qui puisse être implémenté par les cerveaux, étant donné que le calcul neuronal par intégrateur en fuite effectue une inférence et une propagation en retour d’erreur dans notre modèle. La seule différence locale entre les deux phases est de savoir si les modifications synaptiques sont autorisées ou non. Nous avons également montré expérimentalement que des réseaux multicouches connectés de manière récurrente avec 1, 2 et 3 couches cachées peuvent être formés par la propagation d’équilibre sur la tâche MNIST invariante à la permutation.

Reference

Related Papers

Source code

https://github.com/bscellier/Towards-a-Biologically-Plausible-Backprop

Linked Profiles