Graph Attention Networks

Graph Neural Networks
Juil 2018

Graph Attention Networks

Juil 2018

Nous présentons des réseaux d’attention de graphes (GATs), de nouvelles architectures de réseau de neurones fonctionnant sur des données structurées en graphes, en exploitant des couches d’attention masquée pour remédier aux lacunes des méthodes antérieures basées sur les convolutions de graphes ou leurs approximations. En empilant des couches dans lesquelles les nœuds peuvent suivre les fonctions de leurs voisins, nous permettons de spécifier (implicitement) différentes pondérations pour différents nœuds dans un voisinage, sans nécessiter aucune opération coûteuse de la matrice (telle que l’inversion) ou dépendre de la connaissance de la structure du graphe dès le départ. De cette manière, nous relevons simultanément plusieurs défis clés liés aux réseaux de neurones graphiques à base spectrale et rendons notre modèle facilement applicable aux problèmes inductifs et transductifs. Nos modèles GAT ont permis d’atteindre ou d’assortir des résultats à la pointe de la technologie selon quatre critères bien établis de graphes transductifs et inductifs: les jeux de données du réseau de citations Cora, Citeseer et Pubmed, ainsi qu’un jeu de données d’interaction protéine-protéine (les graphiques de test restant invisibles durant l’entraînement).

Reference

Veličković, P., Cucurull, G., Casanova, A., Romero, A., Liò, P. and Bengio, Y. (2018) Graph Attention Networks. The 6th International Conference on Learning Representations (ICLR 2018).

PDF

Source code

Linked Profiles