Les réseaux de neurones graphiques (GNN) sont une technique puissante pour exploiter à la fois la connectivité des graphes et les caractéristiques des nœuds et des arêtes. Ils permettent de faire des prédictions pour des graphes entiers, des nœuds individuels ou des arêtes potentielles. TensorFlow GNN 1.0 est une bibliothèque testée en production pour construire des GNN à grande échelle, prenant en charge la modélisation, la formation et l'extraction de graphes à partir de grandes bases de données. Cette bibliothèque est conçue pour les graphes hétérogènes, où les types et les relations sont représentés par des ensembles distincts de nœuds et d'arêtes, reflétant mieux les objets du monde réel et leurs relations. Les graphes sont représentés par des objets de type tfgnn.GraphTensor, qui stockent à la fois la structure du graphe et ses caractéristiques attachées aux nœuds, aux arêtes et au graphe dans son ensemble. Les transformations entraînables des GraphTensors peuvent être définies comme des objets Layers dans l'API de haut niveau Keras, ou directement en utilisant la primitive tfgnn.GraphTensor. L'une des applications typiques de TF-GNN est la prédiction d'une propriété d'un certain type de nœud dans un graphe défini par des tables de référence croisée d'une énorme base de données. Par exemple, une base de données de citations d'articles arXiv en informatique avec des relations de citation un-à-plusieurs et plusieurs-à-un, où nous aimerions prédire le domaine de chaque article. Pour s'adapter à des millions d'exemples, le GNN est formé sur un flux de sous-graphes plus petits extraits du graphe sous-jacent. Chaque sous-graphe contient suffisamment de données d'origine pour calculer le résultat du GNN pour le nœud étiqueté au centre et former le modèle. Ce processus, généralement appelé échantillonnage de sous-graphes, est extrêmement important pour la formation des GNN. La plupart des outils existants réalisent l'échantillonnage de manière statique, produisant des sous-graphes statiques pour la formation. TF-GNN fournit des outils pour améliorer cela en échantillonnant dynamiquement et de manière interactive. TF-GNN 1.0 introduit une API Python flexible pour configurer l'échantillonnage dynamique ou par lots à toutes les échelles pertinentes : de manière interactive dans un notebook Colab, pour un échantillonnage efficace d'un petit ensemble de données stocké dans la mémoire principale d'un seul hôte de formation, ou distribué par Apache Beam pour de grands ensembles de données stockés sur un système de fichiers réseau (jusqu'à des centaines de millions de nœuds et des milliards d'arêtes).
Les réseaux de neurones graphiques dans TensorFlow
Points clés
- TensorFlow GNN 1.0 est une bibliothèque pour construire des réseaux de neurones graphiques à grande échelle.
- Elle prend en charge la modélisation, la formation et l'extraction de graphes à partir de grandes bases de données.
- TF-GNN est conçu pour les graphes hétérogènes, reflétant mieux les objets du monde réel et leurs relations.
- La bibliothèque offre des outils flexibles pour l'échantillonnage dynamique de sous-graphes.
- Les GNN peuvent faire des prédictions pour des graphes entiers, des nœuds individuels ou des arêtes potentielles.
Pourquoi c'est important
Les réseaux de neurones graphiques sont essentiels pour comprendre les relations complexes dans les données, et TensorFlow GNN 1.0 offre des outils puissants pour les implémenter à grande échelle, ce qui peut révolutionner des domaines comme la chimie, les réseaux sociaux et les systèmes de recommandation.
Article original : https://blog.tensorflow.org/2024/02/graph-neural-networks-in-tensorflow.html
Synthèse éditoriale issue d’une veille et d’outils d’IA. Des erreurs ou approximations peuvent subsister. Référez‑vous à la source originale et à notre disclaimer.