IA Google chercheur Bryan Perozzi et Qi Zhu, stagiaire en recherche, ont publié une étude qui offre une réponse pour l’utilisation des réseaux de neurones graphiques sur des ensembles de données biaisés. Intitulée « Shift-Robust GNNs: Overcoming the Limitations of Localized Graph Training Data », la recherche montre comment une nouvelle méthode peut mesurer les différences de distribution entre les données biaisées et la vraie distribution d’inférence d’un graphique. L’ampleur du décalage entre deux distributions de probabilité aide également à tenir compte de l’ampleur du biais.
Les modèles d’apprentissage automatique sont confrontés à des problèmes de généralisation à partir du biaisé données d’entraînement au fur et à mesure que le changement s’élargit. Cela affecte négativement la généralisabilité d’un modèle. Lorsque la précision d’un ensemble de données a été testée à l’aide d’une analyse statistique appelée le score F, il a été constaté que les changements de domaine entraînaient une diminution des performances de 15 à 20 %.
À mesure que le changement de distribution augmente, la précision de la classification de l’ensemble de données diminue, ce qui rend difficile la GNN généraliser les modèles car la différence entre l’ensemble de données d’apprentissage et l’ensemble de données de test augmente également. le étude indique que le décalage de distribution entre les données d’apprentissage et les données non étiquetées a été réduit à l’aide d’un régularisateur robuste. Cette technique évalue le changement de domaine pendant l’entraînement puis le pénalise. Cela oblige le modèle à ignorer autant que possible le biais d’entraînement.
Les résultats de la recherche ont montré que SR-GNN était plus efficace sur des ensembles de données d’entraînement biaisés et a battu RNB résultats en termes de précision. Il a également réduit l’impact négatif causé par des données biaisées de 30 à 40 %.