Les réseaux de neurones demeurent extrêmement vulnérables aux exemples adverses, malgré leurs progrès rapides, et l'entraînement antagoniste (AT) constitue actuellement la défense la plus efficace contre ces attaques. Cependant, les applications pratiques de l'AT révèlent deux limitations majeures : une dégradation significative de la précision naturelle par rapport à l'entraînement standard, et une faible capacité de transfert de la robustesse entre des attaques conçues sous différentes contraintes de norme. Contrairement aux travaux antérieurs qui tentent de résoudre uniquement l'un de ces problèmes au sein d'un même réseau, cette étude propose de partitionner l'objectif global de généralisation en plusieurs sous-tâches, chacune assignée à un apprenant de base dédié.

En se spécialisant dans son objectif désigné, chaque apprenant de base devient rapidement un expert dans son domaine. Dans les phases ultérieures de l'entraînement, les paramètres de ces apprenants sont interpolés pour former un apprenant global informé, tandis qu'une redistribution périodique des paramètres globaux vers les apprenants de base empêche leurs trajectoires d'optimisation de s'éloigner excessivement de la cible partagée. Ce cadre, nommé Generalist, est décliné en trois variantes adaptées à différents scénarios applicatifs.

L'analyse théorique et les expérimentations approfondies démontrent que Generalist atteint une erreur de généralisation plus faible et atténue significativement les problèmes de compromis par rapport aux méthodes de référence. Les résultats suggèrent que Generalist représente une étape prometteuse vers le développement de classificateurs entièrement robustes à l'avenir, en abordant simultanément les défis de la précision naturelle et du transfert de robustesse.