Cette étude développe un cadre d'apprentissage profond non supervisé pour l'optimisation du beamforming en liaison descendante dans les canaux MU-MISO à grande échelle. Le modèle, basé sur l'architecture Transformer, est entraîné hors ligne pour permettre une inférence en temps réel via des calculs feedforward légers, s'adaptant ainsi aux environnements de communication dynamiques. Suivant le paradigme d'apprentissage pour l'optimisation (L2O), un Transformer multicouche affine itérativement les caractéristiques du canal et du beamformer grâce à des connexions résiduelles, améliorant ainsi la stabilité et l'efficacité de l'optimisation.

Pour renforcer la formation du modèle, trois stratégies innovantes sont introduites : l'apprentissage curriculaire (CL) améliore la convergence en phase initiale et évite les optima locaux, l'apprentissage semi-amorti affine chaque bloc Transformer avec quelques étapes d'ascension de gradient, et l'entraînement par fenêtre glissante stabilise l'optimisation en ne formant qu'un sous-ensemble de blocs à la fois. Ces approches combinées permettent au modèle de généraliser efficacement tout en réduisant les risques de surajustement et en accélérant le processus d'apprentissage.

Les simulations extensives démontrent que la méthode proposée surpasse les approches de référence aux rapports signal-bruit faibles à moyens et s'approche étroitement des performances de l'algorithme WMMSE aux rapports signal-bruit élevés. De plus, elle atteint une vitesse d'inférence substantiellement plus rapide que les méthodes itératives et d'apprentissage en ligne, ce qui la rend particulièrement adaptée aux applications nécessitant un traitement en temps réel dans les systèmes de communication modernes.