Cet article explore l'implémentation des réseaux de neurones convolutifs (CNN) sur des FPGA, une solution prometteuse pour réduire la latence et améliorer l'efficacité énergétique par rapport aux GPU. Les auteurs soulignent la complexité de ce processus en raison des connaissances matérielles requises et des longues étapes de synthèse, de placement et de routage, qui ralentissent les cycles de conception et rendent l'optimisation des ressources particulièrement difficile sous des contraintes sévères. Pour surmonter ces défis, l'article propose une bibliothèque de blocs de convolution configurables conçus pour optimiser l'implémentation sur FPGA et s'adapter aux ressources disponibles. De plus, il présente un cadre méthodologique pour développer des modèles mathématiques capables de prédire l'utilisation des ressources FPGA. L'approche est validée par l'analyse de la corrélation entre les paramètres, suivie de métriques d'erreur. Les résultats montrent que les blocs conçus permettent l'adaptation des couches de convolution aux contraintes matérielles et que les modèles prédisent avec précision la consommation des ressources, offrant un outil utile pour la sélection des FPGA et le déploiement optimisé des CNN. Cette étude a été présentée lors du XXXe Colloque Francophone de Traitement du Signal et des Images (GRETSI) en août 2025 à Strasbourg, France. Les sujets abordés incluent l'architecture matérielle, l'intelligence artificielle et les calculs neuronaux et évolutifs.