Cette recherche aborde le problème de la vérification des réseaux de neurones exécutés sur du matériel non contrôlé par l'utilisateur, comme les GPU cloud ou les plateformes d'inférence, où les résultats peuvent être altérés sans que l'utilisateur ne s'en rende compte. Les auteurs présentent NAO, un protocole de vérification optimiste qui accepte les résultats dans des régions de tolérance définies au niveau des opérateurs, plutôt que d'exiger une égalité bit à bit. NAO combine deux modèles d'erreur : des bornes pessimistes par opérateur selon la norme IEEE-754 et des profils empiriques serrés calibrés sur différents matériels. En cas de divergence, un jeu de dispute guidé par des seuils est déclenché, partitionnant récursivement le graphe de calcul jusqu'à ce qu'un seul opérateur reste, où l'arbitrage se réduit à une vérification légère des bornes théoriques ou à un vote majoritaire honnête contre les seuils empiriques. Les résultats non contestés sont finalisés après une fenêtre de contestation, sans nécessiter de matériel de confiance ou de noyaux déterministes. Le protocole est implémenté comme un runtime compatible PyTorch et une couche de contrat déployée sur le testnet Ethereum Holesky, avec un surcoût négligeable de 0,3 % sur des modèles comme Qwen3-8B. Les seuils empiriques sont 100 à 1000 fois plus serrés que les bornes théoriques, et les attaques adverses conscientes des bornes atteignent un taux de réussite de 0 %. Cette approche permet de concilier scalabilité et vérifiabilité pour le calcul ML hétérogène dans le monde réel. Les expériences menées sur des modèles variés, tels que les CNNs, les Transformers et les modèles de diffusion, montrent que NAO est efficace et robuste face aux attaques adverses, tout en maintenant une faible latence. Le protocole est conçu pour être compatible avec les infrastructures existantes, facilitant son adoption dans des environnements de production.