TensorFlow 2.13 et Keras 2.13 ont été publiés avec plusieurs améliorations significatives. Parmi les principales nouveautés, on trouve la publication des Apple Silicon wheels, permettant une utilisation optimisée de TensorFlow sur les Mac équipés de puces Apple Silicon. Cette version inclut également des améliorations pour TensorFlow Lite, telles que l'option de désactivation du clustering des délégués et l'extension de la prise en charge de la quantification 16x8 pour plusieurs opérations. De plus, tf.data bénéficie de nouvelles fonctionnalités, comme le support du zippage de style Python et le shuffling complet des données, ainsi qu'une nouvelle transformation pour le padding des datasets. Enfin, le format de sauvegarde Keras V3 devient le format par défaut pour les fichiers .keras, offrant un format plus léger, plus rapide et plus lisible pour la sauvegarde et le rechargement des modèles. Cette version apporte également des améliorations pour les utilisateurs de CPU avec le support du mode mathématique BF16 de oneDNN, permettant des calculs plus rapides avec une conversion implicite des tenseurs FP32 en BF16. Les améliorations pour TensorFlow Lite incluent également une meilleure couverture des types de données entiers, avec le support de int16, int8 et int32 pour diverses opérations. Ces mises à jour visent à améliorer les performances, la facilité d'utilisation et la flexibilité de TensorFlow et Keras pour les développeurs et les chercheurs en apprentissage automatique.