Lors de sa conférence annuelle Max, Adobe a présenté plusieurs outils expérimentaux basés sur l’intelligence artificielle, conçus pour révolutionner l’édition de contenus visuels et audio. Parmi ces innovations, baptisées « sneaks », certaines se distinguent par leur capacité à simplifier des tâches autrefois complexes, tout en offrant un niveau de précision et de réalisme remarquable.
Le projet Frame Forward illustre cette avancée en permettant de modifier une vidéo entière à partir d’une seule image. Contrairement aux méthodes traditionnelles qui exigent des masques fastidieux pour isoler des éléments, cet outil identifie automatiquement un objet ou une personne dans le premier cadre, puis applique les modifications — suppression, ajout ou remplacement — à l’ensemble de la séquence. Par exemple, une démonstration montre une femme retirée d’une vidéo et remplacée par un arrière-plan cohérent, généré par IA, comme le ferait l’outil Remplissage basé sur le contenu de Photoshop. Plus impressionnant encore, il est possible d’insérer des éléments en les dessinant et en les décrivant via des invites textuelles : un exemple présente une flaque d’eau ajoutée qui reflète naturellement les mouvements d’un chat déjà présent dans la scène, prouvant une compréhension contextuelle avancée.
Un autre outil, Project Light Touch, exploite l’IA générative pour manipuler dynamiquement les sources lumineuses dans des photographies. Les utilisateurs peuvent rediriger la lumière, simuler l’allumage de lampes absentes dans l’image originale, ou ajuster la diffusion des ombres et des reflets en temps réel. La démonstration inclut des effets spectaculaires, comme l’illumination interne d’une citrouille ou la transformation d’un environnement diurne en scène nocturne, avec la possibilité de modifier la teinte des lumières pour créer des ambiances variées, allant d’un éclairage chaud à des effets RGB vibrants. Cette flexibilité ouvre des perspectives inédites pour les photographes et les designers, leur permettant de retravailler l’atmosphère d’une image sans contraintes techniques.
Dans le domaine audio, Project Clean Take se révèle particulièrement utile pour les monteurs et podcasteurs. Cet outil permet de corriger des prononciations, de modifier l’intonation ou l’émotion d’une voix — rendant un locuteur plus joyeux ou interrogatif — ou même de remplacer des mots entiers, le tout en conservant les caractéristiques vocales originales. Il isole également les bruits de fond pour les supprimer ou les ajuster sélectivement, améliorant ainsi la clarté du discours sans nécessiter de nouvel enregistrement. Ces fonctionnalités s’ajoutent à d’autres projets présentés, comme Surface Swap, qui change instantanément les textures des objets, Turn Style, qui permet de faire pivoter des éléments en 2D comme s’ils étaient en 3D, ou New Depths, qui édite les photos en tenant compte de la profondeur pour intégrer des objets de manière réaliste, partiellement cachés par l’environnement.
Bien que ces outils ne soient pas encore accessibles au public et que leur intégration future dans la suite Creative Cloud ou Firefly ne soit pas garantie, plusieurs fonctionnalités phares d’Adobe, comme les outils de suppression des distractions ou d’harmonisation dans Photoshop, ont débuté sous forme de « sneaks ». Leur potentiel laisse entrevoir une démocratisation de techniques autrefois réservées aux experts, tout en soulevant des questions sur les limites éthiques et créatives de l’IA dans la manipulation de médias. Ces innovations pourraient, à terme, transformer radicalement les workflows des professionnels de l’image et du son.