Lors du lancement de son application de génération de vidéos IA Sora, OpenAI avait initialement opté pour une politique d'opt-out où les détenteurs de droits devaient explicitement refuser l'utilisation de leurs personnages. Cette approche a rapidement montré ses limites avec l'apparition de contenus controversés comme des versions nazies de SpongeBob, des Pikachu criminels ou des deepfakes philosophiques de Rick et Morty. Face à cette situation, Sam Altman, le PDG d'OpenAI, a annoncé un revirement complet de la politique, passant à un système où les détenteurs de droits décident activement de l'utilisation de leurs contenus.
Altman a reconnu que l'entreprise n'avait pas anticipé l'ampleur des réactions négatives, expliquant que la réalité s'est avérée différente des projections théoriques. Bien que certains détenteurs de droits se soient montrés enthousiastes, ils réclament davantage de contrôles, d'autant plus que Sora a connu une adoption extrêmement rapide, dépassant les prévisions d'OpenAI. L'entreprise travaille désormais à renforcer les garde-fous, notamment en améliorant la visibilité du watermark et en permettant aux utilisateurs de spécifier des restrictions d'utilisation pour leurs cameos numériques.
La question de la sécurité et de la prévention des abus reste préoccupante, avec des outils de suppression de watermark déjà disponibles en ligne et des contournements des restrictions existantes. Altman considère cette période comme une opportunité d'apprentissage pour la société face aux capacités croissantes de génération vidéo IA, tout en reconnaissant les défis à venir. Malgré les difficultés initiales, l'adoption de Sora a été plus intense que celle de ChatGPT, soulignant selon Greg Brockman le besoin croissant en puissance de calcul pour soutenir ces technologies émergentes.