Abstract
Artificial Intelligence (AI) is reshaping communication practices, particularly in the field of institutional audiovisual production. Script generation, synthetic voices, animated avatars, automated editing, and image enhancement technologies are offering new opportunities for institutions aiming to modernize their image and optimize their content.
Based on an interdisciplinary literature, this article examines the evolving dynamics of creativity, efficiency, and accessibility, while reflecting on ethical and symbolic challenges.
It highlights the concrete contributions of AI, in terms of creativity, time efficiency, visual enhancement, and accessibility, while also identifying the limitations, challenges, and ethical concerns that may arise from its use.
Ultimately, this work aims to shed light on the growing role of AI in institutional video formats and to contribute to a broader reflection on the evolution of professional practices in the age of intelligent technologies.
Keywords: Artificial Intelligence, Audiovisual Production, Institutional Communication, Generative Tools, Hybrid Collaboration.
Introduction
L’intelligence artificielle (IA) s’invite aujourd’hui au cœur des processus créatifs, et plus particulièrement dans la production audiovisuelle institutionnelle, longtemps considérée comme un domaine technique, lent et coûteux. Cette transformation s’inscrit dans une dynamique plus large d’automatisation des pratiques communicationnelles, où la frontière entre création humaine et génération algorithmique devient de plus en plus floue.
L’IA désigne un ensemble de systèmes informatiques capables de simuler certaines fonctions cognitives humaines comme l’apprentissage, la perception ou la prise de décision. Dans le champ de la création de contenus, elle recouvre des technologies telles que le traitement automatique du langage naturel (ou Natural Language Processing, NLP), qui permet aux machines de comprendre et de produire du texte ; la reconnaissance visuelle, qui analyse les images ; ou encore la synthèse vocale, qui génère des voix à partir de texte.
Depuis les années 2010, l’essor du deep learning et l’accès à de vastes corpus de données ont permis l’émergence d’une IA dite générative : une branche capable de produire de nouveaux contenus (textes, images, vidéos, sons) à partir d’instructions humaines simples. Ces systèmes s’appuient sur des modèles tels que les transformers (utilisés notamment dans les grands modèles de langage) ou les réseaux antagonistes génératifs (GANs) pour concevoir du contenu original à grande vitesse (Goodfellow et al. 2014 ; LeCun, Bengio et Hinton 2015 ; Russell et Norvig 2021).
Avec l’émergence de ces IA génératives, capables de produire des scripts, des images animées, des voix de synthèse ou des montages, les institutions peuvent désormais concevoir des vidéos en quelques clics, à partir de simples textes ou consignes. Ce basculement technologique ne relève plus de la fiction : des plateformes comme Synthesia, Runway ML ou D-ID proposent des environnements intégrés dans lesquels l’utilisateur n’a plus besoin de caméra, de studio ni même d’intervenant humain (Anantrasirichai and Bull 2020 ; Xu 2025).
Ces dispositifs rencontrent un écho particulier dans le monde institutionnel, où les besoins en contenus pédagogiques, explicatifs ou événementiels sont constants, mais souvent contraints par des ressources humaines et budgétaires limitées. L’IA semble ici résoudre plusieurs problèmes : réduction des coûts de production, accélération des délais, génération multilingue et accessibilité accrue pour des publics éloignés ou en situation de handicap (CNC 2024). Elle apporte aussi une forme de neutralité visuelle et vocale qui convient aux standards de la communication publique.
Cependant, ces bénéfices apparents masquent des tensions profondes. Sur le plan créatif, l’usage d’outils automatisés interroge la valeur ajoutée humaine : que reste-t-il du rôle de l’auteur quand narration, voix et visages sont générés par une machine ? Sur le plan éthique, les vidéos produites par IA soulèvent des inquiétudes liées à l’authenticité, à la manipulation potentielle et à la disparition du travail visible. Enfin, sur le plan professionnel, ces technologies redessinent les compétences attendues dans les services communication : scénaristes, réalisateurs, techniciens sont appelés à repenser leur fonction dans un environnement algorithmique.
Dans ce contexte en mutation, cet article propose une synthèse critique des usages actuels de l’IA dans la création de contenus audiovisuels institutionnels. À partir d’une sélection de travaux récents, il s’agit de mettre en lumière les dynamiques à l’œuvre : entre gain d’efficacité et perte de sens, entre automatisation et revalorisation des compétences humaines. L’objectif est moins de trancher que de donner des repères pour penser les équilibres à construire entre technologie, communication et responsabilité.
Méthodologie de l’analyse
Cet article repose sur une démarche de revue critique de la littérature, appuyée par une sélection ciblée de publications récentes en sciences de l’information, communication, éthique technologique et médias numériques. L’objectif est de proposer une lecture interprétative des mutations en cours, sans prétendre à l’exhaustivité. Le corpus mobilisé inclut des articles scientifiques indexés, des rapports institutionnels, ainsi que des prises de position issues d’organismes comme l’UNESCO, le CNC ou l’OpenAI.
Ce travail adopte une perspective interdisciplinaire, permettant de croiser les apports théoriques avec des observations issues de pratiques institutionnelles, dans une logique d’analyse exploratoire. Les outils mentionnés (comme Synthesia, D-ID, HeyGen ou Veed.io) ne sont pas étudiés de manière expérimentale mais convoqués à titre d’illustration représentative des tendances actuelles.
L’approche est qualitative, centrée sur les enjeux de médiation, de narration et de légitimation des discours produits par IA dans des cadres institutionnels. Elle vise à construire une grille de lecture critique, utile pour les chercheurs comme pour les praticiens de la communication.
L’émergence de l’IA générative dans l’audiovisuel institutionnel
L’intelligence artificielle générative s’installe de manière croissante dans la production audiovisuelle des institutions, en proposant des solutions clés en main pour automatiser tout ou partie du processus de création. À la croisée de la communication, de la technologie et de la pédagogie, ces outils s’imposent comme des interfaces hybrides entre l’humain et la machine, au service de contenus informatifs, éducatifs ou administratifs.
L’un des marqueurs de cette mutation est l’apparition de plateformes comme Synthesia, qui permet à un utilisateur non technicien de produire une vidéo institutionnelle en saisissant un simple texte, puis en choisissant un avatar, une langue, un ton, et un décor. D’autres outils comme Elai.io, HeyGen ou Descript vont encore plus loin : génération vocale multilingue, intelligence de montage, synchronisation labiale automatique (Wiggers 2025 ; Eloundou et al. 2023).
Du côté des organisations, ces innovations répondent à un double besoin : produire plus, produire vite. Les universités, musées, collectivités locales ou agences gouvernementales adoptent ces solutions pour générer des capsules pédagogiques, des vidéos de sensibilisation, ou encore des informations administratives traduites automatiquement en plusieurs langues (Guèvremont & Brin, 2024). L’IA devient ainsi une interface de médiation institutionnelle, standardisant les supports et adaptant leur diffusion à des contextes variés (UNESCO 2021).
Mais au-delà de la prouesse technique, c’est un changement de paradigme qui s’opère. L’acte de faire une vidéo ne nécessite plus d’acteurs, de caméras, ni de tournage. Le visuel, la voix et la structure narrative sont synthétisés. Cela modifie les logiques de production, mais aussi les formes de discours diffusées par les institutions, qui tendent vers une communication fluide, formatée, et déshumanisée (Székely, Miniota & Hejná, 2025).
Plus encore, certaines institutions délèguent à l’IA le choix des mots, des images et du ton, laissant l’algorithme co-écrire le message. Dès lors, ce n’est plus simplement une technologie d’exécution, mais bien une technologie d’expression, qui participe à l’image publique de l’organisation.
Transformation de la chaîne de production : outils et logiques nouvelles
L’arrivée de l’intelligence artificielle générative dans le secteur audiovisuel n’est pas seulement un ajout technologique : elle transforme en profondeur la logique même de production. Dans les institutions, cette mutation ne s’arrête pas à l’adoption de nouveaux logiciels : elle redéfinit les métiers, les rythmes et la structure narrative des contenus.
Traditionnellement, la production audiovisuelle repose sur un enchaînement clair : écriture, tournage, montage, postproduction. Avec l’IA, ces étapes sont compressées, fusionnées, voire court-circuitées. Un simple script peut désormais déclencher en quelques minutes la création d’une vidéo intégrale : avatar animé, voix synthétique, décor généré automatiquement, titrage intelligent. Ces fonctionnalités sont disponibles dans des plateformes comme HeyGen, Colossyan, ou Veed.io, qui visent explicitement le marché institutionnel et éducatif (Totlani, 2023).
Cela entraîne un glissement des rôles : le vidéaste devient opérateur de prompt, le scénariste doit s’adapter aux contraintes de l’automatisation, et le chargé de communication devient parfois le producteur direct du contenu. Ce déplacement des compétences, souvent vanté comme une démocratisation, crée pourtant une forme de fragilité éditoriale, car la maîtrise des outils ne garantit pas la maîtrise du discours (Gattupalli, Maloy & Edwards, 2023).
Par ailleurs, ces systèmes favorisent la logique du contenu jetable : capsules courtes, génériques, produites en série, standardisées dans le format et le ton. Cela peut convenir aux exigences de rapidité et de neutralité institutionnelle, mais soulève une question essentielle : à partir de quel point le contenu généré cesse-t-il de refléter une identité institutionnelle propre ? (Epstein et al., 2023)
Le gain de productivité est indéniable, mais il s’accompagne d’une transformation silencieuse de l’énonciation. Là où le montage, la voix ou l’image véhiculaient autrefois un style propre à une organisation, l’automatisation tend à lisser les singularités, à standardiser les visuels, à neutraliser les tonalités.
Vers une typologie des usages selon les contextes institutionnels
Toutes les institutions ne recourent pas à l’IA générative pour les mêmes raisons ni de la même manière. Dans les universités, elle sert à produire des vidéos de cours ou des supports de vulgarisation. Dans les collectivités locales, elle peut générer des messages multilingues à destination des citoyens. Dans les établissements culturels, elle permet de reconstituer des visites guidées virtuelles.
Cette diversité appelle à construire une typologie des usages en fonction du public cible, du degré de sensibilité du message, du budget disponible et du niveau de contrôle éditorial. Une vidéo d’information sanitaire ne soulève pas les mêmes exigences qu’une capsule institutionnelle destinée à la valorisation d’un programme scientifique.
Penser en termes de typologie permettrait aux décideurs de mieux calibrer les outils utilisés, et d’éviter une généralisation hâtive ou non pertinente.
Des promesses concrètes : créativité, accessibilité et performance
Si l’IA générative suscite débats et inquiétudes, elle présente également des apports mesurables dans la production audiovisuelle, particulièrement dans les environnements institutionnels. Contrairement à une vision uniquement technocritique, de nombreux usages montrent que ces outils peuvent enrichir l’expérience créative, fluidifier les processus et renforcer l’inclusivité des contenus.
- Créativité augmentée
- Loin de se substituer à l’humain, l’IA agit comme un agent de suggestion : elle propose des trames narratives, suggère des visuels, teste des variations vocales. Pour des équipes institutionnelles souvent restreintes, elle devient un stimulateur d’idées, en particulier lors de la phase de conception. Par exemple, la génération automatisée de scénarios ou de moodboards peut inspirer des formats innovants, adaptés à divers publics (Haase & Pokutta, 2024). De plus, les outils de style transfer ou de text-to-animation permettent d’expérimenter des esthétiques jusqu’alors inaccessibles faute de compétences graphiques internes.
- Gain d’efficacité et de flexibilité
- Le temps de production est réduit de manière significative. Une vidéo simple, nécessitant autrefois plusieurs jours (rédaction, tournage, montage, habillage), peut être réalisée en moins d’une heure avec des outils comme Lumen5, Veed.io ou Elai.io. Cela permet aux institutions de répondre plus rapidement à l’actualité, d’adapter les messages en temps réel (ex. consignes sanitaires, informations d’urgence), ou de produire du contenu multilingue à coût quasi nul (Sedkaoui & Benaichouba, 2024).
- Accessibilité renforcée
- L’IA facilite l’accessibilité cognitive, linguistique et sensorielle. Le sous-titrage automatique, la synthèse vocale, et la traduction simultanée ouvrent l’accès à des publics qui étaient traditionnellement laissés à la marge : personnes en situation de handicap, publics non francophones, ou usagers éloignés du numérique institutionnel (Ringel Morris, 2019). Par ailleurs, l’IA permet de produire des formats visuels adaptés aux réseaux sociaux, aux différents niveaux de littératie, ou à des publics jeunes plus familiers des codes animés.
- Il serait simpliste de considérer ces bénéfices comme strictement fonctionnels. Ils redessinent les valeurs de service public associées à la communication institutionnelle : efficacité, inclusion, adaptabilité, tout en suscitant de nouveaux usages collaboratifs entre équipes humaines et systèmes automatiques.
- L’impact sur la formation et la transmission des savoirs
- L’essor des outils d’IA dans l’audiovisuel institutionnel modifie profondément les modalités de transmission des savoirs. Les universités, écoles professionnelles et institutions publiques s’emparent de ces technologies pour produire des contenus éducatifs plus accessibles, multilingues, et adaptables aux profils des apprenants. Cette automatisation ouvre la voie à des formats courts, visuels, interactifs et parfois personnalisés en fonction du niveau ou de la langue de l’usager. Toutefois, cette dynamique soulève aussi la question de la standardisation des contenus pédagogiques. Une vidéo générée par IA peut être techniquement fluide, mais moins sensible aux subtilités contextuelles, culturelles ou disciplinaires. La relation pédagogique, fondée sur l’incarnation, l’écoute et l’improvisation, est difficilement remplaçable par un avatar ou une voix synthétique. Il s’agit donc de penser l’IA non comme une substitution, mais comme une extension de l’action éducative humaine, en appui à des dispositifs hybrides d’apprentissage. Enfin, les enseignants et formateurs doivent être associés à la création de ces contenus pour garantir leur validité scientifique, leur pertinence didactique et leur compatibilité avec les valeurs de l’institution.
Réception du public et confiance envers les contenus IA
Si l’intelligence artificielle permet de fluidifier la production audiovisuelle institutionnelle, la question de la réception par les publics demeure centrale. Plusieurs études montrent que les contenus générés par IA sont souvent perçus comme efficaces sur le plan informatif, mais moins crédibles lorsqu’ils ne sont pas clairement identifiés comme tels (Sahebi & Formosa, 2025).
La transparence apparaît alors comme un enjeu fondamental. Lorsque les usagers ne savent pas si une voix, une image ou un message provient d’un agent humain ou d’un système algorithmique, la relation de confiance peut se fragiliser. Dans les domaines sensibles comme la santé, l’éducation ou les services publics, cette ambiguïté peut nuire à la réception du message.
Par ailleurs, les études de réception suggèrent que la personnalisation excessive, avatars parfaits, voix lisses, vidéos très formatées, peut créer une forme de distance émotionnelle avec les contenus. Ce paradoxe souligne un besoin d’authenticité perçue, même dans un contexte de production automatisée.
Pour maintenir la légitimité des communications institutionnelles, il devient donc nécessaire d’accompagner les usages de l’IA d’une signalétique claire (ex. : mention “contenu généré par IA”), de règles d’encadrement éditorial, et de processus de validation humaine. Ces dispositifs participent à une écologie informationnelle plus saine, où l’innovation technologique ne se fait pas au détriment de la confiance publique.
Des zones d’ombre : limites, risques et controverses
L’usage de l’intelligence artificielle dans la production audiovisuelle institutionnelle, malgré ses bénéfices, suscite des interrogations légitimes. Ces technologies, en automatisant le discours, introduisent une série de risques techniques, symboliques, culturels et éthiques, souvent sous-estimés dans la phase d’adoption.
- Une perte d’authenticité et de chaleur humaine
- Les voix synthétiques, les avatars standardisés ou les montages générés par algorithme produisent un effet de neutralité émotionnelle. Si cette homogénéité visuelle et vocale peut convenir à certains usages informatifs, elle est problématique dès lors que la relation à l’usager, l’incarnation humaine ou la confiance sont en jeu (Sahebi & Formosa, 2025). Des études en communication institutionnelle montrent que la voix humaine et le regard réel conservent une forte charge symbolique pour les publics, notamment dans les domaines de la santé, de l’éducation ou de la justice (Bonin & Zerfass, 2025).
- Des contenus « sans auteur » ?
- Le recours à des outils génératifs entraîne un flou autour de la responsabilité éditoriale. Qui est responsable du message ? L’auteur initial ? Le technicien ? L’algorithme ? Dans les institutions publiques, cette question est critique. Les contenus diffusés engagent une parole officielle. Or, l’automatisation peut masquer les choix discursifs et créer une zone grise entre le prescrit et le produit (Agbon, 2024).
- Biais et représentations stéréotypées
- Les IA génératives sont entraînées sur de vastes bases de données issues du web. Elles reproduisent parfois des représentations biaisées, sexistes, racistes ou occidentalo-centrées, même dans des formats visuels apparemment neutres. Dans une vidéo animée par IA, le choix automatique d’un visage, d’un prénom, ou d’un contexte visuel peut véhiculer des clichés culturels invisibles, qui ne correspondent ni aux publics cibles, ni aux valeurs institutionnelles (West, Whittaker, and Crawford 2019).
- Surproduction, saturation et perte de sens
- En facilitant la production de vidéos, l’IA risque de générer une saturation informationnelle. Des institutions déjà productrices de nombreux contenus peuvent être tentées d’industrialiser encore davantage les formats. Le risque est alors une perte de hiérarchie, une dilution des messages, voire un désengagement des publics face à des contenus perçus comme génériques, artificiels ou automatisés (Oke, 2025).
Vers une hybridation homme–machine maîtrisée
Face aux bénéfices opérationnels et aux limites éthiques soulevés par l’usage de l’IA générative, une voie médiane s’impose progressivement dans les milieux institutionnels : celle de l’hybridation raisonnée entre intelligence humaine et puissance algorithmique. Plutôt que de déléguer entièrement la production de contenus aux machines, certaines institutions expérimentent des formes de collaboration équilibrée, dans lesquelles l’IA intervient comme un co-auteur assisté, et non comme un substitut.
- La machine comme extension des capacités humaines
- De nombreuses recherches soulignent que l’IA, utilisée de façon encadrée, permet de libérer du temps cognitif pour les professionnels, en déléguant les tâches répétitives, sans empiéter sur les fonctions stratégiques : conception éditoriale, choix narratif, adaptation au contexte. Loin d’effacer le rôle du communicant ou du créateur, l’IA devient alors un outil d’assistance créative (He et al., 2025).
- Dans certains établissements universitaires, les vidéos générées automatiquement par IA sont soumises à un processus de validation humaine, incluant la relecture des scripts, l’ajustement du ton et la supervision des visuels. Cette chaîne de production semi-automatisée permet de maintenir une cohérence institutionnelle, tout en bénéficiant de la vitesse d’exécution de l’IA (Howe & Cortvriend, 2022).
- Des compétences en mutation
- Ce modèle hybride suppose un réajustement des compétences. Les métiers de la communication ou de la médiation doivent intégrer une dimension de curation algorithmique : prompt design, évaluation de la qualité générée, anticipation des biais. Il ne s’agit plus de remplacer les professionnels, mais de les former à piloter des outils complexes, à la croisée du technique, de l’éthique et du symbolique (Casilli 2019).
- Cette logique ouvre la voie à de nouvelles figures professionnelles dans les organisations : prompt strategists, data editors, co-designers humains-machines, déjà présents dans certains services publics culturels ou muséaux.
- Vers une culture de la réflexivité numérique
- Enfin, une hybridation réussie suppose une culture organisationnelle critique. Adopter l’IA ne peut se limiter à un acte d’achat ou à un gain d’efficacité. Il faut intégrer des protocoles d’évaluation, des lignes éditoriales claires, des chartes de transparence sur l’usage des outils génératifs. Ce sont ces garde-fous qui garantissent que l’IA reste un instrument au service d’une vision humaine et non l’inverse.
Conclusion :
L’intégration de l’intelligence artificielle générative dans la production audiovisuelle institutionnelle ne constitue pas simplement une innovation technique : elle redéfinit en profondeur les rapports entre technologie, communication et expression publique. En facilitant la création de vidéos rapides, accessibles et multilingues, ces outils répondent à des exigences concrètes de diffusion, de pédagogie ou d’information, notamment dans des structures aux ressources limitées. Ils promettent un gain d’autonomie et une certaine démocratisation des formats.
Mais cette efficacité technique ne va pas sans contrepartie. L’uniformisation des visuels, la neutralité vocale, ou l’absence d’incarnation risquent de distancier les publics, d’appauvrir la narration, ou d’effacer les marques identitaires des institutions. Dans un monde saturé de contenus, l’automatisation ne garantit ni l’engagement ni la confiance. Le défi majeur est donc de construire des usages réflexifs, où l’humain reste au centre des décisions éditoriales.
Ce travail s’inscrit dans une démarche de synthèse critique, fondée sur une revue sélective de la littérature récente et sur l’observation de cas d’usage institutionnels. Il ne repose pas sur une enquête de terrain approfondie, ni sur des données empiriques systématiques. Les constats formulés ici doivent donc être compris comme exploratoires. Certaines plateformes et pratiques mentionnées peuvent évoluer rapidement ou être spécifiques à certaines régions ou langues. Le point de vue adopté est volontairement interdisciplinaire et interprétatif, mobilisant à la fois des sources en sciences de l’information, en communication et en éthique technologique. Cette approche vise à poser un cadre critique utile pour accompagner les transformations en cours, tout en ouvrant la voie à des recherches futures plus ancrées dans les pratiques et les réceptions.
Au-delà des enjeux techniques et communicationnels, cette mutation portée par l’intelligence artificielle pose des questions fondamentales sur la place de l’humain dans les processus d’expression institutionnelle. L’industrialisation de la création audiovisuelle, facilitée par l’automatisation, risque de standardiser les formats, d’uniformiser les voix et d’appauvrir la diversité stylistique des contenus diffusés. Or, les institutions publiques ont historiquement pour mission d’incarner une parole contextualisée, sensible aux territoires, aux publics et aux temporalités.
Cette tension entre efficacité technologique et exigence de sens ouvre un champ de réflexion plus large sur l’identité narrative des institutions à l’ère des algorithmes. Si l’IA peut générer des messages, elle ne garantit ni la pertinence culturelle, ni la légitimité symbolique de ces productions. C’est pourquoi l’enjeu n’est pas seulement d’optimiser les processus, mais de concevoir des cadres de gouvernance éditoriale qui réintroduisent la subjectivité, la responsabilité et l’éthique dans l’usage des outils génératifs.
À ce titre, il est essentiel de promouvoir une culture organisationnelle réflexive, fondée sur la formation des professionnels, la définition de chartes d’usage, et l’intégration de protocoles de validation humaine. Cette démarche ne vise pas à ralentir l’innovation, mais à l’accompagner avec discernement.
Enfin, la recherche sur ces transformations reste encore jeune. Les travaux à venir devront explorer plus en profondeur la réception des contenus générés par IA, leur impact sur la confiance des publics, ainsi que les disparités d’usage selon les contextes géographiques, culturels et institutionnels. L’appropriation de l’intelligence artificielle dans la production audiovisuelle ne peut être pensée indépendamment des enjeux de souveraineté informationnelle, de justice cognitive et d’inclusion sociale.
Bibliographie
Anantrasirichai, N., and Bull, D. 2020. “Artificial Intelligence in the Creative Industries: A Review.” arXiv preprint arXiv:2007.12391.
Haase, J., & Pokutta, S. (2024). “Human-AI Co-Creativity: Exploring Synergies Across Levels of Creative Collaboration.” arXiv preprint arXiv:2411.12527.
Sahebi, S., & Formosa, P. (2025). “The AI-mediated communication dilemma: epistemic trust, social media, and the challenge of generative artificial intelligence.” Synthese, 205(3), Article 128.
Casilli, A. 2019. En attendant les robots : Enquête sur le travail du clic. Paris: Seuil.
CNC. 2024. “Quel impact de l’IA sur les filières du cinéma, de l’audiovisuel et du jeu vidéo ?” Centre National du Cinéma. https://www.cnc.fr
Gattupalli, S., Maloy, R. W., & Edwards, S. A. (2023). “Prompt Literacy: A Pivotal Educational Skill in the Age of AI.” College of Education Working Papers and Reports Series, University of Massachusetts Amherst.
Eloundou, T., Manning, S., Mishkin, P., and Rock, D. 2023. “AI and the Future of Work.” OpenAI Technical Report.
Ringel Morris, M. (2019). “AI and Accessibility: A Discussion of Ethical Considerations.” arXiv preprint arXiv:1908.08939.
Agbon, G. (2024). “Who Speaks Through the Machine? Generative AI as Discourse and Implications for Management.” Critical Perspectives on Accounting, 100, 102761.
Guèvremont, V., & Brin, C. (dir.). (2024). Intelligence artificielle, culture et médias. Presses de l’Université Laval.
Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. 2014. “Generative Adversarial Nets.” Advances in Neural Information Processing Systems 27.
Epstein, Z., Hertzmann, A., Herman, L., Mahari, R., Frank, M. R., Groh, M., Schroeder, H., Smith, A., Akten, M., Fjeld, J., Farid, H., Leach, N., Pentland, A., & Russakovsky, O. (2023). Art and the Science of Generative AI: A Deeper Dive. arXiv preprint arXiv:2306.04141.
He, V. F., Shrestha, Y. R., Puranam, P., & Miron-Spektor, E. (2025). “Creative Together: Human-AI Ensembling for Idea Generation.” INSEAD Working Paper No. 2024/51/STR/OBH.
LeCun, Y., Bengio, Y., and Hinton, G. 2015. “Deep Learning.” Nature 521(7553): 436–444.
Totlani, K. (2023). “The Evolution of Generative AI: Implications for the Media and Film Industry.” International Journal for Multidisciplinary Research, 5(5).
Howe, S., & Cortvriend, J. (2022). “Virtual Production and the Need for Up-to-Date Training in Higher Education.” Film Education Journal, 5(1), 33–50.
Sedkaoui, S., & Benaichouba, R. (2024). “Generative AI as a transformative force for innovation: a review of opportunities, applications and challenges.” European Journal of Innovation Management.
West, S. M., Whittaker, M., & Crawford, K. 2019. “Discriminating Systems: Gender, Race, and Power in AI.” AI Now Institute.
Oke, T. (2025). “Algorithmic Narrativity as a New Narrative Mode.” AI & Society.
Russell, S., and Norvig, P. 2021. Artificial Intelligence: A Modern Approach. 4th ed. Pearson.
Székely, É., Miniota, J., & Hejná, M. (2025). “Will AI shape the way we speak? The emerging sociolinguistic influence of synthetic voices.” arXiv preprint arXiv:2504.10650.
Wiggers, K. (2025). “Runway releases an impressive new video-generating AI model.” TechCrunch, 31 mars.
UNESCO. 2021. Recommandation sur l’éthique de l’intelligence artificielle. Paris: UNESCO.
Bonin, M., & Zerfass, A. (2025). “Between Authenticity and Automation: Nonprofit Organizations Navigating AI-Driven Communication.” SSOAR – Social Science Open Access Repository.
Xu, Y. 2025. “Balancing Creativity and Automation: The Influence of AI on Modern Film Production and Dissemination.” arXiv preprint arXiv:2504.19275.