Comment j’ai fait un film AI: River of Héritage
Auteur (s): Sophia Banton
Publié à l’origine sur Vers l’IA.
Comment j’ai fait un film AI: River of Héritage
Créé à l’aide de Google ImageFX et animé avec la piste Gen-3 Alpha Turbo. Cette scène a établi le cadre extérieur du film et la focalisation récurrente sur l’eau en tant qu’ancre visuelle.
J’adore les films. J’adore Old Hollywood. J’adore l’animation – et les histoires avec des héros.
J’ai décidé au hasard de participer à un festival du film après avoir animé quelques-unes de mes images générées par l’AI. Sans histoire ni concept à l’esprit, je me suis assis à mon ordinateur portable avec Trois semaines pour créer quelque chose. Le mémoire était simple: produire un film de une à dix minutes et incorporé l’IA de manière significative.
Au départ, je me sentais comme un film d’une minute était tout ce que je pouvais gérer. À ma grande surprise, je me suis retrouvé avec un film de 6 minutes et 11 secondes équipé d’un bande sonore complète. Un témoignage de la distance dans les IA et l’accès à l’IA.
Gardez à l’esprit, même si je m’appelle un conteur d’IA, je n’ai pas de formation formelle dans l’art du film. Je suis en fait un scientifique et un professionnel de l’IA.
Voici comment j’ai construit Rivière.
Regarder le film
Voici un extrait de 2 minutes de Rivière. Ce n’est pas la soumission complète du festival, mais une version courte présentant le ton visuel et le style du film.
Paramètre
L’histoire se déroule entièrement à l’extérieur et est centrée sur une rivière. L’eau est l’ancre visuelle récurrente – de la surface calme de la rivière aux vagues océaniques orageuses. J’ai cherché à capturer à la fois la fantaisie et le réalisme, en utilisant des images générées par l’AI pour donner vie le ton visuel et l’animation pour donner vie aux éléments.
Création d’images
J’ai utilisé Google ImageFX pour la génération d’images.
J’ai créé des milliers d’images en répétant, en affinant et en ajustant les invites jusqu’à ce que je trouve celles qui se sentaient bien. C’était un processus d’itération et d’intuition. En fin de compte, j’ai sélectionné 31 images finales Pour construire le film.
Chaque image était personnalisée avec Pas de préréglages ni de raccourcis. Je me suis concentré sur la composition, la garde-robe et le ton. Je voulais des scènes qui semblaient vivre, pas trop stylisées.
Conception de personnage
J’ai conçu des caractères en invitant des détails spécifiques liés à la garde-robe, au type de tissu, à la palette de couleurs et à la cohérence environnementale. Chaque caractère final était le résultat de plusieurs itérations. J’ai révisé les invites jusqu’à ce que les textures (comme les plis en tissu), le réalisme du teint et l’éclairage ne soient précis et crédibles dans le contexte de l’environnement.
L’un des personnages est devenu l’ancre visuelle de l’histoire – une femme a présenté à plusieurs reprises tout au long du film. Elle est devenue le fil narratif à travers les scènes, apparaissant à la fois dans les vues à pleine face et à profil.
Ce qui s’est le plus démarqué, c’est à quel point les outils ont rendu et animé des personnes d’âges différents – aînés, adultes et enfants – avec des nuances impressionnantes. Les tons de peau étaient représentés sur une large gamme, et les mouvements de chaque groupe se sentaient ancrés et réalistes. Ces résultats mettent en évidence les progrès de l’IA et suggèrent son potentiel de croissance en tant que outil viable pour l’industrie cinématographique.
Animation
Une fois que j’ai eu les images, je les ai animées en utilisant Runway Gen-3 Alpha.
Mes options consistaient à générer des vidéos de 5 ou 10 secondes. J’ai choisi Vidéos de 10 secondes pour me donner de la flexibilité dans l’édition. J’en ai taillé certains pour s’adapter à la rythme et aux transitions.
J’ai gardé le mouvement invite simple et clair: l’eau, le vent, les vagues, les tempêtes et les mouvements de tissu. L’objectif était la fluidité, pas le chaos. Les animations d’eau ont été conçues pour se déplacer de manière réaliste afin que le film se sente naturel et humain.
Pour le mouvement humain, j’ai suivi une approche similaire – provoquant des expressions spécifiques comme la confiance et la fierté, ou des actions telles que le sourire, les rires et manger.
Montage
J’ai utilisé Capcut Pro Pour organiser et finaliser la vidéo. J’ai ajouté le 31 animations finales De Runway puis a commandé les vidéos basées sur mon storyboard. Pour mettre l’accent sur certaines scènes, j’ai ralenti la vitesse de la vidéo afin que le personnage ait plus de temps d’écran.
Son et musique
J’ai superposé un son ambiant (pluie, rivières, océan) avec des pistes instrumentales et des sons environnementaux naturels, comme des oiseaux. Il y avait pas de dialogue – Un choix intentionnel, parce que je voulais que la rivière «chante» comme le principal personnage de soutien du film. J’ai trouvé une chanson dans la section audio de Capcut qui correspondait au ton et au message de la rivière. Pour des scènes supplémentaires, j’ai utilisé d’autres pistes pour mieux capturer l’activité à l’écran, puis je suis revenu sur la chanson principale.
Outils que j’ai utilisés
- Google ImageFX (génération d’images)
- Runway Gen-3 Alpha (Turbo) (animation)
- Capcut Pro (Édition / exportation)
- Bibliothèques audio libres de droits (son)
Défis
Contraintes de temps:
- J’avais juste Trois semaines pour passer de l’idée à l’exécution.
- Il n’y avait pas de script ni de storyboard au début.
Sélection d’image:
- J’ai créé des milliers d’images.
- Le rétrécissement à 31 utilisables a fait des tests et un raffinement constants.
Cohérence du caractère:
- Générer le même personnage à plusieurs reprises a été l’un des plus grands obstacles.
- J’ai utilisé des invites très spécifiques – autour Structure du visage, coiffure et vêtements – pour créer une cohérence.
- Cela m’a permis de montrer son visage plein dans plusieurs scènes.
- Dans d’autres, je me suis appuyé sur son profil ou sa vue arrière, combinée à une tenue cohérente, pour aider le spectateur à la reconnaître.
Sensibilité rapide:
- De petits changements dans le libellé pourraient changer considérablement les résultats.
- J’ai dû tester et réviser soigneusement les invites pour garder les caractéristiques du visage, l’éclairage et la garde-robe cohérentes.
Sortie finale
- Temps d’exécution: 6 minutes 11 secondes
- Format: 1080p
- Taille du fichier: 500+ MB
- Soumis au Festival du film de l’IA 2025 de Runway
Ce que j’ai appris
Ce projet m’a appris à quel point l’IA peut être puissant lorsqu’il est associé à une direction créative claire. J’ai appris à:
- Invite avec intentionsachant que de petits changements de formulation peuvent complètement modifier le résultat.
- Pensez visuellement et structurellementmême sans fond de film traditionnel.
- Travailler dans les limitations et raconte toujours une histoire cohérente.
- Construire la cohérence entre les sorties générées par l’IA Par itération, pas des raccourcis.
- Faites confiance à mes instincts – Même quand il n’y a pas de feuille de route.
Suis-je un voleur?
Cette question persiste sur chaque projet créé avec AI génératif. J’ai utilisé l’IA pour générer des images et une animation, mais j’ai également passé des heures à fabriquer des invites, à affiner les détails visuels, à construire la continuité et à façonner le ton émotionnel du film.
Alors, que signifie la paternité dans ce contexte?
Je n’ai pas dessiné chaque cadre à la main. Mais j’ai dirigé chaque élément – composition, costume, expression, mouvement, son. Ce n’était pas l’automatisation. C’était l’intention.
Peut-être que la meilleure question est: Si j’ai volé quelque chose, pourquoi ça me ressemble autant?
Rivière raconte une nouvelle histoire – une histoire que j’ai créée sur mon héritage et mes ancêtres. Il comprend des scènes qui n’ont jamais été représentées dans les médias grand public et les personnages montrés avec dignité plutôt que de caricature.
À mon avis, ce n’est pas un vol. C’est ce à quoi cela ressemble d’utiliser l’IA pour préserver la culture et s’inducteurs mutuellement sur qui nous sommes et d’où nous venons.
Conclusion
J’étais déjà ébloui par les progrès et les capacités des outils de génération d’images de l’IA, mais les outils d’animation ont approfondi mon appréciation et mon espoir pour l’avenir. Ce que j’ai vécu de faire ce film – et ce que nous vivons maintenant culturellement – est le début d’une nouvelle ère dans le cinéma et les médias.
Une nouvelle génération de conteurs, dont beaucoup sans formation artistique formelle, pourront raconter des histoires que nous n’avons jamais entendues auparavant, ou réinventer les familières avec de nouvelles perspectives. Avec des outils puissants et accessibles à portée de main, ils créeront de nouveaux mondes, une invite à la fois.
Ce qui, une fois exigé, les équipes de centaines peuvent maintenant être faits avec une série d’invites. Des outils comme ceux-ci réduisent la barrière à l’entrée – et augmentent le plafond pour une expérimentation créative. Cette réalité est à la fois troublante et stimulante.
À propos de l’auteur
Sophia Banton est une directrice associée et une solution d’IA en tête de biopharma, spécialisée dans la gouvernance responsable de l’IA, l’adoption d’IA en milieu de travail et l’intégration stratégique à travers les fonctions informatiques et commerciales.
Avec un arrière-plan dans bioinformatique, santé publiqueet science des donnéeselle apporte un lentille interdisciplinaire à la mise en œuvre de l’IA – équilibrage Exécution technique, conception éthique et alignement commercial dans environnements hautement réglementés. Son écriture explore l’impact du monde réel de AI au-delà de la théorieaider les organisations à adopter l’IA de manière responsable et durablement.
Connectez-vous avec elle Liendin ou explorer plus d’informations sur l’IA sur Moyen.
Publié via Vers l’IA
