Blog

Como montar ads cinematográficos com IA

Fiz um comercial de óleo de girassol com estética de propaganda de perfume. Tudo com IA. Tudo no Dual. Foi isso que aprendi sobre dirigir em vez de só promptar.

Julian Príncipe
Julian PríncipeProduct Lead · · 7 min
Como montar ads cinematográficos com IA

Há alguns meses eu quis testar uma coisa: fazer um comercial com cara de propaganda de perfume — abstrato, etéreo, mais mood que mensagem — pra um produto que não tem nada a ver com isso. Óleo de girassol.

O resultado foi um vídeo de 30 segundos com uma mulher andando por um campo no pôr do sol, uma casa pegando fogo ao fundo, e uma garrafa de óleo de girassol como cena final. Tudo gerado com IA. Tudo montado como uma peça de cinema.


O problema não é o modelo

O workflow que 90% das pessoas usam: abre um gerador de vídeo, escreve um prompt, gera, se decepciona, ajusta duas palavras, repete.

Diretor não chega no set e fala "filma alguma coisa bonita". Chega com moodboard, personagem definido, shot list e estratégia de áudio. Com IA é exatamente igual. A diferença entre um ad que parece gerado e um que parece dirigido está em tudo que você faz antes de gerar.


A imagem-mãe

Antes de montar a sequência inteira, você precisa de uma imagem que defina tudo: tom visual, paleta, luz, mood. Eu chamo de imagem-mãe. Tudo que você gerar depois parte dela.

Pro óleo, iterei com referências do moodboard até chegar numa imagem que tinha exatamente o que eu queria: uma mulher num campo, luz de pôr do sol, textura cinematográfica. Essa imagem e o prompt que gerou ela viraram a âncora do projeto inteiro.

A imagem-mãe: uma mulher num campo no pôr do sol com textura cinematográfica

Hoje eu usaria Nano Banana Pro com as referências do moodboard e seria mais simples. Esse é um padrão que você vai ver se repetindo: os melhores modelos pra cada tarefa mudam o tempo todo. O que importa é testar dois ou três e comparar — o canvas deixa você ver tudo lado a lado.


Montar o storyboard

Arrasta a imagem-mãe pro canvas, seleciona ela e usa Remix — porque você parte de uma imagem e quer chegar em outra imagem. Descreve o que precisa.

A partir da mulher no campo eu fui pedindo variações: a mesma mulher de mais longe, um plano mostrando que tem uma casa no campo, a casa pegando fogo, um close de uma bolsa no chão. Cada imagem nova usava a imagem-mãe como referência pra manter consistência.

Variação do storyboard via Remix: a mulher sentada no campo com a bolsa, mesma paleta e estética da imagem-mãe

O loop

O storyboard não se monta só com imagem. Conforme os planos iam ficando bons, eu ia convertendo pra vídeo. E de vez em quando, dentro de um vídeo gerado, aparecia um frame melhor do que qualquer imagem que eu tinha promptado.

No Dual, quando você dá play num vídeo tem um botão de câmera — screenshot do frame atual virando imagem que você pode usar. O fluxo real acabou sendo: imagem-mãe → Remix pra novos planos → Convert pra vídeo → extrair frames bons → usar como nova referência → Remix pra mais planos. Vai e vem constante.

Inserir o produto

O produto tinha que aparecer no final. Peguei um close de uma bolsa no chão e usei Remix pra trocar pela garrafa de óleo. Depois converti pra vídeo.


Pensar como diretor

Um ad não é um plano só. É uma sequência de planos que conta alguma coisa em 15 ou 30 segundos. Se você não pensa a sequência antes de gerar, vai terminar com uma pilha de clipes que não conectam.

Pro óleo, a narrativa era: uma mulher num campo num plano calmo e etéreo. O plano se abre e revela que, no mesmo campo, tem uma casa pegando fogo. Da calma ao caos. E no final, o produto.

Plano geral: a mulher caminhando em direção à casa no campo, o plano que revela a cena completa

A sequência na prática: establishing shot do campo → plano médio da mulher caminhando → a casa é revelada → a casa começa a queimar → close do fogo → insert da garrafa de óleo iluminada pelo fogo.

A virada narrativa: a casa pegando fogo no campo

Animar

Seleciona a imagem, Convert pra vídeo, escolhe o modelo. O Kling 3.0 é o mais completo hoje: atuação crível, movimento estável, segue prompt direito. Mas é lento. Kling 2.6 e Seedance são alternativas mais rápidas.

Pro óleo eu usei Seedance. Os planos são bem estáticos — a mulher anda devagar, o fogo se mexe mas a câmera não faz nada maluco. Hoje eu faria planos com mais movimento: um tracking seguindo a mulher, um crane up revelando o fogo. Os modelos atuais permitem.

O prompt de vídeo não precisa repetir o que já está na imagem. A imagem já codifica o estilo, os sujeitos, a iluminação. Só especifica movimento de câmera e ações.

O Kling deixa você definir não só como o vídeo começa, mas como ele termina (start/last frame). Isso é chave pra ad: você quer que o último frame seja o seu produto, o seu logo, a sua composição final.


Áudio

A música do ad foi a primeira coisa que escolhi. Antes de gerar um único frame eu já sabia qual era a música, qual era o timing. Isso definiu a duração dos planos, onde ficavam os cortes, o ritmo. Se você começa pela música, os planos são gerados com a duração certa desde o início.

O ad não tem diálogo. E não é por acaso. Quando fiz, os modelos de lipsync não davam resultado crível. Então readequei a ideia: uma peça puramente visual com música. A limitação virou decisão criativa. Metade de dirigir com IA é entender o que os modelos fazem bem hoje e desenhar em volta do que eles não fazem.

Hoje a história seria diferente. Modelos como Creatify Aurora e Fabric geram vídeo com lipsync crível a partir de uma imagem estática e um áudio (Convert). E como tenho o projeto inteiro salvo no board, refazer ou expandir uma ideia velha é só abrir o board e testar com os modelos novos.


O pipeline

Estética. Moodboard com referência. Junta imagem, itera sem pressão.

Imagem-mãe. Itera até encontrar a imagem e o prompt que definem tudo.

Storyboard. Remix imagem pra imagem partindo da imagem-mãe. O loop: gerar planos → converter pra vídeo → extrair frames bons → usar como nova referência.

Animação. Convert pra vídeo. Movimento de câmera + ação. Start/end frames pra controlar onde você quer chegar.

Áudio. Escolhe a música antes de gerar. "No music" no prompt pra controlar a trilha na edição.

Reciclar. O Dual guarda os inputs de cada geração. Quando sai um modelo novo, volta pro board, roda os planos antigos de novo e compara. Ideia não expira, modelo expira.

O fechamento do ad: a garrafa de óleo de girassol no chão

O que importa

O ad funciona não porque os modelos são bons — eles são — mas porque antes de gerar um único frame já existia uma ideia, uma narrativa, uma música e uma imagem-mãe que definia tudo. Os modelos executaram. A direção foi humana.

Há alguns dias voltei pro board e rodei cada plano de novo no Kling v3. Não precisei repensar nada. O board tem tudo: as imagens-mãe, os prompts, os parâmetros. Só troquei o modelo e gerei de novo. As ideias que tive meses atrás agora ficam melhores porque a tecnologia avançou, e reciclar foi trivial.

Ideia não expira. Modelo melhora o tempo todo, e se o seu processo está bem montado, cada upgrade de modelo vira upgrade automático no seu trabalho antigo.

Continuar lendo

Leve isso para sua equipe

Agende uma demo e mostramos como aplicar este workflow ao seu stack.