A animação facial alcançou um novo patamar com o advento de ferramentas de inteligência artificial como o Act-One, desenvolvido pela RunwayML. Esta inovação, integrada ao seu modelo Gen-3 Alpha, promete transformar a maneira como criadores de conteúdo dão vida a personagens, oferecendo resultados impressionantes com base em vídeos de performance humana.
O Runway Act-One é uma ferramenta de animação facial que utiliza IA para transferir as expressões e movimentos faciais de um vídeo de performance (driving performance video) para uma imagem de personagem estática. Essencialmente, ele permite que um ator humano "conduza" a animação de um personagem 2D, 3D ou fotorrealista, capturando nuances de expressão que tradicionalmente exigiriam horas de trabalho manual de animação. Conforme explorado em demonstrações, como a do canal Atomic Gains, o potencial da ferramenta é vasto, permitindo a criação de animações faciais expressivas e convincentes.
Para começar a usar o Act-One, os usuários geralmente encontram a opção destacada na página inicial da plataforma Runway. A documentação oficial detalha os custos e as melhores práticas para obter resultados otimizados.
Uma vez na ferramenta Act-One, a interface guia o usuário pelo processo: primeiro, o upload de um vídeo de performance de condução; em seguida, a seleção ou upload de uma imagem de referência do personagem. A Runway oferece uma variedade de personagens pré-existentes em estilos como fotorrealista, animação 3D, animação 2D e ilustrado.
De acordo com a documentação apresentada no vídeo do Atomic Gains, o uso do Act-One da Runway envolve um sistema de créditos. O custo é de 10 créditos por segundo de animação gerada, com um gasto mínimo de 50 créditos por tarefa. A duração máxima de saída é de 30 segundos, o que consumiria 300 créditos. As animações são exportadas com uma resolução de 1280x768 pixels a 24 quadros por segundo (fps).
Para garantir a melhor captura de dados faciais, a RunwayML recomenda algumas práticas ao gravar o vídeo de performance:
No futuro, espera-se que a ferramenta possa evoluir para capturar performances de corpo inteiro.
Os testes realizados demonstram a versatilidade e a qualidade do Act-One em diversos cenários.
O Act-One da Runway mostrou-se eficaz com uma ampla gama de personagens, desde humanos fotorrealistas até figuras de animação 2D e 3D, incluindo animais estilizados com feições humanas (como um cão animado). A documentação sugere que personagens não humanos sem características faciais claramente humanoides podem não funcionar tão bem, assim como vistas de perfil ou personagens muito distantes na cena.
A ferramenta é capaz de capturar e reproduzir expressões faciais complexas, como felicidade, surpresa e tristeza, com uma fidelidade notável. Os movimentos sutis dos músculos faciais são transferidos para o personagem animado, conferindo um alto grau de realismo e emoção.
Um experimento interessante envolveu a animação de um personagem idoso contando uma história. A performance facial do ator foi sincronizada com uma narração cuja voz foi alterada usando a ferramenta ElevenLabs. O resultado, conforme demonstrado, é uma animação coesa e expressiva, ideal para narrativas.
Outro teste impressionante foi a criação de uma animação de canto. Uma música gerada pela plataforma Udio foi utilizada como base para a performance de mímica do ator. O Act-One da Runway conseguiu sincronizar os movimentos labiais e as expressões faciais do personagem com a música de forma convincente, abrindo possibilidades para videoclipes e conteúdo musical animado.
A capacidade de usar personagens personalizados, como os gerados pela ferramenta Midjourney, amplia ainda mais o horizonte criativo. O Act-One da Runway adaptou-se bem a esses personagens únicos, mantendo a consistência de estilo enquanto aplicava as animações faciais.
Apesar de seus pontos fortes, o Act-One da Runway apresenta algumas limitações que os usuários devem considerar.
Observou-se que, em personagens com texturas faciais muito detalhadas (como rugas pronunciadas), o Act-One da Runway pode suavizar ou perder alguns desses detalhes finos quando o rosto do personagem se anima e se transforma. Isso sugere que, para manter a máxima fidelidade de textura, pode ser preferível evitar close-ups extremos em personagens com alta complexidade de detalhes.
Conforme indicado pela documentação da RunwayML, algumas configurações podem não produzir resultados ideais, como vistas de perfil completas, personagens em planos muito abertos (full body a longa distância) ou personagens não humanos que não possuam uma estrutura facial reconhecível como humana.
Um teste utilizando uma gravação feita com um smartphone, com iluminação ambiente comum e um fundo simples, demonstrou que o Act-One da Runway ainda assim consegue entregar resultados de boa qualidade. Isso é uma excelente notícia para criadores que não dispõem de equipamentos de gravação profissionais, indicando que a ferramenta é acessível mesmo com recursos limitados, desde que as diretrizes básicas de enquadramento e estabilidade sejam seguidas.
O Act-One da RunwayML já se apresenta como uma ferramenta poderosa e disruptiva no campo da animação facial. A qualidade das animações, a capacidade de adaptar-se a diferentes estilos de personagens e a integração com outras ferramentas de IA, como ElevenLabs e Udio, abrem um leque de possibilidades criativas. Embora existam limitações, especialmente em relação à preservação de detalhes ultrafinos em close-ups, a tecnologia está apenas no começo. É esperado que, com o tempo e o desenvolvimento contínuo, o Act-One se torne ainda mais robusto e versátil.
O Runway Act-One está democratizando a criação de animações faciais de alta qualidade. Ao permitir que performances humanas reais insuflem vida em personagens digitais de forma intuitiva e eficiente, a RunwayML está capacitando artistas e criadores a contar histórias de maneiras novas e emocionantes. A evolução constante dessa tecnologia sugere um futuro brilhante para a animação impulsionada por inteligência artificial.
Explore as novas funcionalidades da Kling AI: Provador Virtual com IA para experimentar roupas e o Modo Profissional 1.5 com frames de início e fim para vídeos.
Explore como a Inteligência Artificial está gerando imagens e vídeos hiper-realistas. Descubra ferramentas como Flux 1.1 Pro, Kling AI, Minimax e Topaz Video AI, e aprenda dicas para criar conteúdo IA indistinguível da realidade.
Descubra o Adobe Generative Extend: a nova ferramenta de IA do Premiere Pro Beta para estender vídeos e áudio. Analisamos funcionalidades, limitações e truques para editores.