A inteligência artificial (IA) não para de evoluir, e esta semana foi repleta de anúncios e lançamentos que prometem transformar diversas áreas. Desde a criação de imagens com múltiplos objetos de referência até a geração de vídeos coerentes de um minuto e robôs humanoides cada vez mais impressionantes, o ritmo da inovação é alucinante. Vamos mergulhar nos principais destaques da IA desta semana, analisando as novas ferramentas e o que elas representam para o futuro.
Uma das novidades mais empolgantes é o UNO, uma IA desenvolvida pela ByteDance, empresa que, segundo o vídeo, tem se destacado por lançar diversas ferramentas open-source de alta qualidade. O UNO se destaca por sua capacidade de criar imagens a partir de múltiplos objetos ou personagens de referência, oferecendo um controle contextual sem precedentes.
O UNO permite que os usuários combinem diferentes elementos para gerar uma nova imagem. Por exemplo, é possível adicionar o logo da ByteDance a uma camiseta branca, ou colocar um personagem de pelúcia ao lado de uma boneca em uma mesma cena, tudo isso mantendo a coerência visual. A ferramenta também é capaz de gerar personagens em diferentes estilos artísticos, como transformar uma foto realista de uma mulher em uma personagem de anime ou em um estilo 3D Pixar. Essa versatilidade se estende ao design de produtos, onde marcas de roupas podem usar modelos gerados por IA para vestir suas coleções em diversos cenários, ou até mesmo para face swapping e clonagem de personagens em diferentes contextos, como demonstrado com a imagem de Albert Einstein.
A ByteDance disponibilizou uma demonstração do UNO no Hugging Face, permitindo que os usuários experimentem a ferramenta. A interface permite inserir um prompt descritivo e fazer upload de até quatro imagens de referência para gerar a imagem final, com controle sobre as dimensões. O vídeo menciona que o UNO supera outras ferramentas similares como OmniControl e IP-Adapter em termos de precisão e consistência nas gerações.
O Google também marcou presença com novidades importantes na área de geração de vídeo e mídia.
Conforme relatado, o VEO 2, a ferramenta de geração de vídeo do Google, está finalmente disponível gratuitamente para todos no Google AI Studio. Embora o vídeo não entre em detalhes sobre todas as suas funcionalidades, a plataforma permite gerar vídeos a partir de prompts de texto, com opções de controle de proporção, duração (atualmente até 8 segundos na demonstração), taxa de quadros e resolução (720p na demonstração). O vídeo também menciona que o VEO 2 possui recursos de inpainting e controle de câmera que serão lançados em breve.
Outra IA mencionada no vídeo é capaz de criar vídeos coerentes de até um minuto de duração a partir de storyboards em texto. Essa tecnologia, que parece ser baseada no modelo CogVideo com uma camada adicional de Test-Time Training (TTT), permite especificar cena por cena o que cada personagem está fazendo, mantendo a consistência visual e de estilo ao longo de toda a narrativa. Apesar de ainda apresentar algumas falhas, como problemas com texto e movimentos nas bordas dos personagens, é um protótipo promissor para a criação de conteúdo animado mais longo.
A IA também está avançando na manipulação e criação de modelos 3D, com o HoloPart sendo um exemplo notável.
O HoloPart é uma IA que decompõe formas 3D em partes semanticamente significativas e completas. O processo, conforme demonstrado no vídeo, envolve duas etapas principais: primeiro, a segmentação do objeto 3D em suas partes constituintes; segundo, o preenchimento das partes que podem estar incompletas ou ocultas na visualização original, garantindo que cada componente seja estruturalmente completo. Isso é particularmente útil para objetos complexos como um anel com decorações e uma gema.
Essa capacidade de segmentar e completar modelos 3D abre portas para edição downstream mais intuitiva e poderosa. Por exemplo, após a segmentação, torna-se mais fácil editar a geometria de partes específicas, como aumentar o tamanho de um diamante em um anel, ou aplicar diferentes texturas a diferentes componentes do modelo. O vídeo mostra exemplos interativos, como a explosão de um modelo de carro antigo em suas partes completas, evidenciando o potencial da ferramenta. Uma demonstração do HoloPart também está disponível no Hugging Face.
Além das ferramentas já mencionadas, a semana trouxe outras IAs impressionantes para criação de mídia.
O HiDream-I1, da Vivago AI, foi apresentado como um novo gerador de imagens open-source de ponta, que inclusive superaria o Flux em qualidade. O vídeo destaca que o HiDream-I1 ocupa a terceira posição em um leaderboard independente da Artificial Analysis, tornando-o o modelo open-source mais bem classificado atualmente, e é totalmente sem censura.
O OmniSVG é outra ferramenta útil, capaz de gerar imagens SVG (Scalable Vector Graphics) de alta qualidade a partir de prompts de texto ou imagens de entrada. A grande vantagem dos SVGs é sua escalabilidade infinita sem perda de qualidade, tornando-os ideais para logotipos e ilustrações. O vídeo demonstra a capacidade do OmniSVG de gerar diversos personagens e objetos em variados estilos artísticos, todos como vetores.
Da Alibaba, surge o OmniTalker, uma IA para geração de avatares falantes em tempo real. Esta ferramenta pode pegar um vídeo de referência de uma pessoa falando e um texto, e gerar um novo vídeo da mesma pessoa falando o texto fornecido, sincronizando os movimentos labiais e expressões faciais. O vídeo demonstra sua capacidade de funcionar em tempo real a 25 FPS, inclusive com tradução para diferentes idiomas e mantendo o sotaque original. Também é possível controlar as emoções do avatar gerado usando um vídeo de referência com a emoção desejada.
As grandes empresas de tecnologia continuam a ser protagonistas na corrida da IA.
No evento Google Cloud Next, o Google anunciou sua sétima geração de Tensor Processing Units (TPUs), chamada Ironwood, que promete um desempenho massivamente superior às gerações anteriores, sendo, segundo o vídeo, 3600 vezes mais potente que a TPU v2. Além disso, o Google lançou um Kit de Desenvolvimento de Agentes AI (Agent Development Kit) open-source, projetado para simplificar a criação de sistemas multiagentes. Este kit facilitará a integração com diversos aplicativos e plataformas, permitindo que os desenvolvedores construam equipes de agentes de IA para realizar tarefas complexas. O Google também introduziu o protocolo Agent2Agent (A2A), que permitirá que agentes de diferentes empresas e plataformas se comuniquem entre si.
A Meta anunciou o Llama 4, sua nova família de modelos de linguagem, que inclui o Llama 4 Behemoth (com impressionantes 2 trilhões de parâmetros), o Llama 4 Maverick (400 bilhões de parâmetros e janela de contexto de 1 milhão de tokens) e o Llama 4 Scout (109 bilhões de parâmetros e uma janela de contexto líder de mercado de 10 milhões de tokens). Apesar das especificações impressionantes, especialmente a vasta janela de contexto do Scout, o vídeo aponta que os benchmarks independentes, como o Fiction.LiveBench, mostram um desempenho decepcionante para o Llama 4 Scout em tarefas que exigem compreensão de contextos longos. No LM Arena Leaderboard, o Llama 4 Maverick também aparece bem abaixo de outros modelos de ponta.
Outras atualizações importantes incluem melhorias no ChatGPT e avanços contínuos em robótica.
O ChatGPT da OpenAI recebeu uma atualização no seu recurso de memória. Agora, além das memórias salvas anteriormente, o ChatGPT pode referenciar todos os chats passados para fornecer respostas mais personalizadas e relevantes. Os usuários têm controle sobre essa funcionalidade, podendo desativá-la ou gerenciar o histórico de conversas. Este recurso está sendo implementado gradualmente para usuários Plus e Pro, excluindo, por enquanto, a União Europeia devido a regulações de IA mais rigorosas.
O campo da robótica humanoide continua a nos surpreender. O vídeo relembra demonstrações impressionantes recentes, como os robôs da Unitree realizando kip-ups e boxe de forma autônoma, e o robô da Engine AI correndo e dançando. Um clipe do streamer Speed interagindo com o robô da Engine AI em Shenzhen confirma a legitimidade dessas capacidades. Além disso, a Kawasaki revelou um conceito de cavalo robótico movido a hidrogênio, chamado CORLEO, que, embora o protótipo apresentado na Osaka Kansai Expo seja apenas uma carcaça, ilustra a visão da empresa para o transporte em 2050, com foco na sustentabilidade.
A velocidade com que a inteligência artificial avança é verdadeiramente notável. As ferramentas e anúncios desta semana demonstram um progresso significativo em diversas frentes, desde a geração de mídia cada vez mais realista e controlável até o desenvolvimento de hardware mais potente e plataformas de agentes mais sofisticadas. Enquanto algumas promessas, como o Llama 4, ainda precisam provar seu valor em benchmarks independentes, a direção geral é clara: a IA está se tornando mais poderosa, acessível e integrada em nosso cotidiano. Continuaremos acompanhando de perto essas evoluções e o impacto que elas terão em nosso futuro.
Exploramos as consequências das armas nucleares no espaço para a Terra e a importância de leis internacionais
Descubra como a HeyRosie, uma startup de Inteligência Artificial, está revolucionando o atendimento telefônico para pequenos negócios, oferecendo uma solução mais eficiente e acessível. Conheça os insights de Jordan Gal.
Explore os limites do ChatGPT Operator da OpenAI! Testamos sua capacidade de multitarefa, desde encontrar produtos a criar planos de negócios com IA. Veja os sucessos e desafios.