Créditos da imagem: Dica
Dicauma startup de IA que ajudou a desenvolver o gerador de imagem Stable Diffusion AI, lançou seu primeiro aplicativo móvel ontem para dar aos usuários acesso ao Gen-1, seu modelo de IA geradora de vídeo para vídeo. Atualmente, o aplicativo está disponível apenas para dispositivos iOS.
Com o novo aplicativo, os usuários poderão gravar um vídeo de seus telefones e gerar um vídeo AI em minutos. Eles também podem transformar qualquer vídeo existente em sua biblioteca usando prompts de texto, imagens ou predefinições de estilo.
Os usuários podem selecionar na lista de predefinições do Runway, como “Cloudscape”, ou transformar seu vídeo para parecer com argila, desenho a carvão, arte em aquarela, origami de papel e muito mais. Eles também podem fazer upload de uma imagem ou escrever uma ideia na caixa de texto.
O aplicativo gerará quatro visualizações para os usuários selecionarem. Depois de selecionar o que mais gosta, levará alguns minutos para produzir o produto final. Nós mesmos testamos o aplicativo e descobrimos que demorou cerca de 60 segundos ou mais. Às vezes demorava dois minutos para gerar.
Naturalmente, como acontece com qualquer gerador de IA, os resultados não são perfeitos e muitas vezes parecem distorcidos ou estranhos. Em geral, o conceito de geradores de vídeo AI pode parecer bobo e possivelmente até enganoso. Mas, à medida que a tecnologia evolui e melhora com o tempo, ela pode ser valiosa para os usuários. Por exemplo, os criadores de conteúdo podem animar suas postagens nas mídias sociais.
Independentemente disso, achamos o aplicativo móvel Runway fácil de usar e geralmente divertido de jogar.
Abaixo está um exemplo que criamos, usando um clipe de Michael Scott de “The Office”. Um texto que inserimos foi “fantoche realista”.
(Aviso: o resultado é assustador.)
Também tentamos “animação 3D”, que deu certo.
Claro, existem algumas outras ressalvas além de falhas e rostos distorcidos.
Se os usuários quiserem a versão gratuita, há um limite de 525 créditos e eles só podem enviar vídeos com cinco segundos de duração. Cada segundo de um vídeo usa 14 créditos.
No futuro, a Runway planeja adicionar suporte para vídeos mais longos, disse o cofundador e CEO Cristóbal Valenzuela ao TechCrunch. O aplicativo continuará melhorando e lançando novos recursos, acrescentou.
“Estamos focados em melhorar a eficiência, qualidade e controle. Nas próximas semanas e meses, você verá todos os tipos de atualizações, desde passeios mais longos até vídeos de maior qualidade”, disse Valenzuela.
Além disso, lembre-se de que o aplicativo não gera nenhuma nudez ou obras protegidas por direitos autorais, portanto, você não pode criar vídeos que imitem o estilo IP popular.
O novo aplicativo móvel Runway tem dois planos premium: Standard (US$ 143,99/ano) e Pro (US$ 344,99/ano). O plano Standard oferece 625 créditos por mês e outros recursos premium, como vídeo 1080p, projetos ilimitados e muito mais. O plano Pro oferece 2.250 créditos por mês e todas as mais de 30 ferramentas de IA da Runway.
Um mês após a Runway lançar o Gen-1, que foi lançado em fevereiro, a Runway lançou seu Gen-2 modelo. Indiscutivelmente um avanço em relação aos modelos Stable Diffusion e DALL-E text-to-image, o Gen-2 é um gerador de text-to-video, para que os usuários possam gerar vídeos do zero.
A Runway começou lentamente a liberar o acesso ao seu beta fechado para o Gen-2, Valenzuela nos disse.
Atualmente, o aplicativo oferece suporte ao modelo Gen-1, mas o Gen-2 estará disponível em breve junto com outras ferramentas de IA da Runway, como seu gerador de imagem para imagem.
Meta e Google lançaram geradores de texto para vídeo, chamados Make-A-Video e Image, respectivamente.
A Runway desenvolveu vários softwares de edição de vídeo com inteligência artificial desde seu lançamento em 2018. A empresa possui uma variedade de ferramentas diferentes em seu editor de vídeo baseado na webcomo interpolação de quadros, remoção de fundo, efeitos de desfoque, função que limpa ou remove áudio e rastreamento de movimento, entre muitos outros.
As ferramentas ajudaram influenciadores e até mesmo estúdios de TV e cinema a reduzir o tempo gasto na edição e criação de vídeos.
Por exemplo, ele equipe de efeitos visuais por trás de “Everything Everywhere All at Once” usou a tecnologia da Runway para ajudar a criar a cena no filme em que Evelyn (Michelle Yeoh) e Joy (Stephanie Hsu) estão em um multiverso onde foram transformadas em rochas em movimento.
Além disso, a equipe gráfica por trás de “The Late Show with Stephen Colbert” da CBS usou o Runway para reduzir as horas de edição para apenas cinco minutos. segundo o diretor de arte Andro Buneta.
A Runway também opera o Runway Studios, sua divisão de entretenimento e produção.