Algoritmo é capaz de prever os sons de vídeos sem audio

Desenvolvido por pesquisadores do MIT, o algoritmo composto por sistemas de aprendizado é capaz de prever os possíveis sons de vídeos sem som. Baseando-se nas previsões, o algoritmo é capaz de selecionar efeitos aproximados, produzindo uma experiência realista.

Utilizando o método “deep learning” (aprendizado profundo, em tradução direta), o sistema foi alimentado com mais de 1000 vídeos compostos por aproximadamente  46000 sons, estes por exemplo, de objetos sendo quebrados, raspados ou atingidos. Após desconstruir todos os quadros, o algoritmo foi capaz de aprender sobre as qualidades acústicas de cada frame, obtendo informações como altura e intensidade dos sons.

Como explica Owens ao MIT news, o algoritmo prevê quadro a quadro as possíveis características do som. Estas são então combinadas com os modelos disponíveis no banco de dados, simulando o som com certa precisão. Para verificar seu nível de precisão foram disponibilizados pares de vídeos, um com o audio original e outro com os sons escolhidos pelo algoritmo. Os sons simulados obtiveram realismo suficiente para confundir os usuários à ponto de confundirem os sons com dobro de frequência.

A possibilidade de prever os sons pode garantir aos rôbos certa capacidade de avaliação do meio,  permitindo certo “instinto” aos mesmos, como determinar que o cimento e a grama apresentam rigidez diferente, alterando sua forma de interação. O desenvolvimento deste algoritmo pode permitir maior autonomia à diversos sistemas,  onde a maior segurança ou efetividade dos mesmos pode ser alcançada “instintivamente”.

 

Para maiores informações acesse: Gizmodo

Algoritmo é capaz de prever os sons de vídeos sem audio

Aluno do 2º ano de Engenharia da Computação e estagiário no Núcleo de Computação Embarcada da Universidade Positivo (NCE).

Classificado como:            

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *