Toda vez que um som é emitido, ondas acústicas fazem com que os objetos ao redor vibrem e criem um sinal visual que o olho humano não é capaz de captar.
Partindo desse princípio, um grupo de pesquisadores do MIT, da Microsoft e do Adobe desenvolveu um algoritmo que reconstrói sinais de áudio analisando minúsculas vibrações gravadas em vídeo.
Munidos apenas de uma câmera, os cientistas conseguiram reproduzir músicas de maneira fiel a partir do vídeo de objetos que foram expostos ao som.
Em um dos experimentos, a música infantil “Maria tinha um carneirinho” foi extraída de uma planta.
Em outro, as vibrações de um par de fones de ouvido revelaram o clássico “Under Pressure”, da banda inglesa Queen, e o áudio recuperado foi tão fiel que não demorou para que o aplicativo identificador Shazam conseguisse reconhecê-lo.
Mas o registro mais impressionante é o de um discurso recuperado pela embalagem de um saco de batatas fritas. A câmera foi colocada a 4,5 metros de distância do objeto e atrás de um vidro à prova de som, e o resultado extraído é razoavelmente inteligível.
Confira os experimentos no vídeo:
Em um texto publicado no site do MIT, os pesquisadores afirmam que a tecnologia pode ter aplicações no setor da ciência forense, ajudando em investigações criminais.
Além disso, seria uma possível maneira de descobrir novas informações sobre a estrutura interna dos objetos.
“O sinal recuperado nos revela muito sobre os objetos, pois objetos diferentes reagem de maneira diferente a um mesmo som”, diz Abe Davis, um dos responsáveis pelo projeto.
Ele completa: “Eu tenho certeza que essa tecnologia terá aplicações que ninguém está esperando. Eu acho que o “carimbo da boa ciência” é quando você faz algo só porque parece legal e, de repente, alguém acaba usando aquilo de uma maneira que você nunca havia imaginado”.