Audio para Realidade Virtual é tema de palestra na AES Brasil Expo

site

Como parte dos esforços para abordar também os temas mais atuais concernentes ao áudio profissional, a Convenção da AES Brasil 2016 contou em sua programação com uma palestra dedicada ao tema da produção de áudio para produtos de realidade virtual. Ministrada pelos especialistas Andrés Mayo e Maurício Gargel, a apresentação aconteceu no meio da tarde do segundo dia de evento.

Com sala cheia, os palestrantes abriram a apresentação falando um pouco sobre imersão. De acordo com eles, o tipo de aplicação exigido pela Realidade Virtual é um tipo diferente de imersão do já utilizado em produtos multi-canal. “Enquanto que o Surround Sound 5.1, 7.1, 22.1 que seja, é orientado em alto-falante, ou seja, mixa-se pensando em qual alto-falante cada som será reproduzido, a Realidade Virtual exige o som orientado à objetos, com cada objeto sendo um emissor de som dentro do campo sonoro principal”, explicou Maurício Gargel.

Andrés Mayo tomou a palavra e dissertou sobre as principais características técnicas e conceitos do áudio para realidade virtual. “A principal diferença é que, numa mixagem para fones de ouvido padrão, o som anda junto com você. Nestas aplicações, se você se afasta de um objeto, o som que ele emite deve afastar-se também. Por isso é preciso estudar todos os tipos de fatores que influenciam na percepção sonora e direcionalidade”, explicou.

Em seguida, o palestrante apresentou um exemplo de fluxo de trabalho baseado no Suite de trabalho da Dolby Atmos. Neste sistema, é preciso considerar cada objeto como uma fonte sonora independente em sinal mono, além dos efeitos ambientes que soam em estéreo. Ao trabalhar a mixagem, observa-se o contexto, a cena em que o áudio está construído e cria-se então diversas esferas de som ocupando todo o espaço, imaginando como cada uma delas deve receber o som de cada elemento emissor.

Já Maurício Gargel apresentou outro fluxo de trabalho, o Ambisonics. Desenvolvido nos anos 1940, mas limitado a um nicho específico até o advento da mixagem por objeto, o sistema baseia-se na captação não da fonte sonora em si, mas de todo o ambiente sonoro, permitindo, por meio de processamento, recriar microfones específicos apontados para elementos específicos dentro daquele campo.

Para ilustrar sua apresentação, Gargel mostrou uma sessão real gravada com microfone Ambisonics tetraédrico (quatro capsulas), e utilizou dos plug-ins de processamento Ambisonics para gerar diferentes captações virtuais dentro daquele ambiente sonoro. Com estas ferramentas, era possível isolar partes físicas do que foi gravado em qualquer ponto tridimensional do ambiente captado.

A AES Brasil Expo acontece entre os dias 16 e 19 de Maio no Expo Center Norte em São Paulo e reúne mais de 40 palestras sobre áudio profissional, iluminação, novas tendências e produção musical. Além da convenção, o evento conta com um feira de tecnologia que reúne os principais fabricantes de sistemas para sonorização, iluminação, gravação, masterização, mixagem e instalações especiais.

Publicado em Notícias