Durante as últimas três décadas, a realidade de como consumimos música mudou completamente. Com o advento dos DSPs ou serviços de streaming digital como Spotify e Apple Music, a normalização de áudio tornou-se uma parte essencial do processo.
Mas o que significa normalizar o áudio? E como pode normalizar os seus próprios ficheiros áudio digitais? Abaixo, vamos partilhar exactamente como normalizar o áudio e porque é um passo fundamental na produção de música moderna.
O que é a normalização de áudio?
Quando se normaliza o áudio, está-se a aplicar uma certa quantidade de ganho a um ficheiro áudio digital. Isto leva o seu ficheiro de áudio a uma amplitude ou nível de volume percebido alvo, preservando ao mesmo tempo a amplitude dinâmica das faixas.
A normalização de áudio é utilizada para alcançar o volume máximo a partir de um clip de áudio seleccionado. Também pode ser utilizada para criar mais consistência entre vários clipes de áudio. Por exemplo, pode ter múltiplas faixas dentro de um álbum ou EP.
Vale a pena notar que canções com uma gama dinâmica maior podem ser mais desafiantes para normalizar eficazmente. Por exemplo, um pico de amplitude pode ficar esmagado ou distorcido através do processo de normalização.
Por conseguinte, cada clip de áudio deve ser abordado de forma diferente quando se trata do processo de normalização. A normalização de áudio é essencial para qualquer gravação digital, mas não há uma abordagem de tamanho único.
Porque é que se deve normalizar o áudio?
Então porque é importante normalizar os seus ficheiros áudio? Aqui estão alguns cenários em que a normalização da sonoridade é uma obrigação:
Preparação para Serviços de Streaming
Os serviços de streaming estabelecem um nível de normalização padrão entre as canções alojadas nas suas bibliotecas de música. Desta forma, os ouvintes não terão de aumentar ou diminuir drasticamente o volume quando mudam de uma canção para outra. Cada plataforma tem um nível alvo diferente, por isso não é invulgar ter diferentes masters para várias plataformas de streaming.
Os alvos da LUFs Loudness para os serviços de streaming mais populares são os seguintes:
Spotify: -14 LUFS
Música da Maçã: -16 LUFS
Música da Amazónia: -9 a -13 LUFS
Youtube: -13 a -15 LUFS
Deezer: -14 a -16 LUFS
CD: -9 LUFS
Nuvem de som: -8 a -13 LUFS
Cada engenheiro tem a sua própria filosofia quando se trata de determinar o nível alvo para cada mestre, mas estas padronizações devem ser tidas em conta.

Atingir o volume máximo
A normalização de áudio pode ser utilizada para alcançar o ganho máximo de cada ficheiro de áudio. Isto pode ser incrivelmente útil ao importar faixas em software de edição áudio ou para tornar um ficheiro áudio individual mais alto.
Criar um Nível Consistente entre vários ficheiros áudio
Também se pode normalizar o áudio para definir múltiplos ficheiros de áudio ao mesmo nível relativo. Isto é particularmente essencial em processos como a encenação de ganho, onde se definem níveis de áudio em preparação para a próxima fase de processamento.
Poderá também normalizar e editar ficheiros áudio ao completar um projecto musical como um álbum ou EP. Toda a atmosfera de gravação e som deve ser bastante consistente em todo o processo, pelo que poderá ter de voltar atrás e ajustar o ganho dentro do contexto de todas as canções.
Os dois tipos de normalização de áudio
Existem diferentes tipos de normalização de áudio para vários casos de utilização de gravação de áudio. Na maioria das vezes, a normalização de áudio resume-se à normalização de pico e à normalização da sonoridade.
Normalização do Pico
A normalização do pico é um processo linear onde a mesma quantidade de ganho é aplicada sobre um sinal de áudio para criar um nível consistente com a amplitude do pico da pista de áudio. O alcance dinâmico permanece o mesmo, e o novo ficheiro de áudio soa mais ou menos o mesmo fora da pista transformando-se num ficheiro de áudio mais alto ou mais silencioso.
Este processo encontra o valor mais alto de PCM ou de modulação por código de pulso de um ficheiro de áudio. Basicamente, a normalização de pico processa o áudio com base no limite superior de um sistema de áudio digital, o que normalmente equivale a normalizar o pico máximo a 0 DBs.
O efeito de normalização através da normalização dos picos é estritamente baseado nos níveis de pico, e não no volume percebido da via.
Normalização da Loucura
O processo de normalização do ruído é mais complexo, uma vez que tem em conta a percepção humana da audição. A audição humana é responsável por diferentes volumes e amplitudes separadamente, uma vez que o ouvido humano tem certas falhas subjectivas quando se trata de percepção. Poderá ouvir este processo referido como EBU R 128 de detecção de volume.
Por exemplo, os sons que são mantidos ao mesmo nível de áudio que os sons que são reproduzidos transitória ou brevemente soam mais alto automaticamente. Estes sons podem ser emitidos ao mesmo nível de volume, e a audição humana ainda perceberia o som sustentado como mais alto. Assim, a normalização da sonoridade tem de ser responsável por estas compensações perceptivas.
Alguns também acreditam que a música mais alta tende a soar melhor. Foi isto que deu origem às guerras do som alto antes de existirem serviços de streaming, onde os músicos tentariam maximizar o volume de pico para produzir uma peça de arte mais sonora e agradável. Felizmente, a normalização do áudio acabou efectivamente com a guerra da sonoridade, para que não se ouça constantemente volumes diferentes ao saltar de uma faixa para a outra.
A normalização do ruído é medida em LUFs, o que é mais verdadeiro para o ouvido humano e serve como padrão de áudio em aplicações como filmes, TV, rádio, e serviços de streaming. Tal como a normalização de pico, 0 dBs continuam a ser o padrão.

A curva Fletcher Munson, como acima descrita, pode ajudar a descrever as discrepâncias tidas em conta com a normalização da sonoridade LUFS.
RMS Detecção de Volume
Se não vai normalizar os canais estéreo com normalização de pico de nível, é provável que utilize a normalização de ruído, mas ainda vale a pena mencionar o outro método de processamento de ruído, que é a detecção de volume RMS.
O processo de normalização é semelhante à normalização da sonoridade LUF, mas utiliza níveis RMS. Root Mean Square ou RMS mede o volume médio de uma secção ou a duração total de um clip.
No entanto, tal como a normalização baseada no pico mais alto, a normalização RMS não tem em conta o ouvido humano. É por isso que os engenheiros dominadores trabalham tipicamente com unidades de sonorização LUFs e processos de normalização como padrão. Dominar não se trata apenas de criar volumes correspondentes ao longo de um projecto. É também chave para recuar e considerar a dinâmica, percepção humana, e equilíbrio entre cada faixa.
Normalização Vs. Compressão: Qual é a diferença?
Muitas vezes, pensa-se que a normalização e a compressão são a mesma coisa, mas esta é uma concepção errada comum. A compressão é concebida para elevar o volume mais baixo de uma via e baixar os picos de uma via, criando níveis de volume globalmente mais consistentes. Em contraste, a normalização define o set point mais alto como o tecto da sua pista de áudio.
A partir daí, uma quantidade proporcional de ganho do clip é aplicada ao resto do áudio, preservando a dinâmica (a distância entre os sons mais altos e mais suaves), elevando efectivamente o volume percebido, dependendo do nível de pico.

As desvantagens da normalização de áudio
Vale a pena notar que há algumas desvantagens na normalização do áudio. Na maioria das vezes, só se está a normalizar o áudio durante as fases finais do processo de criação. Isto porque a normalização leva frequentemente o áudio até à amplitude máxima dentro de um tecto digital, pelo que não se tem muito poder de edição depois de uma peça de áudio ter sido normalizada.
Não se pretende normalizar as faixas de áudio individuais que ainda precisam de ser misturadas no contexto de uma gravação multi-faixa. Se todos os componentes individuais já estiverem normalizados no seu tecto de áudio digital, eles irão certamente ser cortados quando tocados em conjunto.
A normalização de áudio é também destrutiva por natureza. Quando se normaliza o áudio, o processamento digital é cozido na pista de áudio. Portanto, a normalização de áudio tem um tempo e um lugar claros. Este processo é utilizado principalmente depois de os seus ficheiros de áudio terem sido processados a gosto.
Como normalizar o áudio
Cada DAW tem a sua própria forma de normalizar o áudio digital. Mostraremos como se pode normalizar o áudio no Ableton Live, mas todo o software de edição de áudio tem esta capacidade incorporada nos seus controlos:
1. Consolidar a sua pista
Para começar, traga o seu ficheiro áudio para uma pista de áudio limpa. Seleccione a pista de áudio, clique com o botão direito do rato e seleccione "consolidar" no menu. Também pode utilizar o atalho de teclado CTRL/CMND + J para consolidar rapidamente uma faixa em destaque.

2. Desactivar Warp e Reiniciar Ganho até 0 dB
A partir daí, vá para o clipe da amostra para desactivar a urdidura e reinicie o ganho para 0 DB. Pode fazer isto clicando duas vezes na seta de ganho:


3. Verificação contra o ficheiro original
A partir daí, o seu clipe deve ser normalizado! Pode verificar os níveis do seu clipe em relação ao ficheiro de áudio original para se certificar de que foi processado correctamente.
A normalização do áudio é uma competência essencial para qualquer produtor. Esperemos que este guia lhe facilite compreender exactamente como normalizar as suas faixas e a importância deste processo.