In de afgelopen drie decennia is de realiteit van hoe we muziek consumeren volledig verschoven. Met de komst van DSP's of digitale streamingdiensten zoals Spotify en Apple Music is geluidsnormalisatie een essentieel onderdeel van het proces geworden.
Maar wat betekent het om audio te normaliseren? En hoe kun je je eigen digitale audiobestanden normaliseren? Hieronder vertellen we je precies hoe je audio kunt normaliseren en waarom het een belangrijke stap is in het moderne muziek maken.
Wat is audio normalisatie?
Wanneer je audio normaliseert, pas je een bepaalde hoeveelheid versterking toe op een digitaal audiobestand. Dit brengt het audiobestand op een bepaalde waargenomen amplitude of volumeniveau, terwijl het dynamische bereik van de tracks behouden blijft.
Audionormalisatie wordt gebruikt om het maximale volume uit een geselecteerd geluidsfragment te halen. Het kan ook worden gebruikt om meer consistentie te krijgen over meerdere audioclips. U kunt bijvoorbeeld meerdere tracks in een album of EP hebben.
Het is vermeldenswaard dat nummers met een groter dynamisch bereik een grotere uitdaging kunnen vormen om effectief te normaliseren. Een piekamplitude kan bijvoorbeeld worden geplet of vervormd tijdens het normalisatieproces.
Daarom moet elk audiofragment anders worden benaderd als het gaat om het normalisatieproces. Audionormalisatie is essentieel voor elke digitale opname, maar er is niet één standaardaanpak.
Waarom moet je audio normaliseren?
Waarom is het belangrijk om uw audiobestanden te normaliseren? Hier zijn een paar scenario's waarin loudness normalisatie een must is:
Voorbereiding voor Streamingdiensten
Streamingdiensten stellen een standaardnormalisatieniveau in voor alle nummers in hun muziekbibliotheken. Op die manier hoeven luisteraars het volume niet drastisch harder of zachter te zetten wanneer ze van het ene naar het andere nummer overschakelen. Elk platform heeft een ander doelniveau, dus het is niet ongewoon om verschillende masters te hebben voor verschillende streamingplatforms.
De LUFs Loudness targets voor de meest populaire streamingdiensten zijn als volgt:
Spotify: -14 LUFS
Apple Music: -16 LUFS
Amazon Music: -9 tot -13 LUFS
Youtube: -13 tot -15 LUFS
Deezer: -14 tot -16 LUFS
CD: -9 LUFS
Soundcloud: -8 tot -13 LUFS
Elke ingenieur heeft zijn eigen filosofie bij het bepalen van het streefniveau voor elke master, maar met deze standaardiseringen moet rekening worden gehouden.

Het bereiken van Maximale Volume
Audionormalisatie kan worden gebruikt om de maximale versterking van elk audiobestand te bereiken. Dit kan ongelooflijk nuttig zijn bij het importeren van tracks in audiobewerkingssoftware of om een individueel audiobestand luider te maken.
Maak een consistent niveau tussen verschillende audiobestanden
U kunt ook audio normaliseren om meerdere audiobestanden op hetzelfde relatieve niveau in te stellen. Dit is vooral van belang bij processen als gain staging, waarbij u de geluidsniveaus instelt ter voorbereiding op de volgende fase van verwerking.
Je zou ook audiobestanden kunnen normaliseren en bewerken bij het voltooien van een muziekproject zoals een album of EP. De sfeer en het geluid van de opname moeten overal vrij consistent zijn, dus het kan zijn dat je terug moet gaan en gain moet aanpassen binnen de context van alle nummers.
De twee soorten van audio normalisatie
Er zijn verschillende soorten audio normalisatie voor verschillende audio opname toepassingen. Meestal komt het normaliseren van audio neer op pieknormalisatie en luidheidnormalisatie.
Piek Normalisatie
Pieknormalisatie is een lineair proces waarbij dezelfde hoeveelheid versterking wordt toegepast op een audiosignaal om een niveau te creëren dat consistent is met de piekamplitude van het audiospoor. Het dynamisch bereik blijft hetzelfde en het nieuwe audiobestand klinkt min of meer hetzelfde, afgezien van het feit dat het spoor in een luider of stiller audiobestand verandert.
Dit proces zoekt de hoogste PCM-waarde of pulse-code modulation-waarde van een audiobestand. In principe verwerkt de pieknormalisatie audio op basis van de bovengrens van een digitaal audiosysteem, wat gewoonlijk neerkomt op het normaliseren van de maximumpiek op 0 DB's.
Het normalisatie-effect via pieknormalisatie is strikt gebaseerd op piekniveaus, en niet op het waargenomen volume van het spoor.
Luidheid Normalisatie
Het normalisatieproces van de luidheid is complexer omdat rekening wordt gehouden met de menselijke perceptie van het gehoor. Het menselijk gehoor houdt rekening met verschillende volumes en amplitude afzonderlijk aangezien het menselijk oor bepaalde subjectieve gebreken heeft wanneer het op waarneming aankomt. Deze verwerking wordt ook wel EBU R 128 volumedetectie genoemd.
Zo klinken bijvoorbeeld geluiden die op hetzelfde geluidsniveau worden aangehouden als geluiden die kortstondig of kortstondig worden afgespeeld automatisch luider. Je kunt deze geluiden op hetzelfde volumeniveau laten klinken, en het menselijk gehoor zou het lang aangehouden geluid toch als luider waarnemen. Daarom moet bij het normaliseren van de luidheid rekening worden gehouden met deze perceptuele verschillen.
Sommigen geloven ook dat luidere muziek beter klinkt. Dit is wat aanleiding gaf tot de loudness-oorlogen voordat streamingdiensten bestonden, waarbij muzikanten probeerden het piekvolume te maximaliseren om een sonisch aangenamer kunstwerk te produceren. Gelukkig heeft geluidsnormalisatie effectief een einde gemaakt aan de loudness-oorlog, zodat je niet voortdurend verschillende volumes hoort wanneer je van het ene nummer naar het andere gaat.
Loudness-normalisatie wordt gemeten in LUF's, wat meer overeenstemt met het menselijk oor en dient als de audiostandaard in toepassingen zoals film, TV, radio en streamingdiensten. Net als bij pieknormalisatie blijft 0 dB de norm.

De Fletcher Munson-curve, zoals hierboven afgebeeld, kan helpen om de discrepanties te beschrijven waarmee rekening wordt gehouden bij LUFS loudness-normalisatie.
RMS volumedetectie
Als u stereokanalen niet gaat normaliseren met piekniveau normalisatie, zult u waarschijnlijk loudness normalisatie gebruiken, maar het is nog steeds de moeite waard de andere methode van loudness verwerking te vermelden, namelijk RMS volumedetectie.
Het normalisatieproces is vergelijkbaar met LUF's loudness-normalisatie, maar het maakt gebruik van RMS-niveaus in plaats daarvan. Root Mean Square of RMS meet het gemiddelde volume van een gedeelte of de gehele duur van een clip.
Echter, net als normaliseren op basis van de hoogste piek, houdt RMS normalisatie geen rekening met het menselijk gehoor. Daarom werken mastering-technici meestal met LUF's loudness units en normalisatieprocessen als standaard. Mastering gaat niet alleen over het creëren van passende volumes in een project. Het is ook belangrijk om een stap terug te doen en rekening te houden met dynamiek, menselijke perceptie en balans tussen elke track.
Normalisatie Vs. Compressie: Wat is het verschil?
Vaak wordt gedacht dat normalisatie en compressie hetzelfde zijn, maar dit is een veel voorkomende misvatting. Compressie is bedoeld om het laagste volume van een spoor naar boven te halen en de pieken van een spoor naar beneden te halen, zodat het algemene volumeniveau consistenter wordt. Normalisatie daarentegen stelt het luidste instelpunt in als het plafond van uw geluidsspoor.
Van daaruit wordt een evenredige hoeveelheid clipversterking toegepast op de rest van het geluid, waarbij de dynamiek (de afstand tussen de luidste en zachtste geluiden) behouden blijft en het waargenomen volume effectief wordt verhoogd, afhankelijk van het piekniveau.

De nadelen van Audio Normalisatie
Het is de moeite waard op te merken dat er een aantal nadelen zijn aan audio normalisatie. Meestal normaliseer je audio pas tijdens de laatste fasen van het creatieproces. Dit komt omdat normalisatie audio vaak naar de piekamplitude brengt binnen een digitaal plafond, dus je hebt niet veel bewerkingsmogelijkheden nadat een stuk audio is genormaliseerd.
Je zou geen individuele audiotracks willen normaliseren die nog gemixt moeten worden binnen de context van een multitrack-opname. Als alle individuele componenten al genormaliseerd zijn naar je digitale audioplafond, zullen ze zeker gaan clippen als ze samen worden afgespeeld.
Audionormalisatie is van nature ook destructief. Als je audio normaliseert, wordt de digitale verwerking in het audiospoor ingebakken. Daarom heeft geluidsnormalisatie een duidelijke tijd en plaats. Dit proces wordt meestal gebruikt nadat je audiobestanden naar smaak zijn bewerkt.
Hoe audio te normaliseren
Elke DAW heeft zijn eigen manier om digitale audio te normaliseren. We zullen laten zien hoe je audio kunt normaliseren in Ableton Live, maar alle audio bewerkingssoftware heeft deze mogelijkheid ingebakken in de bediening:
1. Consolideer uw spoor
Om te beginnen brengt u uw audiobestand naar een schoon audiospoor. Selecteer het audiospoor, klik met de rechtermuisknop en selecteer "consolideren" in het menu. U kunt ook de sneltoets CTRL/CMND + J gebruiken om snel een gemarkeerd spoor te consolideren.

2. Warp uitschakelen en versterking terugstellen op 0 dB
Ga van daaruit naar de sample clip om warp uit te schakelen en gain terug te zetten naar 0 DB. U kunt dit doen door te dubbelklikken op de gain pijl:


3. Controle met het originele bestand
Vanaf daar zou je clip genormaliseerd moeten zijn! Je kunt de niveaus van je clip vergelijken met die van het originele audiobestand om er zeker van te zijn dat het correct is verwerkt.
Audio normaliseren is een essentiële vaardigheid voor elke producer. Hopelijk maakt deze gids het makkelijker voor je om precies te begrijpen hoe je je tracks normaliseert en het belang van dit proces.