Procedural Audio: Kompletny przewodnik dla początkujących

Procedural Audio: Kompletny przewodnik dla początkujących Procedural Audio: Kompletny przewodnik dla początkujących

Czy zauważyłeś kiedyś, że kiedy zagłębiasz się w grę, słyszysz różnego rodzaju dźwięki, takie jak kroki, eksplozje i odgłosy otoczenia, z których wszystkie wydają się idealnie dopasowane do twoich działań? Większość z tych dźwięków to wstępnie nagrane próbki audio stworzone przez utalentowanych projektantów dźwięku.

Te małe fragmenty dźwięku występują również w wielu formach, w tym pojedynczych strzałów, takich jak pojedynczy wystrzał z pistoletu, lub pętli, takich jak ciągły szum silnika statku kosmicznego. Być może nie wiesz jednak, że nie wszystkie dźwięki w grach wideo pochodzą z wcześniej nagranych próbek. Niektóre dźwięki są tworzone na bieżąco w trakcie gry.

Nazywamy to dźwiękiem proceduralnym, o którym lubię myśleć jako o osobistym małym kompozytorze gry. Dzięki niemu jesteśmy w stanie dynamicznie tworzyć dźwięki podczas rozgrywki bez polegania na wstępnie renderowanych plikach audio. Oznacza to, że dźwięk, który słyszysz, gdy postać stąpa po żwirze, może być nieco inny za każdym razem, dzięki czemu gra jest jeszcze bardziej wciągająca i realistyczna.

W tym przewodniku przyjrzymy się wszystkiemu, co warto wiedzieć o dźwięku proceduralnym, w tym jego historii, sposobie działania i kilku fajnych przykładach wykorzystania go we współczesnych grach.

Niezależnie od tego, czy jesteś początkującym projektantem dźwięku, czy po prostu ciekawi Cię technologia stojąca za Twoimi ulubionymi grami, zostań z nami! Mamy wiele do omówienia.

Czym jest dźwięk proceduralny?

Dźwięk proceduralny to fascynujący aspekt projektowania dźwięku w grach. Pomysł polega na tworzeniu dźwięku w czasie działania gry lub generowaniu go w locie, w trakcie rozgrywki, a nie na jego wcześniejszym nagrywaniu i odtwarzaniu.

Mówiąc prościej, proceduralne projektowanie dźwięku tworzy efekty dźwiękowe w oparciu o wcześniej określone zachowania. Pomyśl o tym jako o systemie, który wie, jak wygenerować dźwięk kroków za każdym razem, gdy postać chodzi po różnych powierzchniach, bez konieczności nagrywania próbki dla każdego kroku. Zamiast tego syntetyzuje dźwięk w czasie rzeczywistym, dzięki czemu każdy krok jest nieco unikalny.

Technika ta jest podobna do generowania proceduralnego stosowanego w innych częściach gier, takich jak grafika środowiskowa i projektowanie poziomów. Tak jak gra może tworzyć nowy las lub układ lochów za każdym razem, gdy grasz, tak dźwięk proceduralny tworzy krajobrazy dźwiękowe, które słyszysz w oparciu o bieżący stan gry i twoje interakcje.

Korzystając z dźwięku proceduralnego, projektanci dźwięku mogą tworzyć głęboko zintegrowane pejzaże dźwiękowe, które reagują na działania gracza i środowisko gry w spójny i wiarygodny sposób.

Korzystanie z popularnych proceduralnych technik projektowania dźwięku wiąże się jednak z pewnymi niedogodnościami.

Jednym z głównych wyzwań jest złożoność zapewnienia wysokiej jakości i realistycznych dźwięków. Tworzenie przekonującego dźwięku proceduralnego może być bardziej wymagające technicznie niż korzystanie z wcześniej nagranych próbek. Ponadto może wymagać więcej procesora, co może mieć wpływ na wydajność gry, zwłaszcza na systemach z niższej półki.

Historia proceduralnego projektowania dźwięku

We wczesnych dniach gier proceduralne projektowanie dźwięku nie było tylko formą sztuki. Było koniecznością dla dźwięku. Ograniczona pamięć RAM we wczesnych systemach do gier nie była w stanie sprostać wymaganiom pamięci masowej nagranych wcześniej próbek audio, co stanowiło alternatywę dla dźwięku proceduralnego. To ograniczenie zmusiło deweloperów do generowania dźwięków w czasie rzeczywistym podczas gry.

Dźwięk w grze rozpoczął się od kultowej gry Pong na Magnavox Odyssey w 1972 roku. Co ciekawe, oryginalny Magnavox Odyssey nie był wyposażony w żaden dźwięk. Dopiero wersja Ponga na Atari przeszła do historii dzięki wprowadzeniu dźwięku. Atari osiągnęło to dzięki wykorzystaniu Television Interface Adapter (TIA), sprzętu zaprojektowanego do obsługi zarówno wyjść wideo, jak i audio.

TIA mógł generować fale dźwiękowe za pomocą dwóch oscylatorów. Manipulując tymi oscylatorami, wersja Ponga na Atari mogła tworzyć prosty, ale skuteczny dźwięk, oznaczając pierwszy przypadek proceduralnego projektowania dźwięku w grach.

W grze dostępne były trzy podstawowe dźwięki, każdy generowany proceduralnie:

  • Pierwszym dźwiękiem był sygnał dźwiękowy, gdy piłka uderzyła w łopatki, dając graczom natychmiastową informację zwrotną na temat ich trafień
  • Drugim dźwiękiem był głębszy dźwięk ponga, gdy piłka zderzała się ze ścianami, odróżniając go od uderzeń łopatką.
  • Trzecim dźwiękiem był wyższy dźwięk sygnalizujący zdobycie punktu.

Choć podstawowe według dzisiejszych standardów, dźwięki te dodały nową warstwę zaangażowania i informacji zwrotnej, która była kluczowa dla wciągających wrażeń z gry.

Oczywiście wraz z rozwojem technologii, wzrosła również złożoność i jakość dźwięku proceduralnego.

Ewolucja procedur audio

Pod koniec lat 70. dźwięk proceduralny zaczął nabierać kształtu na różnych konsolach do gier. Trzy godne uwagi systemy z tej epoki to Atari 2600, Fairchild Channel F i Bally Astrocade. Każda z tych konsol wykorzystywała dźwięk proceduralny, aby poprawić wrażenia z gry w ramach ograniczeń sprzętowych.

Postęp w latach 80. jeszcze bardziej przesunął granice dźwięku w grach.

W 1983 roku Vectrex wprowadził nowy poziom syntezy dźwięku, podczas gdy Nintendo poczyniło znaczące postępy wraz z wydaniem Nintendo Entertainment System (NES) w 1985 roku. NES wykorzystywał pięciokanałowy system audio, który obsługiwał szerszy zakres częstotliwości od 54 Hz do 28 kHz i mógł wykonywać pitch bends. Kultowe gry, takie jak Super Mario Bros., ustanowiły punkt odniesienia dla dźwięku proceduralnego dzięki niezapomnianym dźwiękom, takim jak "ping" zbierania monet, dźwięk "grzybka" doładowania i efekt "skoku".

W 1986 roku Sega Master System przyniosła jeszcze większą ewolucję dźwięku w grach. Zawierał on zarówno sampling, jak i syntezę elektroniczną, wykorzystując cztery kanały audio (trzy dla muzyki i jeden dla efektów dźwiękowych). Master System był wyposażony w układ YM2413 firmy Yamaha, ten sam układ używany w profesjonalnych syntezatorach, co znacznie poprawiło jakość i złożoność dźwięków, które mógł wytwarzać.

Ewolucja była kontynuowana wraz z wydaniem Sega Mega Drive (Genesis) w 1988 roku i Super Nintendo Entertainment System (SNES) w 1990 roku. Obie te konsole wprowadziły bardziej wyrafinowane możliwości audio, w tym próbki wyższej jakości i więcej kanałów dla bogatszych krajobrazów dźwiękowych.

Jednak dopiero po premierze Sega Saturn w 1994 roku mogliśmy zobaczyć kolejny kamień milowy w ewolucji dźwięku w grach. Była ona wyposażona w układ dźwiękowy i procesor dźwięku zdolny do obsługi do 16 kanałów audio z jakością 44,1 kHz CD, przygotowując grunt pod wysokiej jakości dźwięk, jakiego oczekujemy w nowoczesnych grach.

Nagrane efekty dźwiękowe i muzyka

W 1994 roku świat gier doświadczył monumentalnej zmiany wraz z wydaniem PlayStation firmy Sony. Konsola ta wprowadziła znaczące ulepszenie możliwości audio, oferując częstotliwość próbkowania 44,1 kHz i 24 kanały dźwięku stereo. Układ dźwiękowy PlayStation był przełomem, pozwalając na efekty pogłosu i zapętlanie.

Dzięki nowo odkrytej elastyczności kompozytorzy i projektanci dźwięku mogli tworzyć bardziej złożone i wciągające krajobrazy dźwiękowe, aby wzbogacić wrażenia każdego gracza.

Przed erą PlayStation tworzenie dźwięku do gier wymagało głębokiego zrozumienia programowania audio i dźwięku proceduralnego. Osoby tworzące dźwięki musiały być dobrze zorientowane w złożonym kodowaniu i przetwarzaniu sygnałów, aby generować i wdrażać efekty dźwiękowe i muzykę. Sprawiało to, że proces ten był bardzo pracochłonny i często ograniczał kreatywność tych, którzy byli bardziej uzdolnieni muzycznie, ale mniej technicznie.

Pod wieloma względami PlayStation zrewolucjonizowało ten proces, umożliwiając łatwą implementację nagranych wcześniej efektów dźwiękowych i muzyki w grach. Kompozytorzy i projektanci dźwięku nie musieli już martwić się zawiłościami dźwięku proceduralnego. Zamiast tego mogli skupić się wyłącznie na tworzeniu wysokiej jakości efektów dźwiękowych i muzyki, które następnie przekazywali deweloperom w celu integracji z grą.

Czy audio proceduralne wyszło z mody?

Pomimo wzrostu popularności nagranych wcześniej efektów dźwiękowych i muzyki, dźwięk proceduralny jest daleki od wyjścia z mody. Wiele gier po premierze PlayStation nadal wykorzystuje matematyczne modele dźwięku proceduralnego. Przyjrzyjmy się kilku najpopularniejszym z nich.

Nowoczesne gry wykorzystujące dźwięk proceduralny

Zarodnik

W przełomowej grze Spore z 2008 roku programiści dźwięku Aaron McLeran i Ken Jolly wykorzystali zaawansowane techniki dźwięku proceduralnego, aby stworzyć dynamiczne i wciągające wrażenia słuchowe.

Wykorzystali oni adaptację Pure Data o nazwie libpd, wbudowaną bibliotekę syntezy dźwięku zaprojektowaną w celu zintegrowania potężnych możliwości Pure Data z innymi aplikacjami. Pure Data, dla tych, którzy nie wiedzą, to wizualny język programowania o otwartym kodzie źródłowym dla multimediów, który jest szeroko stosowany w tworzeniu interaktywnej muzyki komputerowej i dźwięku.

Libpd umożliwił zespołowi generowanie muzyki i dźwięków środowiskowych w oparciu o nieskończenie zmieniające się zmienne w grze. Na przykład, gdy gracze tworzyli i rozwijali swoje stworzenia, dźwięki wydawane przez te stworzenia były generowane w czasie rzeczywistym, odzwierciedlając ich unikalne cechy i zachowania.

Wykorzystanie dźwięku proceduralnego zapewniło każdemu graczowi wyjątkowe i osobiste wrażenia z gry.

No Man's Sky

No Man's Sky to kolejny doskonały przykład tego, jak proceduralne projektowanie dźwięku może stworzyć bogaty i dynamiczny świat gry. Zespół deweloperów stanął przed wyjątkowym wyzwaniem stworzenia ścieżki dźwiękowej, która mogłaby dostosować się do proceduralnie generowanego uniwersum gry. Ponieważ większość zasobów gry, w tym planety, ekosystemy, a nawet stworzenia, jest generowana algorytmicznie, tradycyjna, wcześniej nagrana ścieżka dźwiękowa nie byłaby wystarczająca.

Aby sprostać temu wyzwaniu, zespół Hello Games wykorzystał oprogramowanie pośredniczące audio Wwise, a konkretnie niestandardową wtyczkę znaną jako VocAlien. Narzędzie to było niezbędne do syntezy wokalizacji dla różnorodnych i unikalnych stworzeń w grze. VocAlien generuje dźwięki w oparciu o cechy każdego stworzenia, takie jak jego rozmiar i typ, zapewniając, że każdy dźwięk jest odpowiedni i niepowtarzalny.

Proceduralny system audio w grze pozwolił również twórcom na zasadnicze "wykonywanie" dźwięków. Oznacza to, że tworzone krajobrazy dźwiękowe nie są statycznymi nagraniami, ale dynamicznymi fragmentami dźwięku, które zmieniają się w czasie rzeczywistym w oparciu o podstawowe animacje i zachowania stworzeń.

W rezultacie dźwięki słyszane podczas eksploracji są ściśle powiązane z działaniami na ekranie i warunkami środowiskowymi.

Elite Dangerous

Elite Dangerous, kosmiczna gra eksploracyjna science-fiction z 2014 roku, ustanowiła wysoką poprzeczkę dla wciągającego dźwięku w grach dzięki wykorzystaniu proceduralnego projektowania dźwięku. Twórcy gry wykorzystali techniki proceduralne do tworzenia dynamicznych i adaptacyjnych dźwięków, szczególnie w przypadku silników statków kosmicznych i interfejsów graficznych.

Mini Metro

Mini Metro to minimalistyczna gra symulacyjna metra z 2015 roku, która wykorzystuje dźwięk proceduralny do stworzenia adaptacyjnej i wciągającej ścieżki dźwiękowej, która poprawia rozgrywkę. Deweloperzy, Dino Polo Club, od samego początku dążyli do zintegrowania muzyki proceduralnej, wykorzystując mocne strony technik proceduralnych, aby dopasować je do dynamicznej natury gry.

Kompozytor Rich Vreeland wykorzystał proceduralny system muzyczny, który reaguje na działania gracza i ewoluujący system metra. Każde miasto w grze ma swój własny zestaw cech muzycznych, takich jak rytmy i wybory harmoniczne, które zmieniają się dynamicznie w zależności od tego, jak gracze budują i zmieniają swoje linie metra.

Just Cause 4

W Just Cause 4 deweloperzy wykorzystali proceduralne projektowanie dźwięku dla efektu dźwiękowego whoosh generowanego, gdy gracz mija pojazd NPC w ruchu ulicznym. Efekt ten jest tworzony przy użyciu syntezy runtime z oprogramowania pośredniczącego FMOD.

Ten efekt dźwiękowy whoosh został zsyntetyzowany przy użyciu mieszanki białego i brązowego szumu. Biały szum ma taką samą intensywność na różnych częstotliwościach, tworząc spójny syczący dźwięk, podczas gdy brązowy szum ma więcej energii na niższych częstotliwościach, tworząc głębszy, bardziej miękki dźwięk.

Mieszając te dwa rodzaje hałasu w różnych proporcjach, zespół był w stanie zmieniać moc połączonego dźwięku w oparciu o kilka zmiennych w grze, takich jak odległość do pojazdów NPC, prędkość tych pojazdów i prędkość pojazdu gracza.

Dzięki takiemu podejściu efekty dźwiękowe w silniku gry były w stanie dynamicznie dostosowywać się do działań gracza i środowiska.

Przemyślenia końcowe - spojrzenie w przyszłość projektowania dźwięku proceduralnego

Dźwięk proceduralny oferuje ogromną elastyczność w nowoczesnej rozgrywce. Projektanci dźwięku mogą tworzyć dynamiczne i adaptacyjne pejzaże dźwiękowe, które reagują na działania gracza i zmiany środowiskowe w czasie rzeczywistym, zapewniając, że wrażenia każdego gracza są wyjątkowe, jednocześnie zwiększając immersję i zaangażowanie poprzez dostarczanie efektów dźwiękowych dostosowanych do konkretnego kontekstu rozgrywki.

Jednak pomimo zalet dźwięku proceduralnego, próbkowany dźwięk pozostaje złotym standardem w osiąganiu najwyższej wierności i realizmu. Wstępnie nagrane próbki wychwytują niuanse i naturalne cechy rzeczywistych dźwięków, zapewniając niezrównany poziom jakości dźwięku. Dlaczego po prostu nie zaprogramować niektórych z milionów próbek hitów sword dostępnych w bibliotekach próbek zamiast syntetyzować własne?

Patrząc w przyszłość, techniki proceduralne prawdopodobnie będą nadal ewoluować i rozszerzać tradycyjne metody projektowania dźwięku. Integrując proceduralne projektowanie dźwięku z próbkowanym dźwiękiem, twórcy gier będą mogli wykorzystać mocne strony obu podejść, aby uzyskać bardziej dynamiczne i realistyczne krajobrazy dźwiękowe.

Ożyw swoje utwory dzięki profesjonalnemu masteringowi w kilka sekund!