Dlaczego w większości nie wyłączamy muzyki podczas gry? Przecież moglibyśmy skończyć wiele gier bez niej. W poniższym artykule opiszę wpływ jakości nowoczesnej muzyki w grach na zacieranie granicy między sound designem a soundtrackiem oraz spróbuję wyjaśnić zjawiska towarzyszące nam podczas słuchania muzyki w grach. Zapraszam również do zapoznania się z częścią pierwszą artykułu, ponieważ rozszerza ona temat.

Na początku lat 80. pojawiły się już komputery z oddzielnym sound chipem.

Przejdźmy szybko przez początki muzyki w grach. Parametry technologiczne pierwszych gier komputerowych nie pozwalały na zastosowanie skomplikowanych technicznie utworów, jakie mamy teraz. Na początku słyszeliśmy z komputerów IBM i Apple II tylko zlepek prostych dźwięków i szumów, którymi sterował procesor przez tzw. beeper speaker. Na początku lat 80. pojawiły się już komputery z oddzielnym sound chipem, który pozwalał odciążać procesor i umożliwiał generowanie bardziej złożonych dźwięków. Pojawiała się możliwość korzystania z przypisanych syntezatorów pozwalających na tworzenie dźwięku w kilku głosach na kilku kanałach.

Chris Cardinell

Pierwsze Nintendo oferowało 5 kanałów dźwięku, z czego ten ostatni był odpowiedzialny za odtwarzanie bardzo prostych sampli, przykładowo metalicznego werbla Mario Bros. Commodore oferowało 3 kanały ze zmiennymi kształtami fali na każdym kanale z możliwością odtwarzania w 3 głosach jednocześnie. Oba urządzenia, mimo różnic konstrukcyjnych, brzmiały podobnie. Prawdziwą rewolucją stała się ówczesna nowość, którą wprowadziła Yamaha swoim chipem YM3812, pozwalającym odtwarzać dźwięk w 9 głosach. Brzmienia fal syntezatorów wychodzących z chipu były na tyle dobre, że firma Yamaha instalowała je w swoich hardware’owych syntezatorach.

Komputery IBM chętnie korzystały z tych chipów i na kilka lat brzmienie zaproponowane przez Japończyków zdominowało brzmienie gier, aż do czasu pojawienia się bardzo przystępnego domowego komputera Amiga, który wprowadził system Stereo. Na lewym i prawym kanale producenci gier mogli wykorzystać po 2 kanały już nie tylko oferujące fale syntezatorów, a system samplowania, dzięki któremu można było zaprezentować różnorodne brzmienia jak np. gitarę.

Czy sound design coraz bardziej będzie zastępował soundtrack? #1

Analizując ograniczenia, jakie stawiały nam urządzenia, możemy dojść do wniosku, że sound design jak i muzyka były tworzone przez te same komponenty, co stanowiło prawdziwe wyzwanie dla twórców gier. Gry brzmiały podobnie, ale na swój sposób spójnie. Gdy teraz widzimy grafikę z gier z początków gamedevelopmentu, to dosłownie słyszymy, jak one brzmią. To właśnie ograniczenia powodowały, że muzyka i sound design musiały być odpowiednią reakcją na widoczne wydarzenia w grze, oraz musiały dość precyzyjnie współbrzmieć, żeby gracz dostawał klarowny przekaz świata.

Dopiero wraz z wprowadzeniem gier na nośniku CD-ROM producenci mieli możliwość dodania większej trójwymiarowości dźwięku i nadania przestrzeni. Za tym szła też technologiczna ewolucja w sound designie i muzyce, która wyraźnie podzieliła brzmienie właśnie na te 2 dziedziny. Dźwięk zaczął być odpalany z gotowych, dedykowanych plików, a nie ładowany w czasie rzeczywistym ze ścieżki MIDI. Przede wszystkim zmiana ta odciążyła system i wprowadziła różnorodność barw, na które wcześniej ograniczenia pamięci nie mogły pozwolić. W jednym z wywiadów Jason Page z Sony zaznaczył, że była to istotna zmiana, ale w owym czasie było to poświęcenie interaktywności muzyki.

Z biegiem lat i wzrostem narzędzi do realistycznego przedstawiania grafiki rosną też wymagania co do odzwierciedlenia audio. Oczywiście teraz twórcy mają większą swobodę we wdrażaniu swoich pomysłów i powoli dochodzimy do granicy, w której nie ma przeszkód w przedstawieniu audio. W tym zdaniu pomijam ograniczenia wynikające z wyboru platformy, jak np. wymóg małego obciążenia pamięci na telefonie (gdzie i tak granica z roku na rok jest przesuwana). Jakość i kształt audio jest teraz bardziej sprawą decyzji. Możemy zaobserwować w produkcjach europejskich i amerykańskich trend na wykorzystanie tej jakości do ograniczenia muzyki i wysunięcia sound designu na pierwszy plan.

Teraz twórcy mają większą swobodę we wdrażaniu swoich pomysłów.

Przykład gry Death Stranding, który przytaczałem w części pierwszej artykułu, oraz serii The Last of Us, pokazuje bardzo dobrze, jak jakość sound designu może spowodować większe napięcie i poczucie zagrożenia we wszechobecnej ciszy. Każdy dźwięk wydobywany ze świata jest bardzo precyzyjny i naturalny, nie powoduje u graczy poczucia fikcji. W grach na komputery IBM, Apple II, Atari, Commodore czy pierwszych Nintendo ta właśnie „fikcja” była na porządku dziennym i żeby zwiększyć imersję gry oraz wywołać odpowiednie emocje u gracza, muzyka była celowo wykładana o plan wyżej od sound designu.

Tylko czym jest ta „imersja” i jak wpływają na nią dźwięki?

Nie ma ogólnej definicji, ale w literaturze możemy znaleźć jej różne opisy, np.:

  • doświadczenie odcięcia się od ucieleśnienia w teraźniejszości, koncentrując się na środowisku przedstawionym
  • odcięcie się od bezpośredniego fizycznego otoczenia
  • zostanie przeniesionym do świata gry
  • bycie wciągniętym w aktywności
  • silna identyfikacja z sytuacją lub bohaterem gry.

Sander Huiberts z HKU University of the Arts wyróżnił 3 główne aspekty imersji, do których przyporządkowuje przykładową sytuację wywołaną audio.

  • Przeniesienie do świata gry – cechy sensoryczne symulują poczucie bycia w miejscu wydarzeń.
  • Zatracenie się w aktywności – imersja oparta na wyzwaniach.
  • Identyfikacja z sytuacją lub postacią gry.

Przykład:

Bohater gry włamuje się do banku. Wszystko idzie zgodnie z planem, aż do momentu omyłkowego uruchomienia alarmu. Postać i gracz słyszą dźwięk alarmu, tworząc więź odczuwania tego samego zagrożenia między światem fizycznym a fikcyjnym. Dodatkową informację, jaką dostaje gracz, jest muzyka, która włączyła się po uruchomieniu alarmu.

Ten czip zdefiniował muzykę ośmiobitową

Podkręca ona czynniki związane ze stresem, jak i służy za swoisty stoper, który informuje podświadomość gracza o uciekającym czasie potrzebnym np. na ucieczkę lub wykonanie zadania. Do czasu zakończenia zadania więź emocjonalna jest na tyle silna, że wymusza silną koncentrację. Ta koncentracja może jednak być np. pobudzana, jeśli pierwszy raz gracz spotyka się z daną sytuacją/zagrożeniem, odprężana, jeśli zadanie jest wykonywane po raz kolejny.

Dźwięk stanowi most silnego połączenia emocjonalnego dwóch światów. Czynniki odpowiadające za wywołanie tych emocji już dobrze zbadano i opisano pod skrótem „BRECVEMA”. Po rozwinięciu oznacza on:

  • Brainstem reflex – reakcja pnia mózgu (reakcja np. na zmianę głośności lub podczas gdy ciało jest przygotowywane do reakcji np. narastającym dźwiękiem, lub gdy reakcja jest szybka i automatyczna)
  • Rhytmic Entrainment – rytmiczne porwanie (nastrojenie rytmu ciała do słyszanego rytmu np. w muzyce rytualnej)
  • Evaluative Conditioning – wartościowanie warunkowe (muzyka jest przyporządkowana sytuacji np. pogrzebowa)
  • Emotional Contagion – wywołanie emocji (odpowiednie przedstawienie dźwiękowo-muzyczne tej samej emocji np. radość dźwiękiem śmiechu, smutek dźwiękiem płaczu)
  • Visual Imagery – przedstawienie wizualne
  • Episodic memory – pamięć epizodyczna (wywołanie nostalgii u gracza do konkretnego brzmienia)
  • Musical Expectancy – oczekiwania muzyczne (np. grając w Star Wars oczekiwane są motywy muzyczne skomponowane przez Johna Williamsa do oryginalnej trylogii filmów)
  • Aesthetic Judgement – ocena estetyczna (indywidualne postrzeganie dzieła według własnych kryteriów).

W nowoczesnych grach komputerowych powyższy model może być wykorzystany bez ograniczeń. Producent oczekuje, że szeregiem działań wywoła emocje u gracza, które planuje do odpowiedniego przekazania fabuły lub celu gry. Muzyka i sound design są jednymi z jego narzędzi do tego.

Producent oczekuje, że szeregiem działań wywoła emocje u gracza.

„The Last of Us” jest dziełem dobitnie atakującym empatię graczy. Brzmienie gry dokładnie odzwierciedla świat przedstawiony wizualnie oraz dodaje kolorytu scenariuszowi. Studio Naughty Dog opowiada historię o samotności i relacji bohaterów w brutalnym, ale przy tym pięknie zobrazowanym świecie. Możemy tutaj zaobserwować ciekawy sposób przedstawienia mechanizmu BRECVEM wpływającego na ocenę estetyczną całości. Emocje wywołane fabułą i współczuciem wobec bohaterów są podkreślane przez stosunkowo małą ilość muzyki i wzmocniony sound design, co wpływa na spójność i końcowy odbiór gry.

Tak jak w przypadku Death Stranding, słyszymy sprytny sposób połączenia dźwięków diegetycznych i niediegetycznych. Często widzimy towarzyszącą głównym bohaterom gitarę, która jest głównym instrumentem brzmiącym w soundtracku „spoza świata”. Taki zabieg wpływa na poczucie imersji, mimo że widzimy, że żaden z bohaterów nie gra w danym momencie na gitarze, to podświadomość sprzedaje nam spójny obraz wydarzeń, w którym jesteśmy zanurzeni. Wszechobecna cisza daje o sobie znać i przypomina nam o samotności oraz wymusza na twórcach szczegółową dbałość o ten element produkcji, ponieważ zaniedbanie go spowodowałoby wybicie gracza ze świata gry.

Zastanawialiście się czemu w Fifie podczas meczu nie leci muzyka, a podczas przygotowań słyszymy typowy jej styl dla serii? Otóż mecz piłki nożnej jest nasycony dźwiękami takimi jak dźwięki kibiców na trybunach, reakcje piłkarzy, reakcje piłki, gwizdki sędziego oraz charakterystyczny komentator. Dodając muzykę do meczu wywołalibyśmy duży chaos i co najważniejsze, gracz nie dostawałby klarownych informacji z gry. Emocje wywołane gameplayem już są na tyle duże, że wystarcza sam sound design. Natomiast muzyka zastosowana podczas ustawień gry ma na celu odprężyć gracza od szybkiego tempa prowadzonej rozgrywki.

Patrząc na mechanizm BRECVEM, możemy też tutaj wyróżnić jeden ważny aspekt szczególnie wpływający na emocje, czyli „pamić epizodyczna”. Większość grających w Fifę ogląda piłke nożną w świecie w fizycznym i zastosowanie komentatora w grze oraz odpowiednich dźwięków rozgrywki w tym sporcie odwołuje się do pamięci i nostalgii graczy, co w ostatecznym rozrachunku wpływa na emocje i końcowe wrażenie z gry.

Wnioski końcowe i refleksja końcowa

To, jak odbieramy daną grę, jest uzależnione od wielu czynników. Wraz z ciągłą ewolucją game developementu i poprawianiem jakości gier dochodzą nowe wrażenia sensoryczne, które powodują u nas określoną ocenę gry. Muzyka i sound design mają w obecnych czasach świetne warunki na odzwierciedlenie w doskonałej jakości założeń producentów, ale zwiększone zostały też oczekiwania konsumentów. Jeśli zabieg wykorzystania gorszej jakości dźwięku nie jest usprawiedliwiony określonym zamiarem w założeniach gry, to automatycznie jej ocena i postrzeganie spada.

Muzyka i sound design mogą wzajemnie przykrywać swoje niedoskonałości, ale jeśli są wykonane z należytą dbałością, to stanowią silne narzędzie do sterowania imersją gry i emocjami graczy. Prawdą jest, że znaczenie sound designu w stosunku do muzyki w ogólnym podsumowaniu aktualnie wychodzących gier wzrosło. W parze z postępem graficznym poszedł postęp jakości narracji dźwiękowej. Ostatnia prezentacja silnika gier Unreal Engine 5 dodała kolejnych narzędzi, które jeszcze polepszą sound design i mogą zepchnąć na drugi plan na długie momenty muzykę.

W najbliższych latach będziemy słyszeć dużo dobrej jakości sound designu.

Mogą, ale nie muszą. Gra komputerowa to dalej przedstawienie pewnej fikcji i to producenci decydują o proporcjach, które mają przedstawić ich wizję. Nic nie stoi na przeszkodzie, aby płynnie łączyć obie płaszczyzny i tworzyć nowe wrażenia w odbiorze dźwięku. Uważam, że w najbliższych latach będziemy słyszeć dużo dobrej jakości sound designu z minimalnym zepchnięciem na drugi plan muzyki szczególnie w grach typu AAA, ale niecierpliwie czekam na nowości, jakie usłyszę w coraz bardziej kreatywnym wykorzystaniu pięknych melodii muzycznych. Czekam też niecierpliwe na nowe tytuły, które muzykę w grze wyciągną na pierwszy plan, tworząc nowe kamienie milowe. Przecież nie tak dawno w końcu się pojawił DOOM z soundtrackiem Micka Gordona, który stanął w opozycji do trendu i wybronił się doskonale.

Bibliografia:

  • „From everyday emotions to aesthetic emotions: Towards a unified theory of musical emotions” -Patrik N. Juslin, Uppsala University, SwedenReceived 24 April 2013; accepted 15 May 2013
  • Researchgate.net
  • Thomann.de

Czytaj więcej:

Współpracownik

Michał Jaskuła

Kompozytor, reżyser, cosplayer, fascynuje go połączenie środków wizualnych z audio. Według niego kolory tak samo malują muzykę jak i obraz wzajemnie się inspirując, więc korzysta ze wszelkich form wyrazu artystycznego w swoich pracach.