Udostępnij
Udostępnij
Wyślij link
> Paweł Fidala

Paweł Fidala



Kampanie marketingowe wszelakich systemów związanych z dźwiękiem przyzwyczaiły nas do promocji przede wszystkim przez pryzmat jednej cechy: wierności brzmienia. I chociaż w przypadku muzyki klasycznej czy niektórych rodzajów jazzu jest to bardzo znaczący parametr, to w przypadku popu czy rocka drobne wybiegi w kreowaniu efektu finalnego są często wskazane. Podejście, gdzie brzmienie jest znacznie bardziej kreowane niż wiernie transmitowane, jest nieodzownym elementem realizacji dźwięku dla telewizji. O dźwięku w telewizji, sprzęcie, historii i rozwoju technologii na naszym polskim podwórku rozmawialiśmy z Pawłem Fidalą.

 

 

Rozwój telewizji w ostatnich latach wymusił zmianę zarówno technik, jak i sprzętu używanego przy realizacjach. Początki dźwięku w telewizji to marnej jakości sygnał mono, brak jakichkolwiek procesorów pozwalających na edycję i kreowanie brzmienia, o montażu w formie graficznej na ekranie komputera nie wspominając. Rozwój technologiczny ostatnich lat umożliwił nie tylko prostszą pracę, ale dał zdecydowanie lepsze efekty końcowe. Dzisiejsi realizatorzy mają do dyspozycji liczne rozwiązania cyfrowe, doskonałej jakości systemy mikrofonowe oraz narzędzia umożliwiające transmisję nie tylko bardzo dobrego jakościowo dźwięku, ale także w formie wielokanałowej. Choć – jak podkreślają związani z telewizyjnym dźwiękiem realizatorzy – miksowanie „pod obrazek” to swego rodzaju sztuka oszustwa, a w produkcjach z udziałem kamer wciąż główny nacisk jest nałożony na wizję a nie na fonię, to historia doskonale pamięta przypadki, w których wydawnictwa koncertowe z udziałem kamer zyskały dużo większą popularność w wersjach audio. Jedną z osób, która na polskiej arenie przyczyniła się do zmiany sposobu myślenia o dźwięku w telewizji jako wyłącznie dodatku do obrazka, windując go do miana równoznacznego elementu produkcji, jest związany z wieloma polskimi stacjami telewizyjnymi, firmami producenckimi, agencjami reklamowymi, studiami nagraniowymi i wydawnictwami Paweł Fidala. Z wykształcenia informatyk, ale w branży już od trzydziestu lat jednoznacznie łączony z dźwiękiem i to w najróżniejszych odsłonach. W swojej karierze zajmował się realizacją koncertów telewizyjnych, festiwali, pracował jako realizator live z wieloma zespołami, przygotowywał dubbingi na potrzeby filmów, seriali, bajek, zajmował się postprodukcją, reklamami, rejestracją dźwięku na planach filmów fabularnych, dźwiękiem w programach publicystycznych i wielu innych produkcjach. Paweł Fidala dzisiaj nie pracuje już zawodowo z dźwiękiem, jednak bardzo często i chętnie bierze udział w licznych dyskusjach na forach i portalach branżowych, dzieląc się swoimi doświadczeniami z młodszymi kolegami. Udało mi się namówić go na rozmowę podsumowującą wszystkie kamienie milowe jego kariery. Tym wspólnym mianownikiem oczywiście jest dźwięk i to w najróżniejszych odsłonach.

 

Łukasz Kornafel, MiT: Gdy usłyszymy nazwisko Paweł Fidala, to pierwszą rzeczą, która przychodzi nam na myśl, jest realizacja dźwięku, ale za twoim trzydziestoletnim doświadczeniem w branży nie stoi żadna szkoła.

Paweł Fidala: Z wykształcenia jestem informatykiem, natomiast moją przygodę z muzyką zaczynałem w Sosnowcu, mając piętnaście lat. Mój wujek był szefem Domu Kultury „Kolejarz”, który miał własną aparaturę nagłaśniającą. Ponadto moich dwóch kuzynów grało w zespole, zresztą obecnie grają w grupie Kruk. Zacząłem przychodzić na ich próby, pomagać im i tak się wciągnąłem. To był związek na takiej zasadzie, że jeszcze robiłem nagłośnienia, ale byłem już realizatorem pracującym na stałe z kapelą. Bywałem na ich próbach, zrobiłem im demo, graliśmy próby w piwnicach. Miałem stary mikser Vermona z dwunastoma wlotami, kamerę pogłosową taśmową Roland i z udziałem tego właśnie sprzętu robiliśmy dużo fajnych rzeczy. Oprócz tego z wspomnianym już wujkiem jeździłem i nagłaśniałem różne rzeczy. Gdy miałem szesnaście lat, podpisałem pierwszą umowę o pracę. W dziedzinie realizacji dźwięku jestem kompletnym samoukiem...

 

Samoukiem, czerpiącym swoją wiedzę z…

Z praktyki. Wszystko z praktyki. Oprócz tego nie mam również wykształcenia muzycznego – z wyjątkiem tego, że trochę gram na gitarze.

 

Czułeś kiedykolwiek, że ten brak wykształcenia muzycznego może być jakąś przeszkodą w realizacji dźwięku?

Nie. Byłem dużo z kapelami, dużo słuchałem, dużo się osłuchiwałem, mam dobrą pamięć muzyczną. Do pracy mam przygotowanie techniczne, no i wiedzę informatyczną, która mi później dużo pomogła. Zawsze miałem fioła na punkcie nowinek technicznych. Pierwsze kompresory, pierwsze konsolety cyfrowe zostały wprowadzone w czasie, gdy kierowałem działami dźwiękowymi w telewizji. Zawsze byłem rockowcem – to mnie wyróżniało od klasycznie wykształconych reżyserów dźwięku. Koledzy byli gruntownie wykształceni, ale do nagrywania muzyki poważnej, a więc bez kompresji, korekcja na zero, czysty dźwięk – i oni tak robili. Ja jestem fanem rocka i bluesa, dla mnie realizacja dźwięku to sztuka oszustwa. Masz zrobić tak, żeby potem to sprzedać, żeby widz to chwycił. Jak robisz kapelę, to jesteś przedłużeniem tej kapeli.

 

W niedługim czasie pojawiła się pierwsza instytucja związana z nadawaniem...

Gdy powstało studenckie Radio R, zacząłem w nim pomagać. Zajmowałem się wszystkimi sprawami związanymi z techniką, realizowałem audycje, koordynowałem całość. Później przeniosłem się do Radia Flash. I tam odpowiadałem chociażby za przygotowywanie listy przebojów. Ale nie tworzyło się jej tak jak teraz, że układa się listę w komputerze i jedzie po kolei, wszystko grało się z czarnych płyt. Trzeba było na przykład zrobić skrót trzydziestu utworów, tak żeby zmieściły się w trzydziestu minutach. Konieczne było podcięcie tych numerów, poskładanie w jedną całość i to wszystko na żywo. Zresztą ja najbardziej lubię pracę na żywo, to jest mój żywioł. To ma być moment, chwila. Z Radia Flash trafiłem do pierwszej stacji telewizyjnej i od razu była to Telewizja Katowice. Miałem to szczęście, że wtedy byłem jedynym realizatorem w tej stacji. Swego czasu robiliśmy tam bardzo fajne realizacje – co dwa tygodnie w piątek w ramach audycji 100% na żywo graliśmy koncert jakiejś pierwszoligowej gwiazdy. Robiliśmy na przykład koncerty Edyty Bartosiewicz, debiutanckie koncerty Myslovitz – po których to zespół nagrał swoją pierwszą płytę – i koncerty w zasadzie wszystkich innych ówczesnych gwiazd.

 

Na jakim sprzęcie realizowałeś te koncerty?

Niestety, w czasie, gdy trafiłem do telewizji katowickiej, była ona dosyć mocno zabiedzona. W Warszawie były już lepsze kamery, realizatorzy dźwięku pracowali na konsoletach Studera, mieli do dyspozycji pogłosy Lexicona, Yamahy, a u nas – jak zostało z lat sześćdziesiątych, tak było. I zrób czołówkę polskich gwiazd na stole marki Fonia, bez kompresora, z korekcją wysokie niskie, z gainem opartym na przełącznikach z regulacją co 10 czy co 15 dB – masakra! Do tego miałem jeden z pierwszych plastikowych pogłosów DigiTecha...

 

Oczywiście nie było na co nagrać tego wielośladowo…

A skąd! Szliśmy na żywo! Nie brałem sumy z nagłośnienia, stół miał jednak dwanaście wlotów, więc trzeba było kombinować.

 

 I rozszywałeś się 1:1?

Nie. Wiesz, jestem nauczony trochę inaczej. Nie potrzebuję rozszycia 1:1, żeby zrobić koncert na potrzeby transmisji. Jedyną rzeczą, którą w tamtym czasie brałem, były bębny, a i tak nie całe. Zawsze brałem stopę osobno, werbel osobno natomiast resztę w formie sumy. Oczywiście to wszystko było potem miksowane do mono, a co gorsza pracowaliśmy na tak fatalnych nadajnikach, że obcinały wszystko, natomiast jako odsłuch mieliśmy starego Altusa – jednego, ustawionego centralnie. Oczywiście nie miałem pojęcia, jak to, co słyszę przed sobą, i to, co robię, zabrzmi w telewizorze, jednakże była to już era VHS-ów. Więc nagrywałem w domu to, co realizowałem, odtwarzałem sobie i dzięki temu mogłem już na następny koncert pewne rzeczy podbić, przyciąć, dołożyć, zmienić, tak żeby efekt finalny był lepszy. W ogóle miałem takie szczęście, że gdy przyszedłem do telewizji, to pracowali tutaj wciąż ludzie, którzy tworzyli telewizję, jak Norbert Szklorcz czy Henryk Świtała. Było to dwóch ludzi, którzy robili wszystkie rzeczy i tutaj w Katowicach, i w Warszawie. Nauczyli mnie oni masy fajnych rzeczy, na przykład jak zbierać na jeden mikrofon, a głównie posługiwaliśmy się neumannami U87.

 

W czasach, gdy często na koncertach jest setka i więcej mikrofonów, transmisja na przykład fortepianu z użyciem jednego mikrofonu brzmi dość archaicznie…

Praca w telewizji to przede wszystkim praca z pojemnościami. Pamiętam taką sytuację: dawno, dawno temu nagrywaliśmy jakąś produkcję, w której udział brał Jose Torres. Przyjechał do studia z kilkoma congami, którym towarzyszył tylko gitarzysta – proste nagranie. Oczywiście można było postawić trzy statywy, z trzema mikrofonami, ale nie postawię sześciu mikrofonów dla dwóch facetów! Tak więc zdecydowałem, że postawię jeden, właśnie neumanna U87 – mój ulubiony mikrofon. Uważam, że jeśli chodzi o pojemność, nie ma lepszego mikrofonu, zarówno jeśli chodzi o zbieranie wokalu, gitary czy właśnie jakichś perkusjonaliów. I postawiłem tego jednego neumanna i afera. Jednak Jose przyszedł, posłuchał tego, co nagrałem, i mówi: „Miałeś rację!”. Zresztą na przykład bębny w studiu potrafiłem złożyć tylko z dwóch mikrofonów.

 

Ale do stopy to już dynamiki?

Tak. Dla mnie mikrofonem do stopy były stare kostki AKG D12 – nie do pobicia. Potem wyszła wersja D112, ale to już nie było to samo. Ten mikrofon był tępy, nie szedł pełnym pasmem, miał dosyć podcięte pasmo w dole i z góry, ale ja uwielbiam atak w stopie. Zresztą po pracy w telewizji dosyć ordynarnie podcinam dół w stopie. Oczywiście teraz jest transmisja cyfrowa, telewizory HD itd. Kiedyś, jak były stare nadajniki, to w ogóle nie było czego szukać poniżej 500 Hz. Dlatego trochę oszukiwałem, na przykład stopę robiłem mocno na 4 kHz. Wiadomo, że wtedy ona nie szła mocno dołem, ale była selektywna, czytelna i odpowiednio zaznaczona w miksie. Jeszcze raz podkreślam: realizacja dźwięku to oszustwo.

 

Ze względu na jakość reprodukcji brzmienia?

Taka jest specyfika pracy. Telewizja to przede wszystkim obrazek, czego niestety wciąż wielu realizatorów rozpoczynających ścieżkę kariery nie rozumie i robią na planie radio. Zresztą nawet tak się mówiło: stawiasz tutaj mikrofon? Co mi tutaj, radio robisz? Bar dzo ważne jest, aby obrazek był czysty. Oczywiście koncert rządzi się swoimi prawami, ale przypuśćmy, że siedzi tylko facet przy fortepianie, to przecież nie postawisz mu pięciu mikrofonów na statywach – tutaj jesteśmy podporządkowani obrazkowi. Z moich obserwacji i doświadczeń jednoznacznie wynika, że dźwięk niestety jest brany pod uwagę na samym końcu. Zawsze dużo więcej czasu na próby ma światło, realizacja wizji, ale tak musi być. W telewizji generalnie musisz działać szybko. Nie ma możliwości, że ktoś przyjdzie tutaj pracować i będzie mógł sobie dłubać tak, jak robiłby to w studiu czy pracując na stałe z danym zespołem live. Teraz można sobie przywołać ustawienia, odpalić pluginy, często nawet zespół nie jest potrzebny do próby. My pracowaliśmy w zupełnie innych czasach. Nie było wtyczek programowych, nie było automatyki w stołach – wszystko trzeba było ustawiać na żywo. Gdybym wtedy chciał podsłuchać tor po torze, ustawić – nie byłoby siły, żebym zdążył. Więc gdy już przychodziłem na próbę i słyszałem, jak gra kapela, jak brzmi stopa, werbel, gitary, to siadając za stołem, wiedziałem, jaki będzie efekt. Oczywiście miałem swoje patenty, no i oczywiście świadomość tego, na potrzeby jakiego medium przygotowujemy koncert, na przykład dokładnie wiem, jak ma brzmieć w telewizji stopa itd. Jeżeli chodzi generalnie o przygotowywanie ustawień dla danego systemu, to nigdy nie pracowałem tak, że kapela wchodzi, a ja otwieram stopę, ustawiam stopę, dalej werbel itd. Nie tędy droga. Zawsze robię tak: ustawiam na zero tłumiki i proszę grać, chłopaki! Są interferencje między mikrofonami, zmieniają się barwy, zmieniają się sygnały. Gdy zrobimy sobie piękne, wymuskane brzmienie poszczególnych wlotów, bardzo czyste i sterylne, to może okazać się, że jak odpalimy całość, to efekt będzie mizerny. Trzeba myśleć inaczej, myśleć jak kapela. Trzeba zrobić tak, żeby było dobrze w całości. Gdyby ktoś podsłuchał poszczególne tory, z których miksowałem całą kapelę, powiedziałby: tragedia, ale w całości się to klei.

 

W całości, czyli również z publicznością?

Tak, zwłaszcza na dużych koncertach, dużych festiwalach. Uczyłem się na płytach live Piotra Madziara. Na przykład na „Lombard Live”, która jest dla mnie wzorem płyty koncertowej. Jest to świetne zrobione brzmienie zespołu, ale oprócz tego doskonale zbudowana przestrzeń, dołożone są tam mikrofony ambientowe publiczności, że naprawdę, słuchając tej płyty, ma się wrażenie, że jest się na koncercie. Generalnie, bardzo słabo jest ze świadomością używania danego sprzętu we właściwy sposób przez realizatorów, co objawia się często tym, że na przykład wspomniana już perkusja live czy gitary zupełnie nie brzmią tak, jak powinny. Pamiętam taką sytuację, kiedy swego czasu robiłem wozem jakąś realizację i zauważyłem, że w rackach zapięte są stare, od dawna już nieużywane bramki. Zacząłem się nimi bawić i okazało się, że uzyskałem świetne efekty, bramkując bębny i dopełniając pogłosem.

 

W twoich produkcjach często było bardzo dużo wspomnianego ambientu.

O tak, zdarzało mi się tak dowalić publiką w miksie, że czasami było pół na pół. Dla wielu jest to fałsz realizacyjny, dla mnie zawsze liczyły się emocje, które niesie ze sobą nagranie czy transmisja. Ponad to bardzo nie lubię takie sytuacje, że realizator dodaje publiczność, że słychać ruch tłumika – ten ruch nie może być słyszalny! Tłumik z publicznością ma być otwarty, w razie potrzeby natomiast trzeba dodać lub ująć, tak żeby widz tego nie usłyszał. Oprócz względów estetycznych, taka gra ambientem jest ważna również z innego powodu. Pozwala na przykrycie ewentualnych fałszów wokalisty. Audience w lekkiej przeciwfazie pozwala na takie lekkie rozmycie. Oczywiście gitarom czy perkusji to absolutnie nie pomaga, ale wokal zawsze jest mocniej „wybałuszony” w nagłośnieniu grającym w miejscu, skąd jest rejestracja.

 

Równie ważną a może nawet ważniejszą kwestią co techniki mikrofonowe czy konsolety są odsłuchy. To przecież od nich zależy późniejszy efekt.

Właśnie nie należy podchodzić do tego w taki sposób. To, co słyszysz w monitorze, nie jest równoznaczne z tym, co później pojawi się na przykład na emisji. Najważniejsze jest, aby dokładnie wiedzieć, jak brzmi dany monitor, co dodaje, co zabiera.

 

Generalnie wolałeś pracować na dużych monitorach?

To zależy. Dużą część produkcji robiłem wozami transmisyjnymi. W takim wozie naturalnie nie tylko zlokalizowana była reżyserka dźwięku, ale także wydawcy, realizator wizji, czasem światła. Należy również pamiętać, że to, co słyszymy, realizując koncert live, to nie tylko sam dźwięk, ale także polecenia reżysera, interkomy, całość dosyć mocno rozkręcona. Tak więc, gdy my się rozkręcamy, to inni także. Generalnie zatem nie było sensu stosowania w tak niewielkich przestrzeniach bardzo dużych monitorów. Pracowaliśmy na monitorach bliskiego pola, którymi najczęściej były modele marki Genelec. Bardzo chętnie pracowaliśmy również na chyba najbardziej typowym monitorze studyjnym, czyli NS10M Yamahy. Na ten akurat model mieliśmy pewien patent. Oprócz tego, co monitor daje nam w pracy, równie ważny jest sam komfort pracy, zwłaszcza w sytuacjach, kiedy live z próbami trwa kilka czy kilkanaście godzin, a ty siedzisz cały czas przed tymi monitorami. NS10M, choć są świetnymi monitorami, mają jednak pewną wadę – są trochę zbyt szkliste i jazgotliwe w górze. Mieliśmy na to bardzo prostą metodę, polegającą na założeniu na driver kartki papieru, dzięki której monitor uspokajał się nieco w górnym zakresie pasma. Efekt, który chcieliśmy uzyskać w końcowym rozrachunku w telewizji, był sumą pewnego wyobrażenia i doświadczenia. Musieliśmy przede wszystkim robić tak, żeby to widz dobrze słyszał a nie my przed monitorami. Jak weźmiesz na warsztat stopę czy bas i na NS10M będzie brzmiała dobrze, to można mieć pewność, że w sytuacji, w której puścimy miks na dużych paczkach, będzie tylko lepiej.

 

Gdy już zrealizowałeś niezliczoną liczbę koncertów telewizyjnych dla TVP Katowice, podjąłeś decyzję o przeniesieniu się do centrum wszystkich produkcji, czyli do Warszawy.

Wiedziałem, że to, co zrobiłem w Katowicach, to już wszystko i niestety nic więcej już tutaj nie będzie mi dane realizować. Chciałem robić większe rzeczy i w większej liczbie. W Warszawie załapałem się do studia postprodukcji Sonica. Zrobiłem tam bardzo wiele dubbingów, ale też reklamy, seriale dla TVN-u i Canal+, a także fabuły.

 

Dubbingi po takiej liczbie koncertów, jaką zrobiłeś jeszcze w Katowicach, były chyba całkiem prostą sprawą?

Właśnie to nie jest tak do końca. Tutaj jesteś reżyserem dźwięku – do ciebie należy, aby dźwięk, który mówi aktor w polskiej wersji, był dokładnie zgrany z obrazem. Teraz niestety zwraca się na to uwagę już coraz rzadziej, ale dawniej wszystko musiało się zgadzać co do klatki. Nie do sekundy, do klatki! Co gorsza, nie było możliwości przesunięcia i podsłuchania sobie nagrania. Dysponowaliśmy jednymi z pierwszych twardodyskowych rejestratorów Rolanda. Miały one bardzo małe wyświetlacze. Nie było możliwości podglądania. Pracując przy dubbingu, musiałem mieć niejako zakodowane w głowie, z jakim opóźnieniem wszedł aktor i kiedy skończył, i całość przesunąć tak, aby się dokładnie zgadzała z ruchem ust w obrazie. I trzeba było bardzo dokładnie zwracać na to uwagę, bo potem siadałeś na montaż i już nic nie byłeś w stanie z tym zrobić. Oczywiście do tego dochodziła korekcja, dobieranie pogłosów odpowiednich pomieszczeń itp.

 

Po jakimś czasie pojawił się Endemol.

Pracowałem przy tych dubbingach i powoli zaczęli mnie znów zaciągać do telewizji. Zacząłem robić w Łodzi teleturniej „Idź na całość”. Tę produkcję robiłem przy pomocy wozu i właśnie przy realizacji tego teleturnieju wprowadziłem po raz pierwszy konsoletę cyfrową. Była to Yamaha 02R, wtedy pierwsza w Polsce. Wraz z nią pojawiły się grane na żywo dżingle, otwierania bramek itp. Pracując na tej konsolecie, miałem snapshoty – gdy raz ustawiłem program, to już za każdym razem mogłem sobie przywoływać te ustawienia. To była przepaść, jeśli chodzi o jakość pracy. W tym samym czasie obecnie pracujący przy „Must Be The Music” Jan Kempiński zaczął tworzyć nową ekipę z freelancerów pracujących na rynku – ekipę Endemol. W WFDiF-ie w Warszawie była firma Art Production i tam właśnie zaczęliśmy kręcić: „Milionerów”, „Zostań gwiazdą”, „Mini Playback Show” i „To było grane” – bardzo ciekawy teleturniej łączący i granie muzyki na żywo oraz mówienie, gdzie musiałem już użyć dwóch konsolet 02R. Jedna służyła jako konsoleta dla zespołów, tam miałem zrobione snapshoty z właściwymi proporcjami, korekcjami, pogłosami i tylko przełączałem je sobie między numerami, natomiast na drugiej konsolecie składałem poszczególne elementy w całość. Musiałem przyjąć taką strategię pracy, bo „To było grane” nagrywaliśmy w technice live to tape. Live to tape? W telewizji są generalnie trzy technologie. Mamy rejestrację, gdzie są przerwy, coś się rejestruje, poprawia, dogrywa pod montaż, mamy transmisję live albo właśnie live to tape. Wówczas robimy program w taki sposób, jakby był on grany na żywo, ale jest grany w taśmę. W trakcie takiej rejestracji coś się musi naprawdę solidnie wywalić, żeby pojawiła się przerwa. Oczywiście taka technika niesie za sobą podobne wymagania jak praca live, natomiast to, co potem widzimy w telewizji, jest znacznie bardziej naturalne, ma dużo większą dawkę emocji niż w przypadku programu montowanego od A do Z. Takiej filozofii pracy nauczyli nas Holendrzy, którzy przyjechali do Polski z pierwszymi produkcjami. Wtedy pojawił się inny sposób kadrowania, inna realizacja – wszystko zaczęło być bardziej dynamiczne, żywsze.

 

Wspomniałeś o tym, że konsoletą cyfrową, którą wprowadziłeś do swoich produkcji, była Yamaha 02R.

Tak, bardzo dobrze znam tę konsoletę i bardzo ją lubię. To jest stół, który ma naprawdę dobre przetworniki. Jest przejrzysty, oferuje szybki dostęp do wszystkich funkcji. Był taki czas, że te konsolety pracowały trochę w telewizji, później natomiast weszły już duże studery, Euphonix czy StageTec. StageTeca też bardzo lubię, to świetna konsoleta, podobnie zresztą jak studery – mają super brzmienie, bardzo dobrze się na nich pracuje. Stare studery miały w sobie coś takiego, że można było działać na zerowej korekcji. To zasługa przedwzmacniaczy, które zawsze były tam świetne. Nie przepadam jednak za konsoletami typu sterownik. Wynika to ze wspomnianej ciągłej pracy z tłumikami i znajomości ich zakresów pracy. W konsoletach analogowych zwykle jest tak, że wyjście, podbicie o, powiedzmy, 6 dB to bardzo mały ruch, natomiast przycięcie o na przykład 10 dB to już jest bardzo duży ruch. Konsolety cyfrowe mają najczęściej fadery skonstruowane w sposób liniowy, takie samo wychylenie tłumika jest poniżej i powyżej zera. Sprawiło to, że na przykład podczas pracy właśnie z konsoletami Digidesign z systemem Pro Tools przy zgraniach fabuły bardzo się męczyłem na tłumikach.

 

W twojej karierze realizatora znaczą rolę odegrały jednak nie tylko produkcje muzyczne, ale także programy całkowicie pozamuzyczne.

Tak, chociażby „Milionerzy”, „Idź na całość” czy „Big Brother”.

 

 I reklamy...

Tak. Zrobiłem ich przynajmniej kilkaset. Co śmieszne, to poniekąd można mnie winić za to, że dzisiaj reklamy są tak głośne. Generalnie zawsze po produkcji serialu czy fabuły, czy nawet reklamy jest kolaudacja techniczna i moja praca jest poddawana ocenie pod kątem jakości technicznej. Nie ma tutaj jednak jakichś wielkich, złożonych wytycznych. To, o czym trzeba pamiętać, to aby w szczycie reklama nie była głośniejsza niż –9 dB. Pamiętam, jak kiedyś pracowałem właśnie nad reklamą pewnej firmy i udało mi się tak docisnąć dźwięk na kompresorze, że wskazówka stała na tych –9 dB! Miała być taka wartość? Była! Natomiast oczywiście całość była niewiarygodnie głośna. Później kolejni producenci posłuchali tej właśnie reklamy zrobionej przeze mnie i chcieli, żeby ich była tak samo głośna. Więc każdą kolejną starałem się tak kompresować, żeby była do wspomnianej wartości.

 

Czyli znów pewne doświadczenia i pomysłowość?

Tak. Takie rzeczy trzeba brać na logikę. Dajmy na to, że robimy audycję słowno-muzyczną. Poziom decyduje o gęstości dźwięku. Powiedzmy, że głos mamy na –9 dB i muzykę też na –9 dB – co będziemy słyszeli głośniej? Oczywiście, że muzykę. Trzeba więc ściągnąć muzykę o te 4 dB i już będzie inaczej.

 

Czy „Big Brother” ze względu na model pracy był najtrudniejszą produkcją, w której brałeś udział?

Jedną z trudniejszych. Pierwsze trzy edycje zrobiłem jako szef dźwięku. Moja praca zaczynała się wtedy na długo przed startem pierwszego odcinka. Musiałem dobrać mikrofony, skonfigurować konsolety, przygotować cały system do pracy. Polska odsłona różniła się od pierwowzoru – były na przykład cztery mikroporty więcej ze względu na większą liczbę uczestników. Używaliśmy systemów bezprzewodowych Shure z mikrofonami SM93 typu lavalier. I muszę przyznać, że po tym programie ta właśnie firma zdobyła moje serce, ponieważ te mikrofony naprawdę mocno dostawały w kość na planie, a sprawdzały się doskonale. Z „Big Brotherem” wiąże się zresztą pewna historia, pokazująca po raz kolejny, jak daleko do przodu musi patrzeć realizator i na ile zupełnie nieprzewidywalnych rzeczy musi być przygotowany. Graliśmy finał programu na żywo, w scenariuszu znajdował się punkt, w którym miał wystąpić zespół grający z półplaybackiem, jednak nie było wiadomo, w którym momencie to nastąpi. W pewnym momencie zeszliśmy na reklamy. Pomyślałem sobie, że mógłbym już wrzucić sobie płytę i przygotować do późniejszego odtworzenia. Wróciliśmy po reklamach, popatrzy łem na monitor, na którym Grzegorz Miecugow zapowiadał już zespół, do którego właśnie miałem wypuścić ten playback. Zdążyłem się tylko odwrócić i wcisnąć play… Przy tej produkcji, oprócz rozbudowanego zestawu konsolet, procesorów zapinanych w inserty i procesorów wyjściowych, na wyjściu użyłem również finalizera firmy TC Electronic. Dobrałem w nim parametry tak, że bardzo mocno ułatwiłem pracę montażystom, którzy nie musieli wyrównywać poziomów poszczególnych ujęć. Oprócz tego trochę dobarwiłem całość brzmienia.

 

Najważniejszą instrukcją, w oparciu o którą zawsze muszą pracować realizatorzy pracujący przy programach opartych na formacie, jest tzw. biblia formatu. Jak wyglądało to z twojej perspektywy?

Musieliśmy zachować pewne elementy tak, jak wyglądały one w oryginale. Oczywiście nikt nie wymagał od nas, abyśmy użyli danego mikrofonu czy korekcji. Tutaj przede wszystkim wyznaczone są elementy związane z oprawą, dżingle itp.

 

A czasy „Milionerów”?

To również format, a więc mieliśmy ustalone dokładnie wszystkie następujące po sobie elementy. Nie było dowolności – jeśli leciał dżingiel, prowadzący musiał się dokładnie zmieścić z tekstem w trakcie jego trwania. „Milionerzy” byli produkcją, w której dźwiękowe elementy oprawy nie były dogrywane później w trakcie postprodukcji – wszystko leciało na żywo. Muzyka i dżingle trafiały zarówno do nagrania, jak i do studia, aby słyszała je publiczność, zawodnicy, prowadzący. Komputer, który generował pytania, generował również MIDI. W systemie pracował sampler AKAI 6000 wydający dźwięki, później zastąpiony specjalnie przygotowanym do tego zastosowania komputerem. Oprócz zaprogramowanych zdarzeń, miałem pulpit i klawiaturę z których mogłem wypuszczać dodatkowe elementy: jak pytanie pół na pół czy do publiczności itp. Później dołożyliśmy do tego także światło i wtedy cały system był już sterowany z jednego źródła.

 

Pracując przy realizacji koncertów i przy produkcjach typowo mówionych, publicystycznych, możesz stwierdzić, który z rodzajów pracy jest trudniejszy?

Jedno i drugie ma swoje plusy i minusy. Jeżeli robisz koncert kapeli, jednej kapeli, gdzie możesz zrobić sobie na spokojnie próbę, potem zagrać te koncert, podporządkowując wszystko tylko jej, pobawić się brzmieniem – to jest na pewno łatwiej. Publicystyka jest dużo bardziej zmienną sztuką. Dzieją się różne rzeczy: ktoś ci trąci w mikrofon, padnie mikrofon, jeden gość mówi głośniej, inny ciszej. Poza tym nie masz, niestety, wpływu na to, czy mikrofon zostanie przypięty wyżej czy niżej. Oczywiście starasz się, aby był na optymalnej wysokości, ale czasami nie ma go po prostu do czego przypiąć. Dodatkowo mikrofony ustawia się też na podstawie tego, w którą stronę częściej mówi dana osoba: w stronę prowadzącego czy prowadzący w stronę gościa. Przypinamy dwa mikrofony, na antenie jednak zawsze w danym czasie jest tylko jeden.

 

Dwa mikrofony przypięte do rozmówcy i odpalone równocześnie nie ułatwiłyby sprawy?

Tu chodzi o manipulowanie nimi – zrobiłby się za duży młyn. Powiedzmy, że masz trzech rozmówców, to jest różnica, gdy masz trzy źródła dźwięku, a gdy masz sześć źródeł. Poza tym niezbyt przyjemnie robi się jedną osobę na dwóch tłumikach, a to jest praca non stop na tłumikach. Fadery w telewizji pracują non stop! Oczywiście byli tacy realizatorzy, którzy odpalali program mówiony i wychodzili, jednak to od razu słychać. Tutaj trzeba cały czas pracować, a są różne metody. Ja najczęściej pracuję pół na pół. Trzymam palce na faderach i już jestem gotowy do tego, żeby tego, kto zaczyna mówić, wyciągnąć a resztą zjechać. Dodatkowo mam zawsze to trochę przykompresowane, aby się nie spóźnić i żeby to kompresor pomógł mi wyciągnąć pewne rzeczy. Pamiętam, były takie realizacje, gdzie to w zasadzie kompresor tylko kontrolował mi poziomy. Zawsze pracuję na niskim poziomie wejściowym, w kompresorze to jest najważniejsze, aby działał on tak, jak powinien.

 

Jak fakt nagłośnionego studia przekładał się na twoją pracę za telewizyjną konsoletą dźwiękową?

Ach… Już prawie pisaliśmy całe prace doktorskie na temat tego, jakie mikrofony, jakie kolumny, w jaki sposób trzeba umieścić, żeby nagłośnienie nie zakłócało realizacji dźwięki na potrzeby TV. Najlepiej w nagłośnieniu studia, w którym prowadzona jest rejestracja, sprawują się małe głośniki, ale rozstrzelone w dużej liczbie miejsc. Można grać wtedy mniejszą mocą, a to, co z nich wychodzi, i tak jest bardzo czytelne, ponieważ grają wyższym pasmem. W sytuacjach, w których w studiu były zawieszone duże paczki (a też się tak zdarzało), też trzeba było sobie jakoś radzić. Wtedy sytuację ratowała mniejsza liczba mikrofonów, mocno przykompresowane, tak aby dźwięk, który zbiera mikrofon, mógł zabić ten hałas otoczenia.

 

Patrząc z perspektywy, wolałeś pracować i realizować w wozie transmisyjnym czy w murowanym studiu?

Bardzo lubiłem pracować w wozie. Jednak to, co jest najważniejsze, to ludzie, z którymi pracujesz – w tym jest cała siła. Stefan Gadomski, Marek Grąbczewski czy Jacek Pękala to naprawdę doskonali zawodowcy. W czasach, gdy realizowaliśmy tamte produkcje, było jeszcze jedno utrudnienie. Teraz to już się nie zdarza, ale dawniej były często problemy z siecią, na przykład zdarzało nam się, że po wpięciu splitterów zaczynało brumić. Ani odcięcie masy, ani nic innego nie pomagało. Pamiętam nawet taką realizację, że wszyscy szukaliśmy, co może być przyczyną, podsłuchiwaliśmy poszczególne przeloty, koledzy na scenie sprawdzali element po elemencie i skończyło się na tym, że udawało się usunąć te brumy dopiero bramką. W ogóle chłopaki z techniki mieli taką listę, co można zrobić, co poprzepinać, co pozmieniać, żeby wyeliminować na przykład szumienie czy brumy, ale czasami nic nie pomagało. Oprócz tego zdarzało się, że mieliśmy za mało wlotów w wozie. Robiliśmy więc przepinki w trakcie koncertu. Jacek Pękala gdzieś z tyłu sceny z latarką przepinał wszystkie dwadzieścia cztery przeloty w trakcie przerwy trwającej na przykład trzy minuty. Tutaj bardzo liczy się zaufanie – technicy pracujący na scenie są w pewnym sensie przedłużeniem moich rąk.

 

Jak oceniasz rozwój transmisji bezprzewodowych na planie? Czy twoim zdaniem jest to znaczące udogodnienie czy zagrożenie i ryzyko na przykład ze względu na stabilność przekazu?

Ten rozwój wymusiła właśnie telewizja. Dawniej, gdy nie było transmisji bezprzewodowej, były tylko mikrofony kablowe. To źle wyglądało w obrazku. Trzeba jednak pamiętać o tym, że starsze systemy bezprzewodowe, niestety, cięły dosyć mocno pasmo. Tutaj znów pojawiają się pewne patenty i rozwiązania pozwalające na wyeliminowanie bezprzewodów. Robimy na przykład reklamę i reżyser wymyśla szerokie ujęcie i prosi, aby dać mikroport. To oczywiście nie jest rozwiązanie, nie jest też rozwiązaniem ściskanie planu i używanie mikrofonu na tyczce. Wystarczy zrobić szeroki plan i wrzucić do niego dźwięk z bliskiego i już mamy oczekiwany efekt, bez konieczności stosowania mikroportów, ale z porządnego mikrofonu z tyczki.

 

Czy uważasz, że przeskok technologiczny od czasów, kiedy przestałeś pracować zawodowo z dźwiękiem w 2006 roku, do teraz jest tak wielki, że nie mógłbyś już wrócić dzisiaj i zasiąść przed nowymi narzędziami?

Myślę, że nie. Jestem na bieżąco – to, czego się nauczyłem przez te trzydzieści lat, nie ginie. W zasadzie nie pojawiły się w ostatnich czasach jakieś super innowacyjne rozwiązania zmieniające zupełnie realizację. Poza tym siedzę cały czas na Pro Toolsie, więc w zakresie oprogramowania również nie wypadłem z obiegu.

 

Dziękuję za rozmowę.

 

 

rozmawiał
Łukasz Kornafel
Muzyka i Technologia

 

To tylko fragment artykułu. Ten i wiele innych artykułów w całości przeczytasz w magazynie
Muzyka i Technologia
3/ 2014

NAJNOWSZE WYWIADY

ARCHIWUM



PRENUMERATA PAPIEROWA


Ekskluzywne wydanie papierowe!
ZAMÓW
OSZCZĘDNOŚĆ I WYGODA

PRENUMERATA ELEKTRONICZNA


Przeczytaj jako pierwszy!
Ściągnij na tablet i smartfon
ZAMÓW (iOS)
ZAMÓW (Android)