[펌] pal->ntsc
영상편집 :
2007. 6. 27. 11:34
반응형
PAL 비디오를 NTSC 비디로로 변환하는 방법입니다. 전에도 소개한 적이 있지만 이번에 장편을 변환해 본 경험을 바탕으로 세세한 점을 포함해서 다시 소개합니다.
우선 이 방법은 오로지 PAL에서 NTSC로의 변환에만 적용될 수 있고 그 반대는 안 된다는 것을 아셔야 합니다. 어차피 PAL 사용 국가들은 대체로 NTSC에 관대한 편이고 NTSC 사용 국가들은 그렇지 못 하기 때문에 PAL을 NTSC로 변환하는 것이 대부분 절대적인 필요성을 갖습니다. 최근에 24p(23.976p)를 NTSC 60i(59.94i)에 기록하는 캠코더가 등장하기 전까지 필름으로 옮기기 위한 비디오를 찍는 경우에 PAL이 절대적으로 선호되어 왔기 때문에 PAL로 찍혀진 결과물을 이런저런 이유로 NTSC로 보기 위해서 변환이 필요했습니다. 이 변환은 생각보다 까다로운 것이어서 싸구려 기계로는 결코 좋은 결과물이 얻어지지 않습니다. 그 말은, 고품질의 변환은 상당히 비싸다는 뜻이기도 합니다만, 더 큰 문제는, 우리나라에서 고품질로 이 변환을 해 주는 곳이 거의 없다는 것입니다. 아주 최근에 테라넥스 변환기 한 대가 들어왔다는 소식을 들었습니다. 그 기계를 쓸 수 있다면 비교적 고품질의 변환이 가능할 것입니다. 물론 비용이 얼마가 될 지는 알 수 없습니다만...
참고로, 필름 레코딩을 위한 비디오 촬영에서 이제는 NTSC도 상관없다는 이야기를 들으신 분이 있다면 다시 생각하시기 바랍니다. 이 이야기는 최근의 24p를 60i에 기록하는 캠코더를 지칭한 것이 아니라 60i 캠코더를 이야기하는 것입니다. 우리나라에 가장 흔한 캠코더들이 대부분 다 60i입니다. 키네코에 관련된 다른 글에서 다시 말씀드리겠지만, 지금 시점에서는 24p가 됐든 25p가 됐든 반드시 프로그레시브 스캔 캠코더로 찍으라고 권하고 싶습니다. 그 말은 이제 NTSC도 된다는 이야기지만 결코 60i를 뜻하는 것은 아닙니다. 현재 가능한 제품은 파나소닉 AG-DVX100와 파나소닉 AJ-SDX900입니다. 이들 캠코더가 소니 DVCAM 제품군이나 디지베타에 비해 성능 자체가 더 낫다는 뜻이 아니라 필름 레코딩에 월등히 적합하다는 이야기로 받아들이시면 되겠습니다.
다시 본론으로 돌아와서...
우선 변환의 원리를 설명드립니다. PAL은 아시다시피 50i입니다. NTSC가 60i라고 불리지만 29.97 fps인 것과는 달리 PAL은 정확히 25 fps입니다. 변환의 원리는 25 fps인 PAL 비디오를 23.976 fps로 설정한 후에 3:2 인터레이스 시퀀스를 먹여서 29.97 fps를 만드는 것입니다. 물론 화면 크기의 조정도 개입되고, 원본이 인터레이스 비디오라면 디인터레이스가 가장 먼저 이루어져야 합니다. 그럼 과정을 자세히 설명하겠습니다.
제 경우에는 이미 필름 레코딩을 위해 확대된 프레임들을 다시 줄이는 과정을 거쳤지만, 보통의 경우라면 PAL 비디오에서 출발합니다. PAL은 D1이든 DV든 디지탈 해상도가 똑같이 720x576입니다. 아마도 필름 전환을 위해서라면 16:9 아나모픽으로 찍혀졌을 것입니다. 여기서 두 가지 갈림길이 있습니다. 이것을 4:3 NTSC 프레임으로 전환하고 레터박스를 치는 방법과 NTSC에서도 그냥 아나모픽인 채로 두는 방법입니다. 게다가 DVD 전환을 위해서는 29.97 fps가 아니라 23.976 fps로만 바꾸고 화면 해상도만 바꾸는 방법도 있을 수 있습니다. 이 방법들 사이의 장단점은 나중에 다시 설명하겠습니다.
최고의 화질을 위해서는 전혀 손을 안 댄 캡쳐만 된 비디오에서 시작하기를 권합니다. 디지베타라면 캡쳐에서 10 비트를 보존할 수 있도록 주의를 기울이시기 바랍니다. 상당히 비싼 시스템들이라도 디지베타의 품질을 제대로 보존해 주지 않는 경우가 많습니다. (예를 들면 디지수잇) 이에 반해 훨씬 싼 시스템이라도 10 비트를 제대로 보존해 주는 것들도 있습니다. 예를 들면 현재 버전의 파이널 컷 프로와 함께 작동하는 저렴한 캡쳐 장치들은 10 비트를 제대로 보존해 줍니다. DV라면 어차피 8 비트이고 파이어와이어로 캡쳐하면 최선의 품질이 보존됩니다.
캡쳐된 PAL 비디오 정보는 퀵타임이든 AVI든 애프터 이펙트가 읽을 수 있는 파일로 만들어져야 합니다. 예를 들어 퀵타임 기반인 파이널 컷 프로에서는 그냥 간단히 Pointing Movie로 만들 수 있습니다. 이 방법이 저장 공간도 차지하지 않고 변환 속도도 빠른 가장 이상적인 방법일 겁니다.
이제 다음으로 필요한 것은 애프터 이펙트 5.0 이상 프로덕션 번들입니다. (현재 버전은 5.5 프로덕션 번들입니다.) 프로덕션 번들이 아닌 경우에 (채널 당) 16 비트가 지원되지 않습니다. 최선의 품질을 위해서는 16 비트로 처리하는 것이 이상적입니다. (프로젝트 설정에서 설정합니다.) 채널 당 16 비트를 권장하는 이유는, 비디오의 색공간과 애프터 이펙트의 처리 색공간이 달라서 비디오 정보를 입출력하는 과정에서 변환이 필요하기 때문입니다. 이 변환에서 손상을 최소화하기 위해서는 처리 해상도가 높아야만 합니다.
애프터 이펙트에서 이 PAL 파일을 불러옵니다. 만약 원본이 위에서 처리한 것처럼 한 파일로 되어 있다면 간단하지만, 혹시 각 컷 별로 이미지 시퀀스로 되어 있다면 그 모든 폴더를 몽땅 불러와야 합니다. 파일을 불러 오기 전에 설정에서 불러오기 기준 초당 프레임 수를 23.976 fps로 미리 바꾸어 놓는 것이 좋습니다. 만약 한 파일이라면 불러 온 후에 그 클립을 선택해서 23.976 fps로 설정되었는 지 확인합니다. (Interprete Footage) 24 fps로 하면 절대 안 되니 주의하시기 바랍니다. 각 컷이 각 폴더 안에 저장된 이미지 시퀀스라면 미리 설정에서 불러오기 기준 프레임 수를 23.976 fps로 해 놓은 한 마찬가지로 23.976 fps로 설정될 것입니다.
다음은 그 클립들로 컴포지션을 만듭니다. 한 파일이라면 그것만 끌어다가 컴포지션 만들기 단추에 놓으면 자동으로 컴포지션이 만들어질 것이고 만약 이미지 시퀀스로 된 많은 폴더들이라면 모두 선택해서 컴포지션 만들기 단추에 끌어 놓으면 몇 가지 선택을 할 수 있는 창이 열릴 것입니다. 거기서 아래 쪽에 있는 늘어 놓기 선택사항으로 하시되 겹치지 않도록 설정을 하시면 됩니다. 물론 한 컴포지션으로 하셔야 됩니다.
다음은 디인터레이스인데요, 고품질을 위해서는 절대 애프터 이펙트에 딸려 있는 것을 쓰지 마시길 권합니다. 권장하는 디인터레이스 도구는 두 가지입니다. 릴스마트 필드킷과 오퍼니지의 매직 불릿입니다. 디인터레이스 품질은 거의 똑같다고 평가되고 가격은 매직 불릿이 엄청나게 더 비쌉니다. 필드킷의 장점은 디인터레이스 설정 인터페이스가 좋다는 것이고 매직 불릿이 좋은 점은 디인터레이스 이외에 디아티팩트 필터도 있다는 것입니다. 디아티팩트 필터는 4:1:1 색양자화 방식으로 만들어진 비디오들에서 높은 채도의 색들이 특히 심하게 깨지는 것을 억제해 줍니다. 매직 불릿에는 다른 기능도 있지만 여기서는 전혀 필요가 없습니다. 매직 불릿은 속도가 필드킷보다 훨씬 느립니다. 그렇다고 필드킷이 빠르냐 하면 그것도 아닙니다. 많은 사용자들이 이미 필드킷의 속도에도 질려합니다. 그러니 매직 불릿의 속도가 어떨 지는 상상이 가실 겁니다. 만약 전체가 한 클립으로 되어 있다면 키프레임을 이용해서 디인터레이스 변수 설정을 해야만 합니다. 이것이 좋은 품질의 디인터레이스를 위한 가장 중요한 요령입니다. 한 가지 설정이 절대로 모든 경우에 적합할 수가 없고, 이 결정을 스스로 할 수 있을 만큼 이 플럭인들이 똑똑하지도 않습니다. 사실은 어림도 없죠. 사람이 직접 보고 결정해야만 합니다. 가격이 현실적인 릴스마트 필드킷의 경우를 좀 더 자세히 설명드리겠습니다.
디인터레이스는 PAL에서 NTSC로 전환처럼 SD 해상도일 때와 필름 전환을 위해서 확대를 하는 경우에 조금 다르게 취급되어야 합니다. SD 해상도에서는 멀쩡해 보이는 것도 확대를 하면 문제점들이 월등히 심하게 보이기 때문입니다. SD 해상도를 위한 경우라도 여전히 확대를 해서 보면 좀 더 쉽게 변수를 설정할 수 있는 것은 틀림없습니다. 우선 모든 레이어(한 클립일 경우에는 그것만)의 품질을 Best로 설정합니다. 그래야 결과물의 품질을 제대로 확인할 수 있습니다. 필드킷을 먹였으면 그 변수를 일일이 설정합니다. 키프레임으로 적어도 각 샷 별로는 다른 설정을 해야 하고 필요하다면 심지어 같은 샷 안에서도 설정을 바꿀 수도 있습니다. 결과물의 품질 확인은 이미 말씀드린 대로 확대해서 보는 것이 가장 좋습니다만, 애프터 이펙트의 확대 품질은 미리보기에서나 실제 확대에서나 안타깝게도 상당히 너덜너덜한 수준입니다. 이렇게 많이 쓰이는 합성 전문 소프트웨어의 가장 기본적인 기능이 이런 수준이라는 것이 믿어지지 않을 정도지요. 따라서 가급적 미리보기보다는 화질이 나은 실제 확대를 사용하는 게 바람직합니다. 그런데 또 그러려면 컴포지션의 해상도를 바꾸어야 전체를 다 볼 수 있습니다. (안 그러면 클립의 위치도 이동시켜야 합니다.) 참 껍쩍스러운 환경이 아닐 수 없습니다. 애프터 이펙트의 다음 버전이 이미 발표되었는데, 이 문제가 좀 개선되었기를 바랄 뿐입니다.
어쨌든... 확대를 하든 아니든 화면의 특성에 따라서 결과를 유심히 살피면서 변수를 각 샷 별로 일일이 설정합니다. 필드킷의 가장 좋은 기능 중의 하나는 모션 마스크를 보여 주는 것입니다. 각 픽셀의 움직임을 분석해서 변수에 따라서 해당되는 범위를 마스크로 보여 줍니다. 그 마스크를 껐다 켰다 하면서 디인터레이스의 범위와 양을 결정해야 합니다. 디인터레이스의 품질은 이 변수값의 적절한 설정에 달렸다고 해도 과언이 아닙니다. 따라서 디인터레이스의 품질은 사용하는 소프트웨어가 아니라 오히려 사용하는 사람의 판단에 더 크게 좌우됩니다. 필드킷의 기능은 크게 두 가지입니다. 하나는 각 픽셀의 모션 벡터를 분석해서 범위를 결정하는 기능이고, 다른 하나는 디인터레이스 자체와 디인터레이스된 부분을 적당히 다듬어 주는(?) 기능입니다. 만약 화면이 전체적으로 흔들림이 심하거나 대상의 움직임이 심한 경우에는 모션 마스크를 쓰지 않고 전체를 디인터레이스하고, 정적인 화면이라면 최대한 화면에 손상이 안 가도록 필요한 부분만 디인터레이스를 하는 것이 요령입니다. 문제는 대부분 전이 영역에서 발생합니다. 전이 영역은 공간적(Spatial) 변화와 시간적(Temporal) 변화 모두에 의해서 발생합니다. 한 장의 프레임에서 멀쩡한 것만 가지고 판단을 하면 안 된다는 것입니다. 모션 마스크를 안 쓰는 경우에는 상관이 없습니다. 하지만 그러면 필드킷을 굳이 쓰는 이유가 반감됩니다. 움직임에 따라서 모션 마스크를 적당히 여유있게 설정해 주는 것이 아주 중요합니다. 그리고 실제 제가 사용해 본 경험으로 보면, 각 픽셀의 움직임을 추적하는 기능이 비교적 명암차가 뚜렷한 부분에서는 정확하게 이루어지지만 명암차가 적은 부분에선 잘 작동하지 않는 경우가 많습니다. 물론 그런 부분은 사람에게도 그만큼 뚜렷하게 안 보이고 더구나 움직임이 있는 부분이어서 더 포착하기가 힘든 것도 사실입니다. 그렇다고 해도 찝찝한 건 사실이죠. 유심히 살펴 보고 적절한 디인터레이스 방식과 변수값을 설정하는 수 밖에 없습니다.
해 보시면 느끼시겠지만, 디인터레이스는 아무리 정교한 도구를 써서 정확한 판단으로 정성껏 하더라도 결코 원래 프로그레시브 스캔으로 찍은 것에는 근접도 할 수 없습니다. 이미 설명을 듣고 질리신 분들도 많으실 겁니다. 그러니 혹시라도 PAL로 찍어서 NTSC로 옮기거나 디지탈로 효과 작업을 해야 하거나 필름으로 옮길 비디오라면 프로그레시브 스캔으로 찍기를 간곡히 부탁드립니다.
그럼 다음으로는 릴스마트 모션 블러를 먹일 차례입니다. 이 모션 블러 플럭인은 이름은 모션 블러이지만 기능은 웬만한 합성 소프트웨어에 딸려 오는 기본 모션 블러 기능과 상당히 다릅니다. 렌더 순서는 당연히 디인터레이스 이후에 되어야만 합니다. 이 모션 블러 기능도 필드킷의 디인터레이스 기능과 비슷하게 각 픽셀의 움직임을 분석해서 작동합니다. 어느 정도 이상의 움직임이 있는 경우만 그 움직임의 양에 비례해서 모션 블러가 먹여지도록 작동합니다. 이렇게 굳이 모션 블러를 먹이는 이유는, 원래 50i로 찍혀진 비디오의 셔터 속도가 충분히 느리지 않기 때문에 23.976 fps로 전환했을 경우에 움직임이 충분히 부드럽게 보이지 않기 때문입니다. 필름은 보통 180도 셔터로 찍었을 때 1/48 초의 셔터 속도입니다. 이 셔터 속도는 마술과 같이 적절한 양의 모션 블러를 줍니다. 만약 필름이 보통의 비디오와 같은 셔터 속도로 찍혀졌다면 훨씬 틱틱거려 보일 겁니다. 사람의 눈이 이 모션 블러 때문에 속는 것입니다. 역시 각 픽셀의 움직임을 분석하는 만큼, 렌더 시간은 상당히 걸립니다. 모션 블러의 양은 필름의 셔터 각도를 모사하게 되어 있습니다. 180도가 보통이지만 실험을 해 보고 적당하다고 느끼는 것으로 고르셔도 됩니다.
이상에서 설명한 정교한 디인터레이스와 모션 블러는, 프로그레시브 스캔으로 촬영했을 경우에 필요없습니다. (일부 인터레이스 스캔 캠코더들의 프로그레시브 전환 기능은 해당되지 않으니 주의하시기 바랍니다. 예를 들면 XL-1(s)의 프레임 모드) 꽤 비싼 소프트웨어들과 그 소프트웨어를 다룰 수 있는 웬만한 지식과 엄청난 노가다와 어마어마한 렌더시간이 소요됩니다. 그러고도 원래 프로그레시브 스캔으로 찍은 것에는 미칠 수 없습니다. 그러니 프로그레시브 스캔 촬영의 잇점이 어느 정도인지 감이 오시리라 생각합니다. 프로그레시브 스캔으로 찍었을 경우에는 (예를 들면 파나소닉 AG-DVX100 PAL 버전이 해당됩니다.) 바로 다음 단계로 넘어가게 됩니다.
이제 화면의 크기를 맞추고 출력할 차례입니다. 화면 크기는 앞에서 잠깐 언급한 대로 몇 가지 선택의 여지가 있습니다. 만약 4:3으로 찍었다면 크게 고민할 필요 없이 그냥 720x486(D1으로 출력할 경우)이나 720x480(DV나 DVD로 출력할 경우)으로 하시면 됩니다. 만약 16:9 아나모픽으로 찍었다면 아나모픽을 유지할 것인지 레터박스를 칠 것인 지 결정해야 합니다. 찍을 때는 아마모픽이 월등히 유리한 것과 달리 4:3이 거의 대부분인 일반 TV에서 보기 위해서는 레터박스가 오히려 나을 수도 있습니다. 레터박스를 친다면 720x576을 720x360으로 축소해야 합니다. 이 품질도 애프터 이펙트의 화면 보간 알고리듬이 형편없기 때문에 결코 좋다고 볼 수는 없지만 확대가 아니고 축소이니 그냥 참아 주기로 합니다. 레터박스는 미리 변환을 하기 때문에 실시간 변환에 비해 비교적 고품질의 느린 알고리듬을 사용할 수 있습니다. (물론 애프터 이펙트는 별루지만...^^) 만약 오로지 4:3 TV로만 보게 된다면 차라리 레터박스를 치는 것이 더 나은 화질을 얻을 수도 있습니다. DVD의 경우도 마찬가지입니다. DVD 자체가 아나모픽을 지원합니다만 그것이 일반 4:3 TV에서 볼 때 가장 좋은 선택이라고는 쉽게 말할 수 없습니다. 레터박스를 쓰던 안 쓰던 컴포지션의 크기는 D1이냐 DV냐 DVD(MPEG-2)냐에 따라서 720x486이거나 720x480으로 하셔야 됩니다. 만약에라도 NTSC D1으로 했다가 나중에 DVD를 굽는 경우는 축소가 아니라 6 픽셀 잘라내기를 해야 합니다. 그리고 그 6 픽셀은 위아래 각각 3 픽셀씩이 아니라 위에 4 픽셀 아래 2 픽셀이나 그 반대로 하셔야 하구요. 파이널 컷 프로 4에 딸려 온 MPEG-2 인코더의 기본 설정값들은 이 점이 이미 제대로 되어 있더군요.
화면 크기의 변환은 반드시 디인터레이스와 모션 블러가 먹여진 이후에 이루어져야 한다는 점을 명심하시기 바랍니다. 결코 미리 화면 크기 변환이 이루어져서는 안 됩니다. 즉, 렌더 순서는 반드시 "디인터레이스 -> 모션 블러 -> 화면 크기 변환"의 순서가 되어야 합니다.
최종 출력을 위해서 렌더를 하게 되는데, 여기가 아주 중요합니다. DVD의 경우는 24p가 사실 가능합니다. 아나모픽의 경우와 마찬가지로 DVD 재생기가 실시간으로 3:2 인터레이스 시퀀스를 먹여서 29.97 fps로 보여 주게 됩니다. 잇점은, 화면 프레임 수가 29.97 fps에 비해 훨씬 적으므로 그만큼 같은 전송율에서 나은 화질을 얻을 수 있다는 것입니다. 이 경우를 제외하고는 모두 29.97 fps로 출력하게 됩니다. 다른 설정은 모두 최고 품질로 하시고 필드 렌더는 lower field를 우선으로 하시고 3:2 인터레이스 시퀀스에서 WSSWW를 선택하시면 됩니다. 출력 파일 규격은 나중에 어떻게 결과물을 처리할 것인가에 달려 있습니다. 색보정을 하지 않은 원본을 사용했을 경우에 (권장) 다시 원래 했던 색보정 처리를 해야 할 것입니다. 원래 작업했던 NLE에서 그대로 색보정 값을 먹이는 것이 가장 효율적일 것입니다. 물론 가장 좋은 결과는 16 비트 RGB 코덱이나 10 비트나 16 비트 YUV 코덱으로 했을 때 얻어질 것입니다. 사용하는 NLE에 적합한 것을 선택하세요. 예를 들어 현재 버전의 파이널 컷 프로는 YUV 색공간에서만은 고품질의 렌더를 지원합니다. 최종 출력이 DV라도 다시 NLE에서 색보정을 할 거면 DV 코덱이 아니라 다른 비손실 코덱으로 출력하는 게 낫습니다. 마이크로코즘 코덱을 권장합니다. 윈도우즈에서는 현재로서 저렴한 가격에 고품질 처리를 해 주는 소프트웨어가 없습니다. 저도 eXtreme 6.0을 실험해 보기 위해서 독일 본사에 직접 접촉을 해 봤습니다만, 한 번 답장이 온 후에 연락이 안 되더군요. 샌프란시스코에 있는 미국 지사도 굉장히 무성의했구요. 아마도 유통 쪽에 큰 문제가 있는 게 아닌가 합니다. 물론 윈도우즈 쪽에서도 아주 비싼 시스템들은 고품질 렌더를 지원합니다. 현실적인 대안으로는 현재는 피나클이 팔고 있는 FAST 리퀴드 시스템들이 아닐까 합니다.
최종 렌더가 끝나면 그 파일을 원래 작업했던 NLE에 겁니다. NTSC D1이거나 DV 시퀀스에 집어 넣어야 되겠죠. 이제 다시 원래 PAL에서 작업했던 색보정 값들을 먹일 차례입니다. 파이널 컷 프로를 기준으로 설명드립니다. 원래 작업한 PAL 시퀀스에서 해당 트랙을 통째로 복사한 후에 그걸 NTSC 시퀀스의 한 트랙에 복사하세요. 일단 그 트랙을 끕니다. 그리고 NTSC로 변환된 클릭을 각 샷별로 자릅니다. 3:2 인터레이스 시퀀스 때문에 편집점에서 필드가 겹쳐 있을 수 있습니다. 이건 너무 걱정 안 하셔도 됩니다. 어차피 통짜로 출력하게 되니까요. 그 다음은 원래의 PAL 클립들에 먹여진 색보정 값들을 고대로 집어서 아래 있는 클립들에 끌어다 놓으면 됩니다. PAL 트랙은 만들어진 NTSC보다 조금 짧을 겁니다. 헷갈리시면 PAL 트랙 전부에 속도 조절을 먹여서 NTSC와 같은 길이로 만들어 놓고 작업해도 됩니다. (한꺼번에 다 먹일 수 있습니다.) 조금 차이이니 적당히 봐 가면서 해도 되구요. 어차피 작업이 끝나면 그 클립들은 지워 버릴 것이니 크게 신경 안 쓰셔도 됩니다. 다 끝나면 PAL 클립들이 있는 트랙은 지워 버립니다. 만약에 전이효과를 쓴 편집점들이 있다면 처음에 출력할 때 전이 효과를 끄고 한 다음 다 끝나고 지금처럼 최종 색보정을 할 때 먹이는 게 좋습니다. 안 그러면 나중에 색보정이 곤란해집니다. 혹시라도 파이널 컷 프로에서 처음에 색보정을 했는데 왜 다시 하나 하실 분을 위해서...^^ 색보정을 이미 한 PAL 시퀀스를 복제해서 애프터 이펙트 작업용으로 파일을 만들기 전에 색보정 필터를 모두 꺼 버리면 됩니다. (물론 한 큐에 됩니다.)
만약 PAL에서의 색보정이 충분히 고품질로 이루어졌고 고품질 파일 규격으로 출력이 가능하다면 이런 번거로운 과정을 생략하고 그냥 최종 색보정된 PAL 작업을 출력해서 NTSC로 변환해도 됩니다. 파이널 컷 프로를 사용하는 경우에는 먼저 고품질 YUV 코덱으로 렌더를 한 후에 애프터 이펙트에서 16 비트 RGB로 변환하도록 하는 것이 좋습니다. 왜냐하면 파이널 컷 프로가 고품질 렌더를 YUV에서만 지원하기 때문입니다. RGB로 출력하면 8 비트로 찌그러뜨립니다.
고품질로 색보정을 하는 또다른 방법으로는 애프터 이펙트에서 Color Finesse라는 플럭인이 있습니다. 아주 우수한 색보정 플럭인인데요, 안타까운 것은 얼마 전까지 매직 불릿이 그랬듯이 아직 윈도우즈용이 없다는 것입니다. (매직 불릿은 최근에 윈도우즈용이 나왔습니다.) 애플의 최신 G5는 이제 최신 피씨보다 빠르다고 하지만, 바로 얼마 전까지도 G4는 특히 애프터 이펙트 렌더에서 펜티엄 4에 비해 훨씬 느렸습니다. 특히 애프터 이펙트는 맥에서든 피씨에서든 듀얼 프로세서를 전혀 활용하지 못 합니다. 아도비 제품은 이제 점점 시대에 뒤지고 있다는 생각이 듭니다. 프리미어도 다음 버전에서야 간신히 다른 프로그램들이 몇 년 전부터 지원해 온 기본적인 기능을 지원하게 됩니다. 포토샵의 절름발이 16 비트 지원 때문에 사진 작업하시는 분들도 엄청난 고생을 하십니다. 어쨌든 맥 기반으로 개발되었던 애프터 이펙트도 정작 렌더는 윈도우즈에서 하는 경우가 더 많아졌습니다. Color Finesse는 이 용도로서는 아주 좋은 도구이기 때문에 꼭 필요하다면 아마도 G5에서 애프터 이펙트를 돌릴 수 밖에 없지 않을까 합니다. 물론 윈도우즈용이 나온다면 가장 좋겠죠. 만약 파이널 컷 프로에서 작업한 결과물을 윈도우즈용 애프터 이펙트에서 처리할 경우에는 맥과 윈도우즈에서 YUV -> RGB 변환에 조금 차이가 있다는 걸 예상하셔야 합니다. 원래 YUV의 바닥은 RGB 값 16(8 비트에서)으로 정해져 있습니다. 그런데 맥에서는 코덱에 따라 이 변환에서 YUV의 바닥을 RGB 0으로 하는 경우가 있습니다. 물론 애플 DV 코덱도 여기 해당됩니다. 그래서 윈도우즈에서 애프터 이펙트로 처리한 결과물을 다시 맥으로 가져 와 출력할 때 이 차이를 따로 바로잡아야 할 수도 있습니다. 이 경우에는 반드시 웨이브폼 모니터(소프트웨어에 딸린 것도 상관 없습니다.)를 보면서 최저 밝기값이 균형을 유지하도록 조정을 하시기 바랍니다. (이 조정을 위해서는 ProcAmp 필터가 가장 편리합니다.)
색보정 값들을 다 먹였으면 파이널 컷 프로에서 시퀀스의 렌더 설정을 최고 품질(YUV 채널 당 32 비트)로 한 후에 렌더를 합니다. 물론 시퀀스의 코덱을 의도한 출력 규격으로 해야 하겠죠. 그럼 화면은 출력할 준비가 끝난 것입니다. 이제 음향을 늘려 줄 차례입니다. 가장 간단한 방법은 PAL에서 작업한 음향을 속도조절을 이용해서 화면과 똑같은 길이로 만드는 것입니다. 화면 길이를 그대로 음향 클립의 길이로 먹이면 됩니다. 그리고 렌더를 하면 정확히 일치하는 음향을 얻을 수 있습니다. 그러나 이렇게 하면 사실 상 양자화 주파수를 바꾸는 것이기 때문에 음이 조금 내려갑니다. 이 정도 속도의 변화는 사실 거의 느껴지지 않으나 음높이의 변화는 상당히 분명히 느낄 수 있습니다. 만약 이 음높이를 유지하고자 한다면 고품질 디더링을 지원하는 음향 프로그램을 써야 합니다. 음높이를 내려가게 두면 품질에는 문제가 생기지 않습니다. 하지만 음높이를 유지하면서 길이를 늘리면 품질에 문제가 생길 가능성이 아주 높습니다. 16 비트 음향이라면 24 비트로 전환해서 작업한 후에 다시 16 비트로 디더링을 하는 과정을 거쳐야 합니다.
음향 처리가 끝났으면 이제 디지베타나 DV로 출력하거나 MPEG-2로 인코딩을 하시면 됩니다. 이런 과정은 결국 PAL로 찍은 비디오를 필름으로 떠서 그걸 텔레시네한 것과 비슷한 방식이라고 볼 수 있습니다. 실제로 필름으로 출력해서 다시 텔레시네하는 과정을 생략한 것 뿐입니다. 따라서 이 과정 자체가 PAL 비디오를 필름으로 출력하는 요령과 많은 부분을 공유합니다. 결과물도 오히려 원래의 PAL 비디오보다 더 필름스러운(?) 느낌을 줄 것입니다. 처리를 정확하게 한다면 결과물의 품질은 어떤 웬만한 고가의 하드웨어 장비로 처리한 것에도 뒤지지 않습니다. 필름 출력이 워낙 돈이 많이 드는 일이므로 필름 출력을 염두에 두고 만들어진 작품이라도 그 이전에 DVD 제작을 해야 하는 경우가 더 많을 것입니다. 그런 경우에 싼 비용으로 최고의 화질을 얻을 수 있는 좋은 방법이라고 생각합니다.
앞으로 필름 전환을 위한 비디오를 찍으시는 분들은 인터레이스로 찍으실 일이 없기를 바라지만, 그래도 혹시 계시다면 반드시 PAL로 찍으시기를 권합니다. 그리고 같은 프로그레시브 스캔이라도 여전히 PAL은 수직 해상도에서 상당한 우위를 보입니다. 파나소닉 AG-DVX100 PAL로 찍는다면 여전히 위의 과정이 (단, 디인터레이스와 모션 블러는 제외) 필요할 것입니다.
저는 후반작업 전문인이 아니어서 지식과 경험에 한계가 있습니다. 제한적인 저의 작업 경험과 시행착오가 혹시라도 도움이 되실 분들이 계실까 해서 이렇게 글을 올립니다. 제가 파이널 컷 프로 사용자여서 다른 NLE에 대해서는 잘 모릅니다. 구체적인 과정은 알아서 이해하시리라 믿습니다. 잘못된 점이 있으면 바로잡아 주시구요...
우선 이 방법은 오로지 PAL에서 NTSC로의 변환에만 적용될 수 있고 그 반대는 안 된다는 것을 아셔야 합니다. 어차피 PAL 사용 국가들은 대체로 NTSC에 관대한 편이고 NTSC 사용 국가들은 그렇지 못 하기 때문에 PAL을 NTSC로 변환하는 것이 대부분 절대적인 필요성을 갖습니다. 최근에 24p(23.976p)를 NTSC 60i(59.94i)에 기록하는 캠코더가 등장하기 전까지 필름으로 옮기기 위한 비디오를 찍는 경우에 PAL이 절대적으로 선호되어 왔기 때문에 PAL로 찍혀진 결과물을 이런저런 이유로 NTSC로 보기 위해서 변환이 필요했습니다. 이 변환은 생각보다 까다로운 것이어서 싸구려 기계로는 결코 좋은 결과물이 얻어지지 않습니다. 그 말은, 고품질의 변환은 상당히 비싸다는 뜻이기도 합니다만, 더 큰 문제는, 우리나라에서 고품질로 이 변환을 해 주는 곳이 거의 없다는 것입니다. 아주 최근에 테라넥스 변환기 한 대가 들어왔다는 소식을 들었습니다. 그 기계를 쓸 수 있다면 비교적 고품질의 변환이 가능할 것입니다. 물론 비용이 얼마가 될 지는 알 수 없습니다만...
참고로, 필름 레코딩을 위한 비디오 촬영에서 이제는 NTSC도 상관없다는 이야기를 들으신 분이 있다면 다시 생각하시기 바랍니다. 이 이야기는 최근의 24p를 60i에 기록하는 캠코더를 지칭한 것이 아니라 60i 캠코더를 이야기하는 것입니다. 우리나라에 가장 흔한 캠코더들이 대부분 다 60i입니다. 키네코에 관련된 다른 글에서 다시 말씀드리겠지만, 지금 시점에서는 24p가 됐든 25p가 됐든 반드시 프로그레시브 스캔 캠코더로 찍으라고 권하고 싶습니다. 그 말은 이제 NTSC도 된다는 이야기지만 결코 60i를 뜻하는 것은 아닙니다. 현재 가능한 제품은 파나소닉 AG-DVX100와 파나소닉 AJ-SDX900입니다. 이들 캠코더가 소니 DVCAM 제품군이나 디지베타에 비해 성능 자체가 더 낫다는 뜻이 아니라 필름 레코딩에 월등히 적합하다는 이야기로 받아들이시면 되겠습니다.
다시 본론으로 돌아와서...
우선 변환의 원리를 설명드립니다. PAL은 아시다시피 50i입니다. NTSC가 60i라고 불리지만 29.97 fps인 것과는 달리 PAL은 정확히 25 fps입니다. 변환의 원리는 25 fps인 PAL 비디오를 23.976 fps로 설정한 후에 3:2 인터레이스 시퀀스를 먹여서 29.97 fps를 만드는 것입니다. 물론 화면 크기의 조정도 개입되고, 원본이 인터레이스 비디오라면 디인터레이스가 가장 먼저 이루어져야 합니다. 그럼 과정을 자세히 설명하겠습니다.
제 경우에는 이미 필름 레코딩을 위해 확대된 프레임들을 다시 줄이는 과정을 거쳤지만, 보통의 경우라면 PAL 비디오에서 출발합니다. PAL은 D1이든 DV든 디지탈 해상도가 똑같이 720x576입니다. 아마도 필름 전환을 위해서라면 16:9 아나모픽으로 찍혀졌을 것입니다. 여기서 두 가지 갈림길이 있습니다. 이것을 4:3 NTSC 프레임으로 전환하고 레터박스를 치는 방법과 NTSC에서도 그냥 아나모픽인 채로 두는 방법입니다. 게다가 DVD 전환을 위해서는 29.97 fps가 아니라 23.976 fps로만 바꾸고 화면 해상도만 바꾸는 방법도 있을 수 있습니다. 이 방법들 사이의 장단점은 나중에 다시 설명하겠습니다.
최고의 화질을 위해서는 전혀 손을 안 댄 캡쳐만 된 비디오에서 시작하기를 권합니다. 디지베타라면 캡쳐에서 10 비트를 보존할 수 있도록 주의를 기울이시기 바랍니다. 상당히 비싼 시스템들이라도 디지베타의 품질을 제대로 보존해 주지 않는 경우가 많습니다. (예를 들면 디지수잇) 이에 반해 훨씬 싼 시스템이라도 10 비트를 제대로 보존해 주는 것들도 있습니다. 예를 들면 현재 버전의 파이널 컷 프로와 함께 작동하는 저렴한 캡쳐 장치들은 10 비트를 제대로 보존해 줍니다. DV라면 어차피 8 비트이고 파이어와이어로 캡쳐하면 최선의 품질이 보존됩니다.
캡쳐된 PAL 비디오 정보는 퀵타임이든 AVI든 애프터 이펙트가 읽을 수 있는 파일로 만들어져야 합니다. 예를 들어 퀵타임 기반인 파이널 컷 프로에서는 그냥 간단히 Pointing Movie로 만들 수 있습니다. 이 방법이 저장 공간도 차지하지 않고 변환 속도도 빠른 가장 이상적인 방법일 겁니다.
이제 다음으로 필요한 것은 애프터 이펙트 5.0 이상 프로덕션 번들입니다. (현재 버전은 5.5 프로덕션 번들입니다.) 프로덕션 번들이 아닌 경우에 (채널 당) 16 비트가 지원되지 않습니다. 최선의 품질을 위해서는 16 비트로 처리하는 것이 이상적입니다. (프로젝트 설정에서 설정합니다.) 채널 당 16 비트를 권장하는 이유는, 비디오의 색공간과 애프터 이펙트의 처리 색공간이 달라서 비디오 정보를 입출력하는 과정에서 변환이 필요하기 때문입니다. 이 변환에서 손상을 최소화하기 위해서는 처리 해상도가 높아야만 합니다.
애프터 이펙트에서 이 PAL 파일을 불러옵니다. 만약 원본이 위에서 처리한 것처럼 한 파일로 되어 있다면 간단하지만, 혹시 각 컷 별로 이미지 시퀀스로 되어 있다면 그 모든 폴더를 몽땅 불러와야 합니다. 파일을 불러 오기 전에 설정에서 불러오기 기준 초당 프레임 수를 23.976 fps로 미리 바꾸어 놓는 것이 좋습니다. 만약 한 파일이라면 불러 온 후에 그 클립을 선택해서 23.976 fps로 설정되었는 지 확인합니다. (Interprete Footage) 24 fps로 하면 절대 안 되니 주의하시기 바랍니다. 각 컷이 각 폴더 안에 저장된 이미지 시퀀스라면 미리 설정에서 불러오기 기준 프레임 수를 23.976 fps로 해 놓은 한 마찬가지로 23.976 fps로 설정될 것입니다.
다음은 그 클립들로 컴포지션을 만듭니다. 한 파일이라면 그것만 끌어다가 컴포지션 만들기 단추에 놓으면 자동으로 컴포지션이 만들어질 것이고 만약 이미지 시퀀스로 된 많은 폴더들이라면 모두 선택해서 컴포지션 만들기 단추에 끌어 놓으면 몇 가지 선택을 할 수 있는 창이 열릴 것입니다. 거기서 아래 쪽에 있는 늘어 놓기 선택사항으로 하시되 겹치지 않도록 설정을 하시면 됩니다. 물론 한 컴포지션으로 하셔야 됩니다.
다음은 디인터레이스인데요, 고품질을 위해서는 절대 애프터 이펙트에 딸려 있는 것을 쓰지 마시길 권합니다. 권장하는 디인터레이스 도구는 두 가지입니다. 릴스마트 필드킷과 오퍼니지의 매직 불릿입니다. 디인터레이스 품질은 거의 똑같다고 평가되고 가격은 매직 불릿이 엄청나게 더 비쌉니다. 필드킷의 장점은 디인터레이스 설정 인터페이스가 좋다는 것이고 매직 불릿이 좋은 점은 디인터레이스 이외에 디아티팩트 필터도 있다는 것입니다. 디아티팩트 필터는 4:1:1 색양자화 방식으로 만들어진 비디오들에서 높은 채도의 색들이 특히 심하게 깨지는 것을 억제해 줍니다. 매직 불릿에는 다른 기능도 있지만 여기서는 전혀 필요가 없습니다. 매직 불릿은 속도가 필드킷보다 훨씬 느립니다. 그렇다고 필드킷이 빠르냐 하면 그것도 아닙니다. 많은 사용자들이 이미 필드킷의 속도에도 질려합니다. 그러니 매직 불릿의 속도가 어떨 지는 상상이 가실 겁니다. 만약 전체가 한 클립으로 되어 있다면 키프레임을 이용해서 디인터레이스 변수 설정을 해야만 합니다. 이것이 좋은 품질의 디인터레이스를 위한 가장 중요한 요령입니다. 한 가지 설정이 절대로 모든 경우에 적합할 수가 없고, 이 결정을 스스로 할 수 있을 만큼 이 플럭인들이 똑똑하지도 않습니다. 사실은 어림도 없죠. 사람이 직접 보고 결정해야만 합니다. 가격이 현실적인 릴스마트 필드킷의 경우를 좀 더 자세히 설명드리겠습니다.
디인터레이스는 PAL에서 NTSC로 전환처럼 SD 해상도일 때와 필름 전환을 위해서 확대를 하는 경우에 조금 다르게 취급되어야 합니다. SD 해상도에서는 멀쩡해 보이는 것도 확대를 하면 문제점들이 월등히 심하게 보이기 때문입니다. SD 해상도를 위한 경우라도 여전히 확대를 해서 보면 좀 더 쉽게 변수를 설정할 수 있는 것은 틀림없습니다. 우선 모든 레이어(한 클립일 경우에는 그것만)의 품질을 Best로 설정합니다. 그래야 결과물의 품질을 제대로 확인할 수 있습니다. 필드킷을 먹였으면 그 변수를 일일이 설정합니다. 키프레임으로 적어도 각 샷 별로는 다른 설정을 해야 하고 필요하다면 심지어 같은 샷 안에서도 설정을 바꿀 수도 있습니다. 결과물의 품질 확인은 이미 말씀드린 대로 확대해서 보는 것이 가장 좋습니다만, 애프터 이펙트의 확대 품질은 미리보기에서나 실제 확대에서나 안타깝게도 상당히 너덜너덜한 수준입니다. 이렇게 많이 쓰이는 합성 전문 소프트웨어의 가장 기본적인 기능이 이런 수준이라는 것이 믿어지지 않을 정도지요. 따라서 가급적 미리보기보다는 화질이 나은 실제 확대를 사용하는 게 바람직합니다. 그런데 또 그러려면 컴포지션의 해상도를 바꾸어야 전체를 다 볼 수 있습니다. (안 그러면 클립의 위치도 이동시켜야 합니다.) 참 껍쩍스러운 환경이 아닐 수 없습니다. 애프터 이펙트의 다음 버전이 이미 발표되었는데, 이 문제가 좀 개선되었기를 바랄 뿐입니다.
어쨌든... 확대를 하든 아니든 화면의 특성에 따라서 결과를 유심히 살피면서 변수를 각 샷 별로 일일이 설정합니다. 필드킷의 가장 좋은 기능 중의 하나는 모션 마스크를 보여 주는 것입니다. 각 픽셀의 움직임을 분석해서 변수에 따라서 해당되는 범위를 마스크로 보여 줍니다. 그 마스크를 껐다 켰다 하면서 디인터레이스의 범위와 양을 결정해야 합니다. 디인터레이스의 품질은 이 변수값의 적절한 설정에 달렸다고 해도 과언이 아닙니다. 따라서 디인터레이스의 품질은 사용하는 소프트웨어가 아니라 오히려 사용하는 사람의 판단에 더 크게 좌우됩니다. 필드킷의 기능은 크게 두 가지입니다. 하나는 각 픽셀의 모션 벡터를 분석해서 범위를 결정하는 기능이고, 다른 하나는 디인터레이스 자체와 디인터레이스된 부분을 적당히 다듬어 주는(?) 기능입니다. 만약 화면이 전체적으로 흔들림이 심하거나 대상의 움직임이 심한 경우에는 모션 마스크를 쓰지 않고 전체를 디인터레이스하고, 정적인 화면이라면 최대한 화면에 손상이 안 가도록 필요한 부분만 디인터레이스를 하는 것이 요령입니다. 문제는 대부분 전이 영역에서 발생합니다. 전이 영역은 공간적(Spatial) 변화와 시간적(Temporal) 변화 모두에 의해서 발생합니다. 한 장의 프레임에서 멀쩡한 것만 가지고 판단을 하면 안 된다는 것입니다. 모션 마스크를 안 쓰는 경우에는 상관이 없습니다. 하지만 그러면 필드킷을 굳이 쓰는 이유가 반감됩니다. 움직임에 따라서 모션 마스크를 적당히 여유있게 설정해 주는 것이 아주 중요합니다. 그리고 실제 제가 사용해 본 경험으로 보면, 각 픽셀의 움직임을 추적하는 기능이 비교적 명암차가 뚜렷한 부분에서는 정확하게 이루어지지만 명암차가 적은 부분에선 잘 작동하지 않는 경우가 많습니다. 물론 그런 부분은 사람에게도 그만큼 뚜렷하게 안 보이고 더구나 움직임이 있는 부분이어서 더 포착하기가 힘든 것도 사실입니다. 그렇다고 해도 찝찝한 건 사실이죠. 유심히 살펴 보고 적절한 디인터레이스 방식과 변수값을 설정하는 수 밖에 없습니다.
해 보시면 느끼시겠지만, 디인터레이스는 아무리 정교한 도구를 써서 정확한 판단으로 정성껏 하더라도 결코 원래 프로그레시브 스캔으로 찍은 것에는 근접도 할 수 없습니다. 이미 설명을 듣고 질리신 분들도 많으실 겁니다. 그러니 혹시라도 PAL로 찍어서 NTSC로 옮기거나 디지탈로 효과 작업을 해야 하거나 필름으로 옮길 비디오라면 프로그레시브 스캔으로 찍기를 간곡히 부탁드립니다.
그럼 다음으로는 릴스마트 모션 블러를 먹일 차례입니다. 이 모션 블러 플럭인은 이름은 모션 블러이지만 기능은 웬만한 합성 소프트웨어에 딸려 오는 기본 모션 블러 기능과 상당히 다릅니다. 렌더 순서는 당연히 디인터레이스 이후에 되어야만 합니다. 이 모션 블러 기능도 필드킷의 디인터레이스 기능과 비슷하게 각 픽셀의 움직임을 분석해서 작동합니다. 어느 정도 이상의 움직임이 있는 경우만 그 움직임의 양에 비례해서 모션 블러가 먹여지도록 작동합니다. 이렇게 굳이 모션 블러를 먹이는 이유는, 원래 50i로 찍혀진 비디오의 셔터 속도가 충분히 느리지 않기 때문에 23.976 fps로 전환했을 경우에 움직임이 충분히 부드럽게 보이지 않기 때문입니다. 필름은 보통 180도 셔터로 찍었을 때 1/48 초의 셔터 속도입니다. 이 셔터 속도는 마술과 같이 적절한 양의 모션 블러를 줍니다. 만약 필름이 보통의 비디오와 같은 셔터 속도로 찍혀졌다면 훨씬 틱틱거려 보일 겁니다. 사람의 눈이 이 모션 블러 때문에 속는 것입니다. 역시 각 픽셀의 움직임을 분석하는 만큼, 렌더 시간은 상당히 걸립니다. 모션 블러의 양은 필름의 셔터 각도를 모사하게 되어 있습니다. 180도가 보통이지만 실험을 해 보고 적당하다고 느끼는 것으로 고르셔도 됩니다.
이상에서 설명한 정교한 디인터레이스와 모션 블러는, 프로그레시브 스캔으로 촬영했을 경우에 필요없습니다. (일부 인터레이스 스캔 캠코더들의 프로그레시브 전환 기능은 해당되지 않으니 주의하시기 바랍니다. 예를 들면 XL-1(s)의 프레임 모드) 꽤 비싼 소프트웨어들과 그 소프트웨어를 다룰 수 있는 웬만한 지식과 엄청난 노가다와 어마어마한 렌더시간이 소요됩니다. 그러고도 원래 프로그레시브 스캔으로 찍은 것에는 미칠 수 없습니다. 그러니 프로그레시브 스캔 촬영의 잇점이 어느 정도인지 감이 오시리라 생각합니다. 프로그레시브 스캔으로 찍었을 경우에는 (예를 들면 파나소닉 AG-DVX100 PAL 버전이 해당됩니다.) 바로 다음 단계로 넘어가게 됩니다.
이제 화면의 크기를 맞추고 출력할 차례입니다. 화면 크기는 앞에서 잠깐 언급한 대로 몇 가지 선택의 여지가 있습니다. 만약 4:3으로 찍었다면 크게 고민할 필요 없이 그냥 720x486(D1으로 출력할 경우)이나 720x480(DV나 DVD로 출력할 경우)으로 하시면 됩니다. 만약 16:9 아나모픽으로 찍었다면 아나모픽을 유지할 것인지 레터박스를 칠 것인 지 결정해야 합니다. 찍을 때는 아마모픽이 월등히 유리한 것과 달리 4:3이 거의 대부분인 일반 TV에서 보기 위해서는 레터박스가 오히려 나을 수도 있습니다. 레터박스를 친다면 720x576을 720x360으로 축소해야 합니다. 이 품질도 애프터 이펙트의 화면 보간 알고리듬이 형편없기 때문에 결코 좋다고 볼 수는 없지만 확대가 아니고 축소이니 그냥 참아 주기로 합니다. 레터박스는 미리 변환을 하기 때문에 실시간 변환에 비해 비교적 고품질의 느린 알고리듬을 사용할 수 있습니다. (물론 애프터 이펙트는 별루지만...^^) 만약 오로지 4:3 TV로만 보게 된다면 차라리 레터박스를 치는 것이 더 나은 화질을 얻을 수도 있습니다. DVD의 경우도 마찬가지입니다. DVD 자체가 아나모픽을 지원합니다만 그것이 일반 4:3 TV에서 볼 때 가장 좋은 선택이라고는 쉽게 말할 수 없습니다. 레터박스를 쓰던 안 쓰던 컴포지션의 크기는 D1이냐 DV냐 DVD(MPEG-2)냐에 따라서 720x486이거나 720x480으로 하셔야 됩니다. 만약에라도 NTSC D1으로 했다가 나중에 DVD를 굽는 경우는 축소가 아니라 6 픽셀 잘라내기를 해야 합니다. 그리고 그 6 픽셀은 위아래 각각 3 픽셀씩이 아니라 위에 4 픽셀 아래 2 픽셀이나 그 반대로 하셔야 하구요. 파이널 컷 프로 4에 딸려 온 MPEG-2 인코더의 기본 설정값들은 이 점이 이미 제대로 되어 있더군요.
화면 크기의 변환은 반드시 디인터레이스와 모션 블러가 먹여진 이후에 이루어져야 한다는 점을 명심하시기 바랍니다. 결코 미리 화면 크기 변환이 이루어져서는 안 됩니다. 즉, 렌더 순서는 반드시 "디인터레이스 -> 모션 블러 -> 화면 크기 변환"의 순서가 되어야 합니다.
최종 출력을 위해서 렌더를 하게 되는데, 여기가 아주 중요합니다. DVD의 경우는 24p가 사실 가능합니다. 아나모픽의 경우와 마찬가지로 DVD 재생기가 실시간으로 3:2 인터레이스 시퀀스를 먹여서 29.97 fps로 보여 주게 됩니다. 잇점은, 화면 프레임 수가 29.97 fps에 비해 훨씬 적으므로 그만큼 같은 전송율에서 나은 화질을 얻을 수 있다는 것입니다. 이 경우를 제외하고는 모두 29.97 fps로 출력하게 됩니다. 다른 설정은 모두 최고 품질로 하시고 필드 렌더는 lower field를 우선으로 하시고 3:2 인터레이스 시퀀스에서 WSSWW를 선택하시면 됩니다. 출력 파일 규격은 나중에 어떻게 결과물을 처리할 것인가에 달려 있습니다. 색보정을 하지 않은 원본을 사용했을 경우에 (권장) 다시 원래 했던 색보정 처리를 해야 할 것입니다. 원래 작업했던 NLE에서 그대로 색보정 값을 먹이는 것이 가장 효율적일 것입니다. 물론 가장 좋은 결과는 16 비트 RGB 코덱이나 10 비트나 16 비트 YUV 코덱으로 했을 때 얻어질 것입니다. 사용하는 NLE에 적합한 것을 선택하세요. 예를 들어 현재 버전의 파이널 컷 프로는 YUV 색공간에서만은 고품질의 렌더를 지원합니다. 최종 출력이 DV라도 다시 NLE에서 색보정을 할 거면 DV 코덱이 아니라 다른 비손실 코덱으로 출력하는 게 낫습니다. 마이크로코즘 코덱을 권장합니다. 윈도우즈에서는 현재로서 저렴한 가격에 고품질 처리를 해 주는 소프트웨어가 없습니다. 저도 eXtreme 6.0을 실험해 보기 위해서 독일 본사에 직접 접촉을 해 봤습니다만, 한 번 답장이 온 후에 연락이 안 되더군요. 샌프란시스코에 있는 미국 지사도 굉장히 무성의했구요. 아마도 유통 쪽에 큰 문제가 있는 게 아닌가 합니다. 물론 윈도우즈 쪽에서도 아주 비싼 시스템들은 고품질 렌더를 지원합니다. 현실적인 대안으로는 현재는 피나클이 팔고 있는 FAST 리퀴드 시스템들이 아닐까 합니다.
최종 렌더가 끝나면 그 파일을 원래 작업했던 NLE에 겁니다. NTSC D1이거나 DV 시퀀스에 집어 넣어야 되겠죠. 이제 다시 원래 PAL에서 작업했던 색보정 값들을 먹일 차례입니다. 파이널 컷 프로를 기준으로 설명드립니다. 원래 작업한 PAL 시퀀스에서 해당 트랙을 통째로 복사한 후에 그걸 NTSC 시퀀스의 한 트랙에 복사하세요. 일단 그 트랙을 끕니다. 그리고 NTSC로 변환된 클릭을 각 샷별로 자릅니다. 3:2 인터레이스 시퀀스 때문에 편집점에서 필드가 겹쳐 있을 수 있습니다. 이건 너무 걱정 안 하셔도 됩니다. 어차피 통짜로 출력하게 되니까요. 그 다음은 원래의 PAL 클립들에 먹여진 색보정 값들을 고대로 집어서 아래 있는 클립들에 끌어다 놓으면 됩니다. PAL 트랙은 만들어진 NTSC보다 조금 짧을 겁니다. 헷갈리시면 PAL 트랙 전부에 속도 조절을 먹여서 NTSC와 같은 길이로 만들어 놓고 작업해도 됩니다. (한꺼번에 다 먹일 수 있습니다.) 조금 차이이니 적당히 봐 가면서 해도 되구요. 어차피 작업이 끝나면 그 클립들은 지워 버릴 것이니 크게 신경 안 쓰셔도 됩니다. 다 끝나면 PAL 클립들이 있는 트랙은 지워 버립니다. 만약에 전이효과를 쓴 편집점들이 있다면 처음에 출력할 때 전이 효과를 끄고 한 다음 다 끝나고 지금처럼 최종 색보정을 할 때 먹이는 게 좋습니다. 안 그러면 나중에 색보정이 곤란해집니다. 혹시라도 파이널 컷 프로에서 처음에 색보정을 했는데 왜 다시 하나 하실 분을 위해서...^^ 색보정을 이미 한 PAL 시퀀스를 복제해서 애프터 이펙트 작업용으로 파일을 만들기 전에 색보정 필터를 모두 꺼 버리면 됩니다. (물론 한 큐에 됩니다.)
만약 PAL에서의 색보정이 충분히 고품질로 이루어졌고 고품질 파일 규격으로 출력이 가능하다면 이런 번거로운 과정을 생략하고 그냥 최종 색보정된 PAL 작업을 출력해서 NTSC로 변환해도 됩니다. 파이널 컷 프로를 사용하는 경우에는 먼저 고품질 YUV 코덱으로 렌더를 한 후에 애프터 이펙트에서 16 비트 RGB로 변환하도록 하는 것이 좋습니다. 왜냐하면 파이널 컷 프로가 고품질 렌더를 YUV에서만 지원하기 때문입니다. RGB로 출력하면 8 비트로 찌그러뜨립니다.
고품질로 색보정을 하는 또다른 방법으로는 애프터 이펙트에서 Color Finesse라는 플럭인이 있습니다. 아주 우수한 색보정 플럭인인데요, 안타까운 것은 얼마 전까지 매직 불릿이 그랬듯이 아직 윈도우즈용이 없다는 것입니다. (매직 불릿은 최근에 윈도우즈용이 나왔습니다.) 애플의 최신 G5는 이제 최신 피씨보다 빠르다고 하지만, 바로 얼마 전까지도 G4는 특히 애프터 이펙트 렌더에서 펜티엄 4에 비해 훨씬 느렸습니다. 특히 애프터 이펙트는 맥에서든 피씨에서든 듀얼 프로세서를 전혀 활용하지 못 합니다. 아도비 제품은 이제 점점 시대에 뒤지고 있다는 생각이 듭니다. 프리미어도 다음 버전에서야 간신히 다른 프로그램들이 몇 년 전부터 지원해 온 기본적인 기능을 지원하게 됩니다. 포토샵의 절름발이 16 비트 지원 때문에 사진 작업하시는 분들도 엄청난 고생을 하십니다. 어쨌든 맥 기반으로 개발되었던 애프터 이펙트도 정작 렌더는 윈도우즈에서 하는 경우가 더 많아졌습니다. Color Finesse는 이 용도로서는 아주 좋은 도구이기 때문에 꼭 필요하다면 아마도 G5에서 애프터 이펙트를 돌릴 수 밖에 없지 않을까 합니다. 물론 윈도우즈용이 나온다면 가장 좋겠죠. 만약 파이널 컷 프로에서 작업한 결과물을 윈도우즈용 애프터 이펙트에서 처리할 경우에는 맥과 윈도우즈에서 YUV -> RGB 변환에 조금 차이가 있다는 걸 예상하셔야 합니다. 원래 YUV의 바닥은 RGB 값 16(8 비트에서)으로 정해져 있습니다. 그런데 맥에서는 코덱에 따라 이 변환에서 YUV의 바닥을 RGB 0으로 하는 경우가 있습니다. 물론 애플 DV 코덱도 여기 해당됩니다. 그래서 윈도우즈에서 애프터 이펙트로 처리한 결과물을 다시 맥으로 가져 와 출력할 때 이 차이를 따로 바로잡아야 할 수도 있습니다. 이 경우에는 반드시 웨이브폼 모니터(소프트웨어에 딸린 것도 상관 없습니다.)를 보면서 최저 밝기값이 균형을 유지하도록 조정을 하시기 바랍니다. (이 조정을 위해서는 ProcAmp 필터가 가장 편리합니다.)
색보정 값들을 다 먹였으면 파이널 컷 프로에서 시퀀스의 렌더 설정을 최고 품질(YUV 채널 당 32 비트)로 한 후에 렌더를 합니다. 물론 시퀀스의 코덱을 의도한 출력 규격으로 해야 하겠죠. 그럼 화면은 출력할 준비가 끝난 것입니다. 이제 음향을 늘려 줄 차례입니다. 가장 간단한 방법은 PAL에서 작업한 음향을 속도조절을 이용해서 화면과 똑같은 길이로 만드는 것입니다. 화면 길이를 그대로 음향 클립의 길이로 먹이면 됩니다. 그리고 렌더를 하면 정확히 일치하는 음향을 얻을 수 있습니다. 그러나 이렇게 하면 사실 상 양자화 주파수를 바꾸는 것이기 때문에 음이 조금 내려갑니다. 이 정도 속도의 변화는 사실 거의 느껴지지 않으나 음높이의 변화는 상당히 분명히 느낄 수 있습니다. 만약 이 음높이를 유지하고자 한다면 고품질 디더링을 지원하는 음향 프로그램을 써야 합니다. 음높이를 내려가게 두면 품질에는 문제가 생기지 않습니다. 하지만 음높이를 유지하면서 길이를 늘리면 품질에 문제가 생길 가능성이 아주 높습니다. 16 비트 음향이라면 24 비트로 전환해서 작업한 후에 다시 16 비트로 디더링을 하는 과정을 거쳐야 합니다.
음향 처리가 끝났으면 이제 디지베타나 DV로 출력하거나 MPEG-2로 인코딩을 하시면 됩니다. 이런 과정은 결국 PAL로 찍은 비디오를 필름으로 떠서 그걸 텔레시네한 것과 비슷한 방식이라고 볼 수 있습니다. 실제로 필름으로 출력해서 다시 텔레시네하는 과정을 생략한 것 뿐입니다. 따라서 이 과정 자체가 PAL 비디오를 필름으로 출력하는 요령과 많은 부분을 공유합니다. 결과물도 오히려 원래의 PAL 비디오보다 더 필름스러운(?) 느낌을 줄 것입니다. 처리를 정확하게 한다면 결과물의 품질은 어떤 웬만한 고가의 하드웨어 장비로 처리한 것에도 뒤지지 않습니다. 필름 출력이 워낙 돈이 많이 드는 일이므로 필름 출력을 염두에 두고 만들어진 작품이라도 그 이전에 DVD 제작을 해야 하는 경우가 더 많을 것입니다. 그런 경우에 싼 비용으로 최고의 화질을 얻을 수 있는 좋은 방법이라고 생각합니다.
앞으로 필름 전환을 위한 비디오를 찍으시는 분들은 인터레이스로 찍으실 일이 없기를 바라지만, 그래도 혹시 계시다면 반드시 PAL로 찍으시기를 권합니다. 그리고 같은 프로그레시브 스캔이라도 여전히 PAL은 수직 해상도에서 상당한 우위를 보입니다. 파나소닉 AG-DVX100 PAL로 찍는다면 여전히 위의 과정이 (단, 디인터레이스와 모션 블러는 제외) 필요할 것입니다.
저는 후반작업 전문인이 아니어서 지식과 경험에 한계가 있습니다. 제한적인 저의 작업 경험과 시행착오가 혹시라도 도움이 되실 분들이 계실까 해서 이렇게 글을 올립니다. 제가 파이널 컷 프로 사용자여서 다른 NLE에 대해서는 잘 모릅니다. 구체적인 과정은 알아서 이해하시리라 믿습니다. 잘못된 점이 있으면 바로잡아 주시구요...
반응형
'영상편집' 카테고리의 다른 글
[펌] VCD/DVD만들기 (0) | 2007.06.27 |
---|---|
NTSC / PAL (0) | 2007.06.27 |
영상 편집 (0) | 2007.04.18 |