반응형
MPEG 비디오 압축기법에 대해서 자세히 가르쳐 주세요.

MPEG 그 실체를 벗기자

 

멀티미디어라는 용어는 이제 컴퓨터를 사용하는 사람에게는 일상용어처럼 되었고, 컴퓨터와 가깝게 지내지 않는 사람이라도 한번쯤은 각종 매체를 통해 접해 본 경험이 있을 정도로 우리 생활에 가까운 용어가 되었다. 멀티미디어의 어원을 분석하면 '여러가지 미디어'로 볼 수 있으며, 이에 해당하는 미디어에는 텍스트, 정지화상, 동화상, 애니메이션, 사운드 등 다양한 형태로 존재한다. 그 중에서 동화상은 차세대 VOD 서비스나, 인터렉티브 미디어서비스의 기본으로 자리잡고 있어서, 관련표준안이나 연구가 활발하게 이루어지고 있는 상황이다.

 

현재 상당량의 아날로그데이타들이 디지탈로 바뀌어 가고 있는 추세이며 그에 따라 방대해지는 데이타량을 효율적으로 다루기 위하여 다양한 디지탈영상자료의 압축 및 복원기술이 등장하게 되었으며, 이러한 디지탈영상자료의 압축 및 복원 표준으로 자리잡고 있는 방법중 가장 성능이 뛰어난 MPEG의 원리에 대해서 알아보고, 또한 인터넷 상에서 가상현실세계를 체험할 수 있는 VRML에 대해서 간단하게 알아보도록 하자.

 

1. 디지탈 비디오 기술

디지탈 비디오 처리 기술은 멀티미디어 데이터의 처리중 가장 기술적으로 힘든 디지탈 비

디오의 처리를 말하나, 실제는 모든 미디어에 해당하는 것이다. 디지탈 비디오 기술은 매체에 기록된 결과를 컴퓨터를 이용해 어떻게 표현할 수 있는가에 관한 기술이다. 디지탈 비디오의 가능성을 최초로 제시한 것은 현재 DVI (Digital Video Interactive)라고 알려져 있는 방식으로 RCA연구진에 의해 80년대 후반부터 추진되어 온 방식이다.

 

이 방식은 마이크로 프로그래밍을 할 수 있는 비디오 처리에 적합한 명령을 수행하는 특수한 프로세서를 이용, 일반적인 프로세서로는 실시간 내에 처리하기 어려운 기능을 수행가능토록 한 것이다. 이 기술은 인텔이 소유하고 있으며 아이비엠의 지원을 받아 액션미디어(Action Media)II라는 상품명으로 판매되고 있다. 인텔의 독주에 제동을 건 것은 1989년부터 추진되어 온 JPEG, MPEG으로 이 두 전문가 그룹은 하드웨어 구현상 어려울 가능성이 있으나 DVI보다는 훨씬 우수한 성능을 갖는 표준 코딩 방식을 정했으며, 국제표준이라는 특성에 따라 대부분의 기업체가 이를 지원하고 있기에 앞으로의 디지털 비디오 발전에 주된 역할을 할 것으로 예측된다.

 

특히 MPEG의 경우에는 PC상에서의 비디오 처리뿐 아니라 HDTV와 같은 고화질 시스템의 디지털화를 목표로 MPEG II, MPEG III와 같은 계속적인 규격의 개선을 시도하고 있다. 또한 별도의 하드웨어를 구입할 필요없이 메인 프로세서의 처리능력만으로 비디오를 처리하는 기술이 91년부터 소개되기 시작했고. 현재로는 애플의 퀵타임(QuickTime), ,마이크로소프트의 윈도우즈용 비디오(Video for Windows), 인텔의 인디오(Indeo)로 대표되고 있으며, 메인 프로세서의 처리속도는 계속 증가하게 되므로 PC에서는 이 기술이 주류를 이룰 가능성도 매우 크다.

디지탈 화상압축기술의 발전은 첨단기기의 발전으로 인하여 그 표준화 작업이 시작되었다.

 

하지만 여기서 첨단기기는 단지 화상회의시스템 , 디지탈 방송 코덱시스템 , 화상전화기술에만 한정된 것이 아닌 컴퓨터산업, 통신산업 등에도 요구되는 기술과 상호공유되며 그 핵심기술은 거의 일치된 기술을 사용하고 있다. 일례로 CD-ROM등 광디스크나 Digital 저장매체에의 정보저장을 위한 압축기술은 화상통신 등을 위한 압축 기술과 거의 같은 기술에 의해 실현된다. 이와 같이 정보처리 기술분야에서 많은 기술이 공유된다는 점에 의하여 국제표준기구(ISO:International Organization Standardization)는 ISDN 등 화상 정보통신기술 및 디지탈 저장매체에 비디오 및 관련 오디오신호의 저장기술에 관한 표준화 작업을 맡아 수행하게되었다.

 

화상압축을 위한 표준화 노력은 정지화상 압축을 위한 ISO 및 CCITT 협동의 JPEG(트루컬러 정지화상 압축기술)와 디지탈 동화상을 위한 압축방법인 MPEG(동화상 압축기술)이 있다. 현재 MPEG의 표준화는 ISO-IEC , JTC1, SC1, WG11에 의해 추진되고 있으며 1988년 1월부터 그 알고리즘의 표준화 필요성을 느끼기 시작하여 1990년 4월에는 전문가 그룹발족 이후 SC2 , WG11(Godding Moving Picture and Associated Audio)으로 승격되어 지금까지 그 표준화 작업이 진행중이다.

 

MEPG(Moving Picture Experts Group)는 단지 화상 압축기술만이 아닌 비디오/오디오/시스템의 3단계로 나누어 진행중이다.

비디오 분야는 1.5Mbits/s의 화상 압축을 다루고 있다 여기서 1.5Mbits/s를 넘지 않는 이유는 현재 널리 사용되는 디지탈 저장매체의 접근 속도가 이를 넘지 않기 때문이다. 현재 비디오 분야는 C-Cube Microsystems의 D.Le Gall이 의장직을 맏고 있다. 오디오 분야는 채널당 64, 128, 192Mbits/s의 전송속도를 갖는 디지탈 오디오 신호의 압축에 대해 다루고 있다. 시스템 분야는 여러개의 압축된 오디오 및 비디오 신호의 다중화 및 동기문제를 다루고 있다.

 

2. 동화상 저장 이론

비디오나 사진같은 영상들은 대부분의 경우 YUV 컬러 공간상에서 인코딩되는데 여기에서명도(Luminance ; Y)는 완전한 해상도(즉 320*240 화소로써 이 것은 대략 일반 VHS 비디오의 화질과 비슷하다)를 가질수 있으며 크로미넌스(Chrominance ; U, V)는 수평적으로나 수직적으로 절반의 해상도( 160*120 화소)를 가질 수 있다. 이것은 만일 각각의 Y, U ,V 샘플에 대해서 한 바이트를 할당한다고 할때 화소당 평균적으로 1.5바이트를 사용하게 되는 것이다. 즉 화소당 하나의 Y바이트를 사용하며 2*2의 화소 배열당 하나의 U바이트와 하나의 V바이트를 사용하게 된다.

 

따라서 비디오의 각 프레임(frame)은 그 크기가 115,200바이트에 이르게되며 초당 30프레임(현재 TV 방송이나 비디오의 신호는 대략 초당 30프레임으로 동화상을 무리없이 볼수 있는것이다.)을 처리하는 경우에는 1초 동안의 비디오 화면을 저장하기 위해서 3.5MB의 저장장치가 필요하게 된다. 하지만 모션 비디오의 경우에는 많은 중복을 내포하고 있기 때문에영상의 화질을 크게 저하시키지 않으면서 압축시킬 수 있다.

 

이렇게 되면 사용자들은 MPEG의 표준안(CD-ROM 이나 그밖의 다른 디지탈 저장 매체를 사용하여 대략 1.5Mbps의 데이터 속도로 녹음 재생하는 것을 목표로 하는 압축된 디지탈 비디오와 오디오의 초벌 표준안)을 사용하여 프레임당 약 4.5KB 의 크기로 압축시킬 수 있게 된다.

일단 320*240 화소의 영상을 YUV 형식으로 변환하면 주어진 영상을 4.5KB로 압축하는데

필요한 압축률은 대략 26 : 1 정도가 된다.동영상은 중복되는 부분이 많으므로 데이터 용량을 높은 비율로압축하지만 이에반해 오디오 데이터는 중복되는 부분이 적기때문에 영상 데이터 만큼 높은 비율로 압축할 수는 없다. 단 ADPCM 방식을 사용하여 4:1 까지는 압축이가능하다.

 

3. 디지탈 영상 압축 ???

많은 양의 디지탈 데이터로 이루어진 영상의 전송 또는 저장시 전송시간과 기억 용량의

제한을 극복하기 위해 화질을 용도에 따라 요구되는 수준으로 유지하면서, 가능한한 적은

비트 수로 영상을 표시하는 기술이다. 디지탈신호 처리와 이를 실제 구현할 수 있는 초대규모 직접회로(VLSI) 기술의 발달에 힘입어 디지탈 영상 압축기술은 팩시밀리, 비디오 폰, 비디오 컨퍼런스, 디지탈 VCR, 디지탈 카메라 등 여러 분야에 응용되어 왔고 현재 세계적으로 추진중인 HDTV(고화질TV) 방식 중의 하나로 각광받기 시작했다.

 

최근에는 텍스트와 그래픽만을 처리하던 종래의 컴퓨터(특히 개인용 컴퓨터)에, TV와 VCR기능을 추가해 오디오, 정지영상 그리고 동영상(Video)까지도 통합처리 함으로써 교육, 오락 등에 다양한 응용을 추구하는 멀티미디어 분야에서도 이 디지탈 영상압축기술은 중요한 핵심 기술로 자리잡고 있다.

 

4. 영상 압축 원리와 방법

잡음(Random noise)과는 달리 영상신호는 각 데이터간의 연관성(Corelation)에 매우 큰 특성이 있으므로 변화가 적은 비슷한 값의 나열로 이루어져 있다. 즉, 우리가 눈으로 사물을 구별해내는 이유는한 점만을 개별적으로 인식해 그것이 하늘이나 집, 또는 사람이라고 알아보는 것이 아니라 비슷한점들의 모임을 한데 묶어서 인식하기 때문이다.

 

영상이란 비슷한 밝기와 색상을 가진 점(화소 또는 픽셀이라 부른다)들이 부분적으로 모여 이루어진다고 할 수 있다. 이것을 정보의 중복성(Redundancy)이라고 하며, 이 중복성을 제거함으로써 전체 데이터 양을 상당히 줄이고도 충분한 정보를 전달할 수 있다. 극단적인 예로 푸른 하늘의 영상을 표현할 때, 같은 푸른색의 값을 갖는 수백, 수천 개의 점들로 나타내지 않고 단지 푸른색이란 값 하나만을 사용해 표시하더라도 우리는 똑같은 영상을 만들어낼 수 있는 것이다. 이렇게 중복성을 제거하는 일을 영상압축(Compression) 또는 복호화(Decoding)라고 한다.

 

영상압축의 기법들은 다양하게 개발되어 독립적으로, 때로는 상호보완적으로 사용되고 있는데 특성에 따라 여러가지 분류가 가능하지만, 기본적으로 무손실(Lossless)기법과 손실(Lossy)기법으로 나눈다.

 

무손실 기법은 데이터의 완벽한 복원이 가능해 X레이, 단층촬영(CT) 등 의료용 영상과 같

이 화소의 값이나 미세한 정보량이 중요한 응용분야에서 쓰이고 압축률은 비교적 낮은

3:1~2:1 정도이다.

손실기법은 데이터를 일부 잃어버려 압축하기 전 상태로 완벽히 복원되는 것은 불가능하다.

 

그러나 상당히 우수한 화질을 유지하면서도 10:1~40:1의 높은 압축률을 낼 수 있을 뿐만 아니라, 화질을 다소 양보하면 압축률을 더 높게 조절할 수 있는 기법이다. 이 손실 기법에는 각 화소의 값이나 아주 미세한 변화는 중요하지 않고 오직 전체적인 화질에만 초점을 맞춘 멀티미디어를 포함한 응용분야에서 다양한 기법들과 함께 폭넓게 이용되고 있다. 무손실기법이나 손실기법은 공히 여러 영상에 동등한 방법을 적용하더라도 각 영상의 압축률은 영상의 내용에 따라 달라질 수 있다.

 

앞에서 언급한 정보의 중복성이 많은 영상, 즉 색상이나 밝기가 완만하게 변하는 영상은 압축이 잘되며, 아주 복잡하고 세밀한 것들을 많이 갖고 있는 영상은 압축률이 낮다. 예를 들어, 꽃이 울긋불긋한 정원의 영상이 하얗게 눈덮인 풍경의 영상보다 압축률이 낮다. 일반적인 영상 부호화 시스템은 무손실기법과 손실기법들을 함께 적용해 전체적인 성능을 높이고 있는데, 이제 몇 가지 기법들에 대해 알아보고 다음의 순서에서 전체적으로 어떻게 합쳐져 구성되어 있는지 국제 표준 알고리즘을 실례로 들어 구체적으로 알아보도록 하겠다.

 

여러 영상 부호화 시스템들이 다소 차이가 있을 수 있으나 전형적인 형태는 <그림1>과 같

이 4가지 주요요소들로 구성되어 있으며, 압축된 비트스트림(Bitstream) 데이터로부터 영상을 복원하기 위한 복호화는 역과정을 통해 이루어집니다.

 

디지탈 영상

|

전처리 (Processing)

|

변형 (Transformation)

|

가변길이 양자화 (Quantization)

|

부호화 (Variable length)

 

<그림1> 영상 부호화 시스템

 

(1). 전처리(Preprocessing)

전처리 과정에서는 압축을 하기 위한 준비작업을 한다. 보통 컬러 스페이스 (color space)변환, 필터링(filtering), 컬러 서브샘플링(color subsampling) 등이 행해집니다. 먼저 컬러 스페이스 변환은 R,G,B 세 성분으로 이뤄진 컬러 영상을 밝기(Luminance)의 Y성분과 색 (Chrominance)을 위한 I와 Q성분으로 변환하는 과정으로 압축률을 높이기 위해 필수적으로 사용된다.

 

R,G,B는 각각 서로 비슷한 영상이어서 정보가 중복되는 반면, 이 과정을 거치면 영상이 갖고 있는 세밀한 부분을 포함한 대부분의 정보는 y로 모이고 I와 Q는 단조로운색 정보만 남게 된다.

 

그것은 사람의 눈이 밝기의 변화에는 민감하지만 색의 미세한 변화에는 둔감하기 때문입니다. 과거 우리가 Y성분만을 사용하는 TV로도 충분히 많은 정보를 얻었다는 점을 상기하

면 쉽게 이해될 것입니다.

이 색 변환 과정은 다음의 수식으로 행해집니다. 여기서 NTSC방식의 YIQ 대신, 때로는 PAL방식의 YUV가 사용될 수 있으나 거의 비슷한 결과를 줍니다. 컬러 스페이스 변환에

이어 필요할 경우 저역 필터링을 통한 스쿠싱(Smoothing)과정이 행해질 수 있는데, 이는 영상에 더해져 있는 잡음을 제거해 압축률을 가능한한 높이고 다음에 이어질 서브샘플링 과정에 충분히 도움을 주기 위함이다.

 

컬러 샘플링은 위에서 언급한 바와 같이 색성분 I,Q가 매우 단조로운 영상이므로 한 화소씩 건너띄고 남은 것만을 취하는 과정입니다. 두 화소당 하나, 또는 네 화소당 하나만을 취해 I와 Q의 데이터 양을 1/2또는 1/4로 줄이게 되고 엄밀히 말해 미세한 색 변화를 읽는다고 할 수 있으나 사람의 눈으로는 거의 구별해내지 못합니다.

 

(2) 변형(Transformation)

이 과정은 영상이 갖고 있는 정보의 중복성을 찾아내는 과정으로 영상신호 그 자체에서 처리하는 웨이브폼(Waveform)방법과 새로운 영역에서 처리하는 변환(Transform)방법이 있다. 웨이브폼 방법에서는 DPCM(Differential Pulse Code Modulation)이 대표적인데, 이 방법은 영상의 각 화소값은 크지만 인접한 화소간의 차이는 작으므로 그 차이 만으로 영상을 표시하는 방법 이다. DPCM으로 처리된 데이터를 복원할 때는 단지 이전 값에 그 차이 값을 계속 더해가기만 하면 된다. DPCM은 여러가지 형태로 활용되고 있으며 단순히 앞뒤의 데이터를 빼는 것이 아니라 몇 개의 데이터로 뒤의 데이터를 매번 추정해 가장 비슷한 값으로 빼면 더 작은 차이 값을 구할 수 있어 압축 성능을 높이는 방법도 많이쓰인다.

 

이를 적응(Adaptive) DPCM이라 하며 음성 신호의 압축에서도 널리 쓰이고 있어 잘 알려져 있다.

변환(Transform)방법은 영상 데이터의 중복성을 제거하기 위해 여러 종류의 수학적인 변환법을 사용, 영상을 공간영역(Spatial Domain)으로부터 다른 영역으로 변형해 분석함으로써 압축하고자 하는방법이다.

그중에서 수학적으로 최대한 연관성을 추출해낼 수 있는 변환은 KL(KarhunenLoeve)변환이나, 계산량이 너무 많아 실용하기 어려워, KL 변환의 성능에 근접하면서고속 계산이 가능한 DCT(Discrete Cosine Transform)가 가장 널리 사용되고 있다.

 

이 DCT를 이용하면 영상을 공간영역(Spatial Domain)으로부터 주파수 영역(Frequency Domain)으로 변환할 수 있으며 영상 데이터는 변화가 적으므로 낮은 주파수, 특히 0 주파수 (DC) 성분이 큰 값을 갖게 되고 높은 주파수 성분은 상대적으로 매우 작은 값을 갖게 된다. 즉, 대부분의 정보가 낮은 주파수쪽으로 몰리게 되므로 다음에 설명할 양자화 과정을 적절히 거치면 높은 압축률로 우수한 화질을 얻을 수 있다.

 

정보량이 많아 값이 낮은 주파수 성분만을 충실히 취하고 높은 주파수 성분은 값이 아주 작으므로 거의 무시해 버림으로써 전체 데이터 양을 줄이는 원리인데, 높은 주파수 성분은 영상의 세밀한 해상도에 기여하기 때문에 이런 방법을 사용해 심하게 압축하면 해상도 저하라는 불이익을 감수해야 한다. DCT는 위의 수식에서 나타난 것처럼 많은 곱하기와 더하기가 사용되므로 계산량이 상당히 많으나, 고속 알고리즘으로 인해 영상을 8*8 블럭으로 나눠 계산함으로써 계산 효율을 높일 수 있다. VLSI(초고밀도 직접회로) 기술의 발달로 현재 하나의 칩으로도 구현되기 때문에 실시간 처리가 가능하다. 이 DCT를이용한 영상압축 방법은 성능과 실제 구현성이 좋아 정지 영상 뿐 아니라 다음에 얘기할 동영상 압축에서도 폭 넓게 사용되고 있으며, 논의중인 HDTV방식(고해상도TV 방식으로도 채택되고 있다.

 

(3) 양자화 (Quantization)

양자화는 DPCM을 통해 얻어진 값이나 DCT를 통해 얻어진 DCT계수 값 등을 어떤 상수들로 나누어 유효자리의 비트수를 줄이는 과정이다. 예를 들어 0에서 255까지 있을 수 있는 8비트 수를 상수 4로 나누면 6비트만으로도 표시할 수 있다. 그러나 4를 곱해 복원할 때, 당연히 원래 값과의 오차가 최대 3까지 있을 수 있어서 결국 데이터의 손실이 있게된다. 모든 손실압축기법은 이 과정을 갖고 있어 복원이 불가능한 손실이 일어나게 되며, 그 대신 압축률을 높일 수 있다. 또한 나누는 상수 값을 크게 하면 크게 할수록 손실이 커져 화질이 떨어지게 되나 압축률을 더욱 높게 조절할 수 있다.

 

(4) 가변 길이 부호화 (Variable Length Coding)

현재의 컴퓨터 코드는 영문자 A부터 Z까지 똑같이 8비트의 한 바이트 단위로 표시하는데, 어떤 텍스트 파일이 있을때 이 파일의 크기는 곧 충 문자 개수로 정해진다. 하지만 대부분의 텍스트에서 Q나 Z는 A나 E에 비해 나오는 횟수가 훨씬 적다. 따라서 균일하게 8비트의 코드를 할당할 것이 아니라 자주 나오는 A나 E는 2~3비트의 코드를 할당하고, 드물게 나오는 Q나 Z는 10~16비트 길이의 코드를 할당해 서로 구별시켜만 주면 같은 내용을 가지면서 전체 파일의 크기는 줄어 들게 할 수 있다. 이 원리를 이용한 것이 바로 마지막 단계인 "가변길이 부호화" 과정이며 후프만(Huffman) 부호화라고도 한다. 앞 단계에서 어떠한 방식으로 처리했건 간에 마지막에는 통계적으로 자주 나오는 값과 드물게 나오는 값이 있게 마련이므로 항상 이과정을 적용할 수 있게 된다. 심지어 다른 처리를 일체 하지 않더라도 데이터 양의 일부를 줄일 수 있으며, 당연히 완벽하게 복원해낼 수 있는 무손실 기법이 된다.

 

흔히 말하는 압축 유틸리티가 바로 이것으로 디지탈 영상 뿐 아니라 일반적인 모든 컴퓨터 파일에도 적용이 가능하다.

 

이와 같이 데이터의 균일하지 않은 통계적 확률을 이용해 데이터를 압축하는 부호화 방법에는 여러가지가 있지만, 이들을 총칭하여 엔트로피 부호화라고 부르며 위의 후프만 부호화 방법이 구현의 편이성과 속도로 인해 널리 쓰이고 있다. 그리고 한 데이터 값에 하나의 부호어를 부여하는 것이 아니라 데이터의 확률값 그 자체를이용해 데이터의 전체에 부호어를 정함으로써 비트 수를 좀더 줄일 수 있는 산술(arithmetic) 부호화도 영상압축을 위해 많이 쓰인다.

 

5. 디지탈비디오 기술

멀티미디어 기술경쟁은 디지탈 비디오 기술경쟁이라고도 할 수 있다. 디지탈 비디오는 말 그대로 비디오를 디지탈 방식으로 표현하는 것입니다. 이전의 비디오는 TV이건 VTR 이건 모두 아날로그 방식을 사용하여 왔다. 아날로그 방식을 디지탈로 바꾼 것이 그렇게 대단한 것인가 하는 의문을 가질 수도 있을 것이다. 그러나 아날로그에서 디지탈로의 전환은 장족의 컴퓨터 기술발전으로 가능하게 된 것이다.

아날로그 비디오 방식의 단점을 몇 가지 들면 다음과 같다.

 

첫째, 녹화된 결과는 이를 처리하는 단계를 거치는 동안 화질이 나빠질 수밖에 없다. 기본적으로 모든 아날로그 장치는 어떠한 기능을 수행할때 원래의 신호에 잡음이 들어가기 때문 이다. 둘째로, 신호를 디지탈화하므로 컴퓨터를 이용한 처리가 가능하게 되었다는 것이다. 컴퓨터는 아날로그 방식의 신호를 디지탈 방식으로 바꾸지 않고는 처리할 수 없는 특성을 갖고있기 때문에 이전의 아날로그 방식의 비디오 처리는 단순한 제어기능으로만 컴퓨터를 사용하였다고 볼 수 있다.

 

컴퓨터상의 고화질의 영상구현은 80년도 중반부터 고성능의 그래픽카드로 가능해졌다.

VGA그래픽카드를 사용할 경우 320*200개의 화소에 256컬러를 사용할 수 있어 자연색과 비슷한 느낌을 주는 사진을 컴퓨터에서 볼 수 있었다. VGA그래픽에 만족치 않고 한 단계 발전시킨 수퍼 VGA에서는 640*480개의 화소를 사용하고 매 화소당 256컬러를 사용하므로 TV수준 이상의 자연스러운 색을 볼 수있다. 여기서 화소당 256컬러라는 것은 하나의 화소에 사용될 수 있는 컬러를 구별하기 위해 8비트를 이용한다는 것이다.

실제로 자연색을 표현하기 위해 적색, 녹색, 청색을 각각 8비트씩 사용하는 24비트를 필요로 하며 이를 트루컬러(True Color)라 부른다. 이러한 하드웨어를 구현할 경우 메모리 용량이 커지게되므로 가격이 비싸지며 처리시간이 3배 증가되기 때문에 현 단계에서는 8비트 컬러를 사용하는 경우가 대부분이다.

 

현재 많이 사용되는 수퍼 VGA그래픽의 경우 전체화면을 차지하는 메모리 용량은 640*480*24비트(3바이트)=926.6KB로 약 1MB에 육박한다.

디지탈 비디오라 하면 이러한 이미지를 1초에 24번 이상 변화시켜야 하며 TV를 기준으로 하면 1초에 30번 새로운 화면을 보여 주어야만 영화를 감상할 수 있게 된다. 이에 필요한

메모리를 계산하면 초당 28MB, 분당 1680MB가 필요하다. 최근까지 디지탈 비디오라는 기술이 실용화될 수 없는 이유가 여기에 있다. 2~3년 전까지만 해도 PC의 메모리는 대충 1MB, 하드디스크는 수십 MB로 제한돼 디지탈 비디오의 1초 정도가 한계였다. 만약 메모리 한계를 극복할 수 있다 해도 두 번 째로는 전송속도라는 문제가 남는다. 위에서 전개한 논리에 따르면 초당 28MB의 데이터를 하드디스크에서 그래픽 카드로 옮길 수 있어야 디지탈 비디오가 가능한데 일반적인 하드 디스크에서 데이터의 전송은 수백 KB/초로 한정된다.

 

첫번째 문제에 대해서는 80년대 초만 CD-ROM이라는 새로운 매체로 해결의 실마리를 얻었다.

CD-ROM은 600MB로 최소한 21초 정도의 디지탈 비디오를 기록할 수 있으며 C D-ROM 하나의 단가는 1.5달러 정도이므로 기술 발전이 이뤄진다면 디지탈 비디오에 적합한 매체라 할 수 있다. 그러나 CD-ROM 자체도 역시 150KB/초라는 전송속도의 한계가 있었다. 이를 해결하는 유일한 방법은 비디오 데이터의 압축이다. 디지탈 비디오 이전의 정보압축은 가능하면 적은 양의 비트로 많은 정보를 표현하는 방식을 추구하여 왔으며 한번 압축된 정보를 다시 복원할 경우 원상태로 되돌릴 수 있었다.

 

그러나 이러한 압축방식은 최대 3:1정도의 압축률을 얻을 수 있으나 그 이상은 불가능하다. 28MB를 130KB로 압축하기 위해서는 150:1~200:1의 압축을 필요로 한다. 이에 대한 해답은 신호처리 학자들이 제시했다. 사람의 귀가 높은 주파수의 소리를 들을 수 없듯이 눈 역시 높은 주파수의 색변화를 인식하지 못한다. 또한 자연에서는 이러한 높은 주파수를 가진 색깔의 변화가 드물다. 높은 주파수는 색깔의 급격한 변화라고 생각할 수 있다. 따라서 영상을 주파수 차원으로 변환한 후 압축하면 높은 압축률을 얻을 수 있다. 또한 비디오라는 것은 비슷한 화면의 연속이기 때문에 앞의 화면과 변화되는 정보만을 유지하여도 전체 화면을 재생할 수 있어 정지영상보다 높은 압축이 가능하다.

디지탈 비디오를 가능하게 하는 여러 기술과 상품에 관해 기술하기로 하겠다.

 

6. DVI

앞 장에서 설명한 바 있는 이미지 압축방식인 JPEG 활동이 활발해지기 이전부터 디지탈 비디오를 실현하기 위한 노력이 추진됐다. 그 가장 큰 노력은 현재 인텔과 IBM에 의해 추진되고 있는 DVI(Digital Video Interactive)이다. DVI기술은 원래 RCA사의 연구진에 의해 추진되었다.

 

현재 파이어니어사에 의해 독점되고 있는 LD(Laser Disk)와 경쟁되는 CED(Capacitance Electric Disk)기술을 개발하던 연구진은 상품에서 실패하고 회사가 General Electric사에 인수되는 불운을 거치면서도 디지탈 비디오 기술개발을 계속하고 있었다. 한편 CD(Compact Disk)를 개발한 네덜란드의 필립스 사는 CD의 다음작품으로 1985년부터 CDI(Compact Disk Interactive)를 구상하고 있었으며 여기 에는 음악 이외에 이미지, 애니메이션과 소형화면의 디지탈 비디오 기능 등을 담는 것을 구상하고 있었다.

 

당시 150:1이라는 압축은 불가능한 것으로 느껴졌으며 전체 화면을 사용하는 디지탈 비디오는1995년까지는 불가능하다는 내용이 1987년 CD-ROM전시회에서 발표됐다. 그 다음 연사는 DVI기술을 이용, 전체 화면 크기의 영화를 디지탈 방식으로 보여 청중 전체의 기립박수를 받기도 했습니다. 그후 이 기술은 여러 업체의 합작제의를 거쳐 현재 인텔과 IBM이 보유하고 있다. 기본적으로 DVI는 여러가지 복잡한 알고리즘을 섞어 사용하고 있으며 이러한 알고리즘을 수행시킬 수 있는 마이크로 프로그래밍이 가능한 특수 프로세서를 이용하고 있습니다. 이 프로세서는 82750PB, 82750DB라는 두 개의 칩으로 구성되고 액션미디어(ActionMedia II)라는 상품명으로 판매되고 있다.

DVI에는 복잡한 계산과정을 거쳐 보다 고품질의 결과를 얻는 PLV(Production Level Video)와RTV(Real Time Video)의 두 가지 방식이 있습니다.

 

마이크로소프트사의 Video for Windows(VFW)와 공동보조를 취하기 위해 DVI기술은 인디오(Indeo)라는 상품으로 탈바꿈을 시도하고 있다. 종래의 DVI는AVK(Audio Video Kernel)라는독자적 아키택처를 중심으로 디지탈 비디오를 구성했으나 마이크로소프트의 MCI(Media Control Interface)와 동일한 API 를 이용함으로써 프로그램간 호환성을 활용하도록 한것이다. 따라서 인디오기술은 DVI하드웨어를 이용해 비디오 파일을 만들고 이를 재생할 경우, DVI하드웨어가 있을 경우에는 고화질로 재생시키며 DVI하드웨어가 없을 경우에는 CPU의 처리능력만으로 비디오를 재생시킨다.

 

7. MPEG

(1). 기본 알고리즘

MPEG 알고리즘 설계의 어려운 점은 화질면에서는 INTRA 프레임의 부호화 만으로는 얻기 어려운 매우높은 압축을 요하며 정보 검색측면에서는 순수한 intra 프레임 부호화로써 무작위 접근(random access) 요구가 만족되어야 한다는 점이다. 모든 요구를 만족시킬 수 있는 알고리즘은 inter 프레임부호환와 결합된 높은 압축으로 이룰수 있지만 두가지 요구 조건을 해결하기 위해서 MPEG위원회는두가지 기법을 조화시켰다.

 

즉 기본적으로 MPEG 비디오 압축 알고리즘은 시간적 중복성의 제거를 위한 매크로 블록 단위의 이동보상기법과 공간적인 중복성을 제거하기 위한 DCT 알고리즘을 결합한 압축기법을 채택하고 있다. 한편 MPEG 비디오 압축기법의 기본구성은 H.261과 많은 유사점을 가지고 있으나 H.261 과는 이동 보상기법과 양자화기법에 있어 차이점을 가지고 있다.

우선 이동 보상기법의 경우 H.261과의 근본적인 차이점은 이동 보상시 순수한 예측 부호화 뿐만 아니라 새로운 개념인 보간 부호화 기법을 포함시켰다는 점이다. 시간적 중복성을 제거 하기 위한 이동 보상은 H.261과는 같이 16*16의 매크로 블럭을 기본 단위로 하고 공간적인 정보와 함께 전송되어진다. 시간전 중복성를 제거하기위한 DCT 기법은 H.261과 같이 예측 오차에 대한 DCT를 수행한다.

 

그러나 DCT 후에 수행되는 양자화는 H.261과는 달리 인간의 시간적 특성를 고려한 양자화 테이블을 이용하고 있다. 즉,양자화 과정은 JPEG 같은 개념에 근거하고 있다. JPEG과 같은 국제표준 활동이 활발하게 전개되지 않았다면 DVI는 디지탈 비디오 분야에서 완전한 독점 기술로 발전될 가능성이있었다.

 

그러나 JPEG에서 자극받은 영화의 디지탈화 분야의 표준화가 MPEG(Motion Picture Experts Group)이라는 단체에 의해 추진되었으며 여기에서는 이미 그 효용성이 JPEG표준으로 증명된 DCT기술을 기반으로 추가적인 압축을 시도하였다. 영화는 기본적으로 앞의 화면과 유사한 화면을 연속적으로 보여주는 것이며 대부분의 경우 다음 화면은 앞의 화면에 아주 작은 변화만 일어나게 된다.

 

그리고 움직임이 있을 경우에는 앞 화면에 있는 물체가 자체 모양에는 큰 변화 없이 옆으로 이동하는경우가 대부분이다. 이러한 상식을 바탕으로 하여 키프레임은 JPEG방식과 유사한 방식으로 압축하고그 중간의 프레임은 키프레임으로부터 변화된 정보만을 이용하여 압축하는 방식을 고안하였다.

 

MPEG에서 데이터의 입력은 CD-ROM을 전제로 하였기 때문에 150KB/sec의 데이터 전송능력에근거하였다. 이 표준안은 확정단계에 있으며 이를 수용한 전용 재생기능을 갖는 칩으로 C-Cube사의CL450이 있다. JPEG의 경우에는 압축과 복원에 거의 유사한 방식을 사용하므로 압축과 복원에 걸리는시간도 유사하며 동일한 하드웨어로 구현 가능하다. 그러나 MPEG방식은 압축에서 복원까지 불필요한 여러가지 비교와 계산과정을 필요로 하며 하드웨어 구현도 훨씬 더 어렵다. 아직 압축과정을 하나의 칩으로 처리하지 못한 상태이다.

 

MPEG표준안은 1.5Mbps급의 MPEG 1표준이 이미 완성되었으며, 4~10Mbps급 MPEG 2또한 얼마전에 표준 제정을 끝마친 상태이다. 그리고 앞으로 40Mbps급의 MPEG 3표준화를 계획하고 있다. 표준안은 세 부분으로 이뤄지는데 비디오와 오디오, 데이터를 다중화, 동기화하는 방법을 정의한MPEG-시스템, 비디오와 오디오 데이터의 압축 알고리즘을 정의한 MPEG-비디오와 MPEG-오디오등 세 부분으로 구성되어 있다. 디지탈 비디오에 관한 기술적인 내용은 MPEG을 제외하면 개발회사의 노하우로 공개되지 않는다. 디지탈 비디오의 이론적인 배경을 알고싶어 하는 독자들을 위해 MPEG기술을 간략히 소개하도록 하겠다.

 

MPEG 1은 CD-ROM의 데이터 전송속도와 비슷한 1.5Mbps급에서 대화형 멀티미디어를 서비스할 때,VTR정도의 화질을 CD수준의 오디오와 함께 제공하는 것이 목표였다. 따라서 실시간 통신인 H.261과는 달리 임의접근, fast forward, reverse play등의 기능이 지원돼야 한다. 또한 폭넓은 응용을 전제하였기 때문에 H.261,JPEG과의 유사성 내지 호환성도 상당히 고려되어 있다.

 

그러나 화면의 크기나 프레임 속도, 비트율 등이 구체적으로 정해져 있는 것은 아니며 알고리즘 자체도 복호기 위주로 되어 있으므로 부호기 측에서는 여러 변수들이 조정 가능하고 그에 맞추어 복호기가 복원하도록 명시되어 있다. MPEG비디오의 화면의 크기나 프레임속도는 기본적으로 자유로우나 MPEG은 초당 30프레임의 352*245 CIF(Common Image Format)을 권하고 있다. CIF란 디지탈 TV의 CCIR 601포맷, 즉 720*240의 점진적(Profressive)스캔을 의미하며 보통 VTR 정도의 화질을 나타낸다.

 

MPEG비디오 압축 알고리즘은 대화형 기능 때문에 더 복잡하고 추가된 부분이 있으나 기본 골격은운동보상, DCT, 양자화방법 등 많은 점이 H.261과 유사한 운동 보상DCT알고리즘이다. 운동 보상 DCT알고리즘은 압축성능의 우수성과 보편성등으로 최근에는 HDTV의 디지탈 방식으로도 각광을 받고 있다.

 

이제 운동보상 DCT알고리즘의 원리와 MPEG의 특징을 알아보도록 하겠다.

DPCM(Differential Pulse Code Moudulation)은 정지영상 압축에서 설명한 바와 같이 비슷한 데이터로 나열되어 있는 신호를압축할 때 그 앞뒤 데이터의 차이만을 이용하는 방법이다. 영상 압축이란 기능한 한 최대로 정보의 중복성을 찾아내어 제거하는 과정이다. 동영상의 경우 공간뿐 아니라 시간 방향으로도 데이터의 중복성이 상당히 많이 있으므로 더욱 높은 압축률을 얻을 수 있다. 대부분의 동영상들에 있어서 각 프레임의 배경은 비슷하고 움직이는 물체는 적으므로 앞뒤 두 프레임간의 차이는 매우 적습니다.

 

예를 들어 뉴스 시간의 아나운서를 생각해 보면 눈과 입술, 그리고 몸 전체의 작은 움임 정도로 다른 변화는 거의 없다. 갑자기 장면이 바뀌는 경우를 제외하고는 앞뒤 프레임을 서로 빼면, 남는 데이터는거의 0이 된다. 하지만 스포츠경기와 같이 움직임이 많거나 카메라가 천천히 이동하는 경우 단순하게 빼기만 한다면 남는 데이터는 원래보다 줄지 않고 때로는 더 많아질 수도 있으므로 단순 DPCM은 효율적인 방법이 아니다. 그래서 움직임을 찾아 보상한 후 DPCM을 취하는 것이 훨씬 좋은 결과를가져다 준다. 이것이 바로 운동보상 DPCM이다.

 

영상을 조그만 블럭으로 나누어 각 블럭안의 움직임은 같다고 가정한 후, 그 블럭이 이전 프레임의 어느블럭이 움직인 것인지를 찾아낸다. 그 다음 그 블럭의 위치, 즉 운동벡터와 블럭간 차이 값들을부호화함으로써 압축하는 것이다. 복호화할 때는 운동 벡터를 이용해 블럭의 위치를 찾은 후 블럭의 차이 값을 앞프레임에 계속 더해 나가기만 하면 된다. 운동 벡터를 찾아내는 방법은 그 블럭 주위를 움직여 각 화소별로 뺀 후 그 오차의 합이 최소가 되는 위치를 알아내는 것이다. 물론 회전과 같은 다양한 움직임에 대해서는 효과가 적을 수도 있으나 전체적으로 매우 좋은 성능을 보여 데이터가 상당히작은 값만 남게 된다.

 

MPEG은 16*16크기의 블럭 단위로 움직임을 찾도록 하고 있으며 주어진 비트율에서 가능한 한 좋은 화질을 제공하기 위하여 이 움직임을 찾을 때 0.5화소까지를 가질 수 있게 되어 있다. 다만 움직임을 알아내기 위한 이런 방법은 매우 많은 양의 계산을 하여야 하나 근사적인 고속 알고리즘이 나와 있고 최근에는 단칩 VLSI화되어 실시간 활용을 할 수 있게 되었다. 운동보상 DPCM과정을 거친 후 남은 데이터는 상당히 작은 값들만 남게 되었으나 압축률을 더 높이기 위하여 이 데이터에 또 다시 8*8 DCT를 적용한다.

 

(2) MPEG의 특성및 전망

MPEG 위원회의 노력은 산업계에 매우 커다란영향은 줄것으로 기대된다. 실제로 1.5Mbits/sec 의 처리속도로서 비디오 및 오디오신호의 압축을 실현하고 다시 재생하였을때 충분히 사용가능한 품질을 가지는 시스템을 구현한다는 개념은 이미 시험 단계를 통해 증명되어졌다.

 

MPEG 특성 및 성능을 살펴보면 약 1.2Mbits/sec의 처리속도를 갖는 MPEG알고리즘의 경우 현재 널리 사용되도 있는 VHS 비디오레코더가 갖는 화질과 거의 같은 수준의 화질을 가진다고 알려져 있다.그러나 실제적으로 라인당 360 samples의 공간 해상도와 소스코드의 입력 데이터는 논인터레이스(noninteraced) 형태의 30 frames/sec가 사용된다. 또한 기본적인 데이터 처리 속도는 1.5Mbits/sec를 주요 응용분야로 하고 있다. MPEG 표준은 오직 비트 스트림에 대한 구문과 복호화 과정만을 규정하고 있다. 즉, 제조업체들은 다만 주어진 조건을 만족하는 시스템 설계에 있어 많은 자유도를 가질 수 있다. 이는 표준화에 의해 시스템 설계에 제한을 가하지 않음을 의미하며 규정된 성능을 만족하는 한 표준화에 제시된 알고리즘의 구현시 각 제조업체의 창조성 및 독자적인 아이디어를 포함시킬 수 있음을 의미한다.

향후 주요 연구과제는 멀티미디어 정보 시스템의 실현이라고 할 수 있다.

 

또한 여러 형태의 화상정보에 대한 상호 동작성(interoperability)를 고려하여 멀티미디어 처리 시스템은 MPEG뿐만 아니라 JPEG, H.261, Intel사의 DVI, 칼라 이미지 정보교환을 위해 코닥사가 제안한 PhotoYCC등 다양한 압축처리 알고리즘을 지원하게 될 것이며 이를 위해 이들 알고리즘의 VLSI화 연구가 이루어지고 있다. 한편, 다양한 형태의 화상정보의 표현형태가 제시됨에 따라 이들 형태간의 상호변환 기술 및 통일된 형태의 화상 정보 형태에 대한 기술(description)언어에 대한 필요성도대두되고 있다.

 

현재 MPEG 위원회는 두번째 단계로서 마그네틱, 광자기 기록방식에 근거한 저장 매체를 포함하기 위한노력으로서 MPEG-2라는 이름으로 약 10Mbits/sec 정도의 오디오 비디오 코딩 에 대한 표준화를 본격적으로 착수하였다. 이정도의 데이터 전송률이 가능할 경우 디지탈 방송, 통신 및 광섬유 등의 케이블을 통한 디지탈 전송, 다양한 전송망(MAN , B-ISDN) 등에 적용도 가능할 것으로 예상된다.

 

별첨: H.261 에 대하여..

 

CCITT 스터디 그룹 XV는 화상 회의 시스템 및 화상 전화를 목표로 CCITT권고안 H.261 : px64kbits/pic el전송속도의 오디오 화상 서비스를 위한 비디오 코덱을 발표하였다. 현재 모든 화상 압축에 대한 연구는 화상회의 시스템 및 화상 전화의 실현을 위한 연구로부터 시작되었다.

 

H.261 관련 문서로는 주로성능 평가 모델을 기술한 Reference Model 8및 하드웨어 구현을 위한 플렉시블 하드웨어 사양이 제시되어 있다. 화상 압축 알고리즘으로는 이동보상

형 이상여현 변환(Motion Compensated DCT) 방식을 표준으로 채택하고있다. H.261은 주로 저전송률을 목표로하고 있는데 반해 MPEG은 화질개선 및 고속처리가 요구되는 보다 많은 응용 분야를 포함 시키기 위해 시스템의 요구조건를 보다 완화하여 전송률을 약 1 내지 1.5 Mbits/s 전송 속도로 하고 있다.

 

한편, MPEG 과 H.261은 많은 부분이 관련되어 있으며, 상호호환성를 고려하여 MPEG 은 CCITT 권고안H.261의 수퍼세트로 정의되고 있다. 따라서 두 표준안을 지원하는 시스템구현에 어려움이 없다.

 

[ 3차원 그래픽 구현 VRML ]

최근 인터넷상에서 기존에 웹에서 보아왔던 평면적인 데이타 뿐만 아니라 3차원 인터네트 언어인 VRML(Virtual Reality Modeling Language)을 이용하여 입체적인 경험을 맛볼 수 있는 S/W들이 속속 둥장하고 있다. 이 VRML언어는 그래픽 웍스테이션부분에 선두의 위치에 섰던 실리콘그래픽스와 네트스케이프사 등이 함께 VRML 표준을 발표하고 이에 3차원 인터네트관련 50여 개발회사들이 지지를 표시함으로써 인터네트는 본격적으로 3차원의 세계로 진입하게 된 것이다.

 

VRML은 당초 실리콘그라픽스의 오픈인벤터라는 그래픽언어로 개발된 것으로 오픈인벤터의 기본기능에 웹과 호환이 되도록 몇가지 특징을 부여하여 만든 것이다. 이를 계기로 인터넷의 웹상에 구조, 공간, 장소 개념이 도입되게 되었고, VRML 1.0에 이어 VRML 2.0표준은 실리콘 그래픽스와 네트스케이프가 제안한 "생동하는 세계" 표준과 마이크로소프트가 주도한 " 액티브 VRML"표준 사이에 경쟁이 있었으나 결국 이번에도 네트스케이프가 승리를 거두게 됐다. 이 언어는 월드와이드웹이 발생한 직후 발표돼 차세대 인터네트표준으로 각광을 받았으나, 1.0 버전이 안고 있는 여러 가지 한계점 때문에 본격적으로 수용되지 못하고 있었다. 1.0버전이 갖고 있었던 한계는 크게 두가지로 나타낼 수 있는데

 

첫째는 HTML의 문법은 쉽게 배울수 있기 때문에 일반인도 손쉽게 프로그래밍이 가능한 반면, VRML은 전문실력을 갖춘 인력과 고급컴퓨터를 이용하여 긴시간의 그래픽 모델링과 렌더링이 필요한 그래픽 프로그램용 언어이다. 따라서 VRML을 이용해 3차원 그래픽을 만들려면 고성능의 그래픽전문 장비와 그래픽디자이너가 필요하다. 이러한 조건들 때문에 몇몇 그래픽 전문회사를 제외하고는 VRML을 이용한 프로그래밍이 불가능하였다.

 

둘째는 현재의 네트워크 구조로 보아 랜사용자가 아닌 일반전화망을 이용한 개인접속의 경우, 전화망의 특성상 28.8Kbps급이 고작이어서 대용량의 그래픽 데이터전송이 더딜 수밖에 없었다. 여기에선(SUN)사가 들고 나온 자바가 선풍적인 인기를 모아 한동안 차세대 표준언어로까지 부상, VRML이 고사하는 것이 아닌가라는 의구심마저 불러일으 키기도 했다.

 

이러한 상황에서 발표된 VRML 2.0 표준은 몇가지 점에서 획기적인 발전을 보여준다.

 

첫째 가장 큰 진전은 VRML을 HTML의 표준과 접목시켰다는 점이다. HTML의 개방형 표준을 수용해 모든 인터네트 사용자들에게 표준을 개방해 임의의 개발업체(third party)가

VRML용 서비스를 개발하는 길을 완전히 열어 놓았다. 둘째로 기존의 실시간 멀티미디어 전송기술과 자바 등의 새로운 언어체계도 수용할 수 있도록 했다. 기존 네트스케이프 내비게이터에 플러그인기능으로 제공됐던 리얼오디오. vdo라이브. 쇼크웨이브 등이 이번 VRML 2.0버전에 그대로 수용됐고 무엇보다도 자바와 자바스크립트가 VRML과 결합됨으로써 지금까지 HTML과 VRML. 자바 등으로 분산되었던 언어표준이 한 곳으로 통일되는 효과를 얻을 수 있어 또 한 번의 질적 발전이 이루어질 것으로 기대된다.

 

VRML 2.0이 이 같이 기존의 인터네트 기술표준을 모두 수용할 수 있게 됨으로써 VRML은 당당히 HTML의 차세대 표준언어로 자리잡게 될 가능성이 커졌다. 컴퓨터 그래픽분야

에서도 3차원 그래픽은 자동차설계나 주택 시뮬레이션 등 디자인이나 구조를 입체적으로 보아야 하는 전문인들에 한정돼 실용화되었을 뿐 대중적인 영향력은 갖지 못하고 있다. 더구나 온라인상의 3차원 영상을 구현하기 위해서는 대량의 데이터 전송을 요구하기 때문에 28.8kbps급의 속도에서도 256 컬러 이하의 저해상도와 조잡한 영상의 애니메이션정도밖에 볼 수 없어 현실감이 현저히 떨어졌었다. 그러나 최근의 기술발전은 이러한 장벽을 점차 낮추고 있다.

 

전송속도분야에서는 전화선으로 6mbps급의 속도를 낼 수 있는 모뎀이 AT&T에서 개발되었 고속케이블 모뎀과 전용통신망도 점차 힘을 얻어가는 추세다. 여기에 실시간 데이터 전송기술의 핵심인 압축기술도 53대 1의 압축비율까지 얻어 내는 등 급격한 발전을 보이고 있어 VRML이 대중화될 수 있는 토양이 갖춰지고 있는 것. 따라서 VRML이 현재의 애니메이션차원을 뛰어넘어 TV와 같은 고해상도의 사진영상과 인터액티브한 특징을 결합할 경우 온라인 데이터 통신의 획을 그을 수 있는 사건이 될 수 있다. 그야말로 현실과 다를 바 없는 "사이버사회"를 건설할 수 있는 것. 직접 오감으로 느낄 수는 없다

할지라도 무한한 상상력으로 새로운 사회구조를 건 설할 수 있다.

 

이미 월즈채트로 유명한 월드사는 VRML+로 불리는 언어를 이용해 "알파월드"(http://www.worlds.net/alphaworld )라는 가상사회를 구축해 E-MAIL교환과 멀티미디어 전송, 사이버카페 등을 구축할 수 있는 서비스를 실시하고 있다. VRML이 적절히 응용된다면 인터네트를 PC로부터 벗어나게 하는 데에도 큰 역할을 담당할 것으로 기대된다.

차도주변의 교통안내문이나 터미널이나 역 등지에서의 시간표서비스, 전광판을 이용한 뉴스서비스 등 다양한 영상매체를 통해 인터네트를 접할 수 있는 날이 멀지 않은 것이다.

V RML을 이용해 웹 페이지를 작성하면 홈쇼핑 정보의 경우, 3차원의 가상 백화점을 꾸며 실제 백화점에 입장하는 느낌을 갖도록 제 작할 수 있다.

 

만약 전자제품을 사기 위해 전자제품 코너에 들렀다면 제품의 평면은 물론 전면, 측면, 후면 등을 입체적으로 구경할 수 있다. 이 VRML을 이용한 3차원 미 홀로코스트 박물관과 가상도서관 등이 문을 열계획이며, 지구 시뮬레이션 프로젝트, 가상시장, 가상의회 등도 곧 등장할 채비를 갖추고 있 다.

또한 미 월드사(World Inc.)는 3차원 채팅 서비스인 '월드채트'(World Chat)를 개발하여 네티즌들의 많은 관심을 모으고 있다.

3차원 채팅란 비디오 게임을 즐기듯 대화자들이 3차원 형상으로 대화방에서 움직이면서 원하는상대를 선택해 대화를 할 수 있도록 한 것. 한편 국내에서도 3차원 웹 검색도구가 만들어졌다.

 

한국과학기술원 (KAIST) 전산학과 원광연교수팀은 최근 인터넷의 멀티미디어 서비스인 월드 와이드웹(WWW)을 3차원으로 검색할 수 있는 브라우저(멀티미디어정보 검색 도구)를 국내 최초로 개발했다. 지금까지 사용돼 온 2차원 브라우저는 문자 및 그림에 대한 평면적인 검색에 그쳤으나, 이번에 개발된 브라우저는 인터 넷을 통해 제공되는 루브르박물관, 그랜드캐넌 등 3차원 가상 세계를 돌아다니며 입체적인 검색이 가능하다.

 

외국에서 개발된 3차원 브라우저는 3차원 세계를 검색만 하거나 제한된 가상세계를 지원하는데 비해 원교수팀이 개발한 'WWW 3차원 브라우저'는 같은 가상세계에 접속된 검색자들간의 의사소통을 가능하게 하는 점이 특징이다. 넷스케이프에서의 VMRL 넷스케이프사는 최근 가상현실언어(VRML)를 지원하는 [라이브3d (live3d)]소프트웨어를 개발, 내비게이터2.0버전에 장착할 수 있도록 한다고 발표했다. 이로써 넷스케이프는 리얼오디오, 멀티미디어기능, 자바언어 뿐 아니라 3차원기능까지 추가함으로써 앞으로 웹브라우저 시장에 본격적인 3차원시대가 열릴 것으로 보인다. [라이브3D]는 넷스케이프 홈페이지( http://home.netscape.com/ )에서 무료로 다운받을 수 있으며 프로그램을 설치하면 자동적으로 넷 스케이프2.0에 장착(플러그인) 되어 3차원으로 웹사이트 를 검색할 수 있다.

 

http://members.tripod.lycos.co.kr/namju95/MPEG.htm

top

앗..

tigers012 (2002-10-02 23:32 작성)1대1 질문하기

신고신고|이의제기이의제기

MPEG 알고리즘 설계의 어려운 점은 화질면에서는 INTRA 프레임의 부호화만으로는 얻기 어려운 매우 높은 압축을 요하며 정보 검색 측면에서는 순수한 intra 프레임 부호화로써 무작위 접근(random access) 요구가 만족되어야 한다는 점이다. 모든 요구를 만족시킬수 있는 알고리즘은 inter 프레임 부호화와 결합된 높은 압축으로 이룰수 있지만 두가지 요구 조건을 해결하기 위해서 MPEG 위원회는 두가지 기법을 조화시켰다. 즉 기본적으로 MPEG 비디오 압축 알고리즘은 시간적 중복성의 제거를 위한 매크로 블록 단위의 이동 보상 기법과 공간적인 중복성을 제거하기 위한 DCT 알고리즘을 결합한 압축 기법을 채택하고 있다.
한편 MPEG 비디오 압축 기법의 기본 구성은 H.261과 많은 유사점을 가지고 있으나 H.261과는 이동 보상 기법과 양자화 기법에 있어 차이점을 가지고 있다. 우선 이동 보상기법의 경우 H.261과의 근본적인 차이점은 이동 보상시 순수한 예측 부호화뿐만 아니라 새로운 개념인 보간 부호화 기법을 포함시켰다는 점이다. 시간적 중복성을 제거하기 위한 이동 보상은 H.261 과는 같이 16 * 16의 매크로 블럭을 기본 단위로 하고 공간적인 정보와 함께 전송되어진다. 시간전 중복성을 제거하기위한 DCT 기법은 H.261과 같이 예측 오차에 대한 DCT를 수행한다. 그러나 DCT 후에 수행되는 양자화는 H.261과는 달리 인간의 시간적 특성을 고려한 양자화 테이블을 이용하고 있다. 즉 양자화 과정은 JPEG 같은 개념에 근거하고 있다.
제가 모르고 답을 잘못 적어서 보고있는 책의 내용을 그대로 옮겨나왔는데 넘 성의없게 보이네여..지송(__)
반응형
Posted by Real_G