KR20130076674A - 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들 - Google Patents
복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들 Download PDFInfo
- Publication number
- KR20130076674A KR20130076674A KR1020120054864A KR20120054864A KR20130076674A KR 20130076674 A KR20130076674 A KR 20130076674A KR 1020120054864 A KR1020120054864 A KR 1020120054864A KR 20120054864 A KR20120054864 A KR 20120054864A KR 20130076674 A KR20130076674 A KR 20130076674A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- frame
- contents
- frame rate
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
디스플레이 장치가 개시된다. 본 디스플레이 장치는, 복수의 컨텐츠를 수신하는 복수의 수신부, 저장부, 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장부에 저장하고, 저장부에 저장된 각 컨텐츠를 출력 타이밍에 따라 독출하는 복수의 스케일러부, 독출된 각 컨텐츠의 프레임 레이트를 변환하는 복수의 프레임 레이트 변환부 및 복수의 프레임 레이트 변환부에서 출력되는 각 컨텐츠를 조합하여 디스플레이하는 영상 출력부를 포함한다. 이에 따라, 리소스를 최소화시킬 수 있다.
Description
본 발명은 신호 처리 장치와 디스플레이 장치 및 그 방법들에 대한 것으로, 보다 상세하게는, 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들에 대한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히, TV, 휴대폰, PC, 노트북 PC, PDA 등과 같은 각종 디스플레이 장치들은 대부분의 일반 가정에서도 많이 사용되고 있다.
디스플레이 장치들의 사용이 늘면서 좀 더 다양한 기능에 대한 사용자 니즈(needs)도 증대되었다. 이에 따라, 사용자 니즈에 부합하기 위한 각 제조사들의 노력도 커져서, 종래에 없던 새로운 기능을 갖춘 제품들이 속속 등장하고 있다.
이에 따라, 디스플레이 장치에서 처리하는 컨텐츠도 다양하게 제공되고 있다. 특히, 최근에는 고해상도 컨텐츠나 3D 컨텐츠와 같이 데이터 사이즈가 큰 컨텐츠들도 제공되고 있다.
또한, 최근에는 복수의 컨텐츠를 동시에 제공하여 복수의 사용자가 서로 다른 컨텐츠를 시청할 수 있는 디스플레이 장치에 대한 개발 노력이 이루어지고 있다. 이러한 디스플레이 장치의 경우, 하나의 컨텐츠를 처리하여 디스플레이할 때보다 메모리나 버스 등의 리소스가 많이 소요된다. 따라서, 영상 처리가 원활하게 이루어지지 않을 수 있다.
특히, 3D 컨텐츠와 같이 데이터 사이즈가 큰 컨텐츠를 복수 개 조합하여 디스플레이하는 경우에는, 리소스가 훨씬 더 많이 소요되기 때문에 구현이 어렵다.
이에 따라, 복수의 컨텐츠를 처리하여 효과적으로 멀티뷰를 디스플레이할 수 있는 기술에 대한 필요성이 대두되었다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은, 복수의 컨텐츠를 처리할 수 있는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들을 제공함에 있다.
이러한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 디스플레이 장치는, 복수의 컨텐츠를 수신하는 복수의 수신부, 저장부, 상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 상기 저장부에 저장하고, 상기 저장부에 저장된 각 컨텐츠를 출력 타이밍에 따라 독출하는 복수의 스케일러부, 상기 독출된 각 컨텐츠의 프레임 레이트를 변환하는 복수의 프레임 레이트 변환부 및 상기 복수의 프레임 레이트 변환부에서 출력되는 각 컨텐츠를 조합하여 디스플레이하는 영상 출력부를 포함한다.
여기서, 상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠이며, 상기 복수의 스케일러부 각각은, 상기 복수의 3D 컨텐츠를 다운 스케일링하고 프레임 레이트를 축소시켜 상기 저장부에 저장할 수 있다.
또는, 상기 복수의 스케일러부 각각은, 상기 복수의 3D 컨텐츠를 다운 스케일링하여 상기 저장부에 저장하고, 상기 저장부에 저장된 각 3D 컨텐츠가 출력 타이밍에 따라 독출되면, 독출된 3D 컨텐츠의 프레임 레이트를 다운시켜 상기 복수의 프레임 레이트 변환부로 제공할 수 있다.
또는, 상기 복수의 스케일러부 중 적어도 하나는, 상기 3D 컨텐츠가 3:2 풀 다운된 필름 영상 컨텐츠이면, 상기 필름 영상 컨텐츠를 다운 스케일링하고 키 프레임만을 추출하여 상기 저장부에 저장하고, 상기 복수의 프레임 레이트 변환부는 상기 저장부에서 상기 키 프레임이 독출되면, 독출된 키 프레임을 기준으로 프레임을 보간하여 각 3D 컨텐츠의 프레임 레이트를 멀티 컨텐츠 디스플레이 레이트로 변환할 수 있다.
그리고, 상기 영상 출력부는, 상기 복수의 프레임 레이트 변환부에서 제공되는 각 컨텐츠를 기 설정된 배치 순서에 따라 순차적으로 배치되도록 멀티플렉싱하고, 멀티플렉싱된 데이터를 화면 사이즈에 맞추어 업 스케일링하여 디스플레이할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 디스플레이 장치의 멀티 컨텐츠 디스플레이 방법은, 좌안 영상 및 우안 영상을 각각 포함하는 복수의 컨텐츠를 수신하는 단계, 상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계, 저장된 복수의 컨텐츠의 프레임 레이트를 각각 변환하는 단계 및 프레임 레이트가 변환된 각 컨텐츠를 조합하여 디스플레이하는 단계를 포함한다.
여기서, 상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠일 수 있다.
이 경우, 상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계는,
상기 복수의 3D 컨텐츠를 다운 스케일링하는 단계, 상기 다운 스케일링된 3D 컨텐츠 각각의 프레임 레이트를 감소시키는 단계, 상기 프레임 레이트가 감소된 각 3D 컨텐츠를 저장하는 단계를 포함하고, 상기 프레임 레이트를 변환하는 단계는, 상기 각 3D 컨텐츠의 프레임 레이트를 멀티 컨텐츠 디스플레이 레이트로 변환할 수 있다.
또는, 상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계는, 상기 3D 컨텐츠가 3:2 풀 다운된 필름 영상 컨텐츠이면, 상기 필름 영상 컨텐츠를 다운 스케일링하는 단계, 상기 다운 스케일링된 필름 영상 컨텐츠의 키 프레임만을 추출하여 저장하는 단계를 포함하고, 상기 프레임 레이트를 변환하는 단계는, 저장된 키 프레임을 기준으로 프레임을 보간하여 각 3D 컨텐츠의 프레임 레이트를 변환할 수 있다.
또한, 상기 디스플레이하는 단계는, 각 컨텐츠가 기 설정된 배치 순서에 따라 순차적으로 배치되도록 멀티플렉싱하는 단계, 멀티플렉싱된 데이터를 화면 사이즈에 맞추어 업 스케일링하는 단계, 상기 업스케일링된 데이터를 디스플레이하는 단계를 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따르면 신호 처리 장치는, 좌안 영상 및 우안 영상을 각각 포함하는 복수의 3D 컨텐츠를 데이터 사이즈를 축소시키는 복수의 스케일러부, 상기 복수의 스케일러부에서 처리된 복수의 3D 컨텐츠를 저장하는 저장부, 상기 저장부에 저장된 복수의 3D 컨텐츠의 프레임 레이트를 멀티 컨텐츠 디스플레이 레이트로 변환하는 복수의 프레임 레이트 변환부를 포함한다.
여기서, 상기 복수의 스케일러부는, 상기 복수의 3D 컨텐츠를 다운 스케일링하여 상기 저장부에 저장하고, 상기 저장부로부터 상기 다운 스케일링된 3D 컨텐츠가 독출되면, 독출된 3D 컨텐츠를 상기 복수의 프레임 레이트 변환부에서 처리 가능한 포맷으로 변환할 수 있다.
또한, 상기 복수의 프레임 레이트 변환부에서 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여, 멀티 컨텐츠 프레임 데이터를 구성하는 영상 처리부 및 상기 멀티 컨텐츠 프레임 데이터를 디스플레이 장치로 전송하는 인터페이스부를 더 포함할 수 있다.
본 발명의 일 실시 예에 따른 신호 처리 방법은, 좌안 영상 및 우안 영상을 각각 포함하는 복수의 3D 컨텐츠를 다운 스케일링하는 단계, 상기 3D 컨텐츠의 프레임 레이트를 복수의 프레임 레이트 변환부를 이용하여 변환하는 단계, 상기 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여, 멀티 컨텐츠 프레임 데이터를 구성하는 단계 및 상기 3D 멀티 컨텐츠 프레임 데이터를 디스플레이 장치로 전송하는 단계를 포함한다.
그리고, 상기 다운 스케일링된 복수의 3D 컨텐츠를 상기 복수의 프레임 레이트 변환부에서 처리 가능한 포맷으로 변환하는 단계를 더 포함할 수 있다.
한편, 본 발명의 다른 실시 예에 따르면, 멀티 뷰 디스플레이 방법은, 서로 다른 프레임 레이트를 가지는 서로 다른 복수의 컨텐츠를 수신하는 단계, 상기 복수의 컨텐츠의 프레임 레이트를 매칭시키는 단계, 상기 매칭된 프레임 레이트를 가지는 각 컨텐츠를 이용하여 멀티 뷰 프레임을 디스플레이하는 단계를 포함한다.
여기서, 상기 프레임 레이트를 매칭시키는 단계는, 상기 복수의 컨텐츠를 저장하는 단계, 상기 복수의 컨텐츠를 각각 처리하여 복수의 영상 프레임을 생성하는 단계, 상기 복수의 컨텐츠 중 상대적으로 작은 프레임 레이트를 가지는 컨텐츠의 영상 프레임을 보간 처리하는 단계를 포함할 수 있다.
그리고, 상기 보간 처리하는 단계는, 상기 복수의 컨텐츠 각각의 수신 시점을 비교하여, 상기 복수의 컨텐츠 중 하나의 컨텐츠의 한 영상 프레임이 저장 완료된 시점의 타 컨텐츠의 대응 프레임의 저장 비율을 확인하는 단계, 확인된 저장 비율에 따라 상기 대응 프레임 및 상기 대응 프레임의 다음 프레임을 조합하여 보간 프레임을 생성하는 단계를 포함한다.
그리고, 상기 보간 프레임을 생성하는 단계는, 상기 대응 프레임 및 상기 다음 프레임을 비교하여 프레임 내에 표시된 객체의 모션을 추정하고, 상기 추정된 모션에 상기 수신 비율을 적용하여 상기 보간 프레임을 생성할 수 있다.
또한, 상기 프레임 레이트를 매칭시키는 단계는, 상기 복수의 컨텐츠 각각의 키 프레임을 검출하는 단계, 검출된 키 프레임을 통합하는 단계를 포함할 수 있다.
또한, 상기 키 프레임을 통합하는 단계는, 상기 복수의 컨텐츠 각각의 키 프레임 개수가 다르면, 프레임 반복 또는 스킵 동작을 수행하여 키 프레임 개수를 일치시키고, 각 컨텐츠의 서로 대응되는 키 프레임끼리 통합시킬 수 있다.
그리고, 상기 프레임 레이트를 매칭시키는 단계는, 상기 통합된 키 프레임에 대한 보간을 수행하여 모션 저더 제거 처리를 수행하는 단계를 더 포함할 수 있다.
한편, 본 발명의 다른 실시 예에 따르면, 디스플레이 장치는, 복수의 3D 컨텐츠를 수신하는 복수의 수신부, 3D 컨텐츠 처리를 위한 디스플레이 프로세서가 각각 탑재된 복수의 SoC(System on Chip), 상기 복수의 SoC에서 처리된 각 3D 컨텐츠의 영상 프레임을 조합하여 복수의 컨텐츠 뷰를 출력하는 출력부를 포함한다.
여기서, 상기 복수의 SoC 중 하나의 SoC는, 상기 SoC에 탑재된 디스플레이 프로세서에서 처리된 데이터와 타 SoC에서 출력된 데이터를 먹싱하는 먹스를 포함할 수 있다.
또는, 상기 복수의 SoC로부터 출력되는 데이터를 먹싱하는 먹스가 탑재된 SoC 및 상기 먹스에서 먹싱된 데이터의 프레임 레이트를 변환하는 프레임 레이트 변환부를 더 포함할 수도 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 다수의 사용자가 하나의 디스플레이 장치에서 서로 다른 컨텐츠를 각각 시청할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도,
도 2는 복수의 사용자에게 서로 다른 3D 컨텐츠를 제공하는 방법을 설명하기 위한 도면,
도 3 및 도 4는 복수의 3D 컨텐츠의 데이터 사이즈를 축소시켜 처리하는 방법의 다양한 예를 설명하기 위한 도면,
도 5는 하나의 3D 컨텐츠에 대한 프레임 레이트의 변환 과정을 설명하기 위한 도면,
도 6은 복수의 3D 컨텐츠를 조합하여 멀티 컨텐츠 프레임 데이터를 구성하는 방법의 일 예를 나타내는 도면,
도 7 및 8은 본 발명의 일 실시 예에 따른 신호 처리 장치의 구성을 나타내는 블럭도,
도 9는 본 발명의 일 실시 예에 따른 3D 멀티 컨텐츠 디스플레이 방법을 설명하기 위한 흐름도,
도 10은 본 발명의 다른 실시 예에 따른 3D 멀티 컨텐츠 디스플레이 방법을 설명하기 위한 흐름도,
도 11은 본 발명의 다른 실시 예에 따른 복수의 사용자에게 복수의 컨텐츠를 제공하는 시스템을 나타내는 예시도,
도 12는 도 11의 시스템에 사용된 디스플레이 장치의 블록도,
도 13은 도 12의 디스플레이 장치에 사용된 신호 처리부의 블록도,
도 14는 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치를 나타내는 예시도,
도 15는 본 발명의 다른 실시 예에 따른 멀티 뷰 디스플레이 방법의 흐름도,
도 16 및 도 17은 본 발명의 또 다른 실시 예에 따른 컨텐츠 제공 시스템의 구성을 나타내는 모식도,
도 18은 도 16 및 도 17에 도시된 시스템에 사용되는 디스플레이 장치의 구성을 설명하는 블록도,
도 19 내지 도 22는 서로 다른 프레임 레이트를 갖는 각 컨텐츠의 키 프레임을 통합하는 방법을 설명하기 위한 도면들,
도 23은 도 18의 디스플레이 장치의 세부 구성을 설명하기 위한 블록도.
도 24는 도 16 및 도 17에 도시된 시스템에 사용되는 안경 장치의 구성을 설명하기 위한 블록도,
도 25는 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 컨텐츠 제공 방법을 설명하기 위한 흐름도,
도 26은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도,
도 27은 복수의 3D 컨텐츠를 디스플레이하는 3D 멀티 뷰 모드를 나타내는 나타내는 도면,
도 28은 복수의 2D 컨텐츠를 디스플레이하는 2D 멀티 뷰 모드를 나타내는 도면,
도 29는 하나의 SoC의 구성의 일 예를 나타내는 블럭도,
도 30은 디스플레이 장치의 세부 구성의 일 예를 나타내는 블럭도,
도 31은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도, 그리고,
도 32는 본 발명의 또 다른 실시 예에 따른 디스플레이 방법을 설명 하기 위한 흐름도이다.
도 2는 복수의 사용자에게 서로 다른 3D 컨텐츠를 제공하는 방법을 설명하기 위한 도면,
도 3 및 도 4는 복수의 3D 컨텐츠의 데이터 사이즈를 축소시켜 처리하는 방법의 다양한 예를 설명하기 위한 도면,
도 5는 하나의 3D 컨텐츠에 대한 프레임 레이트의 변환 과정을 설명하기 위한 도면,
도 6은 복수의 3D 컨텐츠를 조합하여 멀티 컨텐츠 프레임 데이터를 구성하는 방법의 일 예를 나타내는 도면,
도 7 및 8은 본 발명의 일 실시 예에 따른 신호 처리 장치의 구성을 나타내는 블럭도,
도 9는 본 발명의 일 실시 예에 따른 3D 멀티 컨텐츠 디스플레이 방법을 설명하기 위한 흐름도,
도 10은 본 발명의 다른 실시 예에 따른 3D 멀티 컨텐츠 디스플레이 방법을 설명하기 위한 흐름도,
도 11은 본 발명의 다른 실시 예에 따른 복수의 사용자에게 복수의 컨텐츠를 제공하는 시스템을 나타내는 예시도,
도 12는 도 11의 시스템에 사용된 디스플레이 장치의 블록도,
도 13은 도 12의 디스플레이 장치에 사용된 신호 처리부의 블록도,
도 14는 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치를 나타내는 예시도,
도 15는 본 발명의 다른 실시 예에 따른 멀티 뷰 디스플레이 방법의 흐름도,
도 16 및 도 17은 본 발명의 또 다른 실시 예에 따른 컨텐츠 제공 시스템의 구성을 나타내는 모식도,
도 18은 도 16 및 도 17에 도시된 시스템에 사용되는 디스플레이 장치의 구성을 설명하는 블록도,
도 19 내지 도 22는 서로 다른 프레임 레이트를 갖는 각 컨텐츠의 키 프레임을 통합하는 방법을 설명하기 위한 도면들,
도 23은 도 18의 디스플레이 장치의 세부 구성을 설명하기 위한 블록도.
도 24는 도 16 및 도 17에 도시된 시스템에 사용되는 안경 장치의 구성을 설명하기 위한 블록도,
도 25는 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 컨텐츠 제공 방법을 설명하기 위한 흐름도,
도 26은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도,
도 27은 복수의 3D 컨텐츠를 디스플레이하는 3D 멀티 뷰 모드를 나타내는 나타내는 도면,
도 28은 복수의 2D 컨텐츠를 디스플레이하는 2D 멀티 뷰 모드를 나타내는 도면,
도 29는 하나의 SoC의 구성의 일 예를 나타내는 블럭도,
도 30은 디스플레이 장치의 세부 구성의 일 예를 나타내는 블럭도,
도 31은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도, 그리고,
도 32는 본 발명의 또 다른 실시 예에 따른 디스플레이 방법을 설명 하기 위한 흐름도이다.
이하에서, 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다. 도 1에 따르면, 디스플레이 장치(100)는 수신부 1, 2(110, 120), 스케일러부 1, 2(130, 140), 저장부(150) 프레임 레이트 변환부 1, 2(160, 170), 영상 출력부(180)를 포함한다. 도 1의 디스플레이 장치(100)는 TV, 휴대폰, PDA, 노트북 PC, 모니터, 태블릿 PC, 전자 책, 전자 액자, 키오스크, 개인 의료기기 등과 같이 디스플레이 유닛을 구비한 다양한 장치로 구현될 수 있다.
수신부 1, 2(110, 120)는 각각 서로 다른 소스로부터 컨텐츠를 수신한다. 소스는 방송 네트워크를 이용하여 방송 프로그램 컨텐츠를 전송하는 방송국이 될 수도 있고, 인터넷을 이용하여 컨텐츠 파일을 전송하는 웹 서버가 될 수도 있으며, 디스플레이 장치(100) 내에 마련되거나 디스플레이 장치(100)에 연결된 각종 기록 매체 재생 장치가 될 수도 있다. 기록 매체 재생 장치란 CD, DVD, 하드디스크, 블루레이 디스크, 메모리 카드, USB 메모리 등과 같은 다양한 유형의 기록 매체에 저장된 컨텐츠를 재생하는 장치를 의미한다.
방송국으로부터 컨텐츠를 수신하는 실시 예의 경우에는, 수신부 1, 2(110, 120)는 튜너, 복조기, 등화기, 디코더(미도시) 등과 같은 구성을 포함하는 형태로 구현될 수 있다. 반면, 웹 서버와 같은 소스로부터 컨텐츠를 수신하는 실시 예의 경우에는, 수신부 1, 2(110, 120)는 네트워크 인터페이스 카드(미도시)로 구현될 수 있다. 또는, 상술한 각종 기록 매체 재생 장치로부터 컨텐츠를 수신하는 실시 예의 경우에는, 수신부 1, 2(110, 120)는 기록 매체 재생 장치와 연결된 인터페이스부(미도시)로 구현될 수 있다. 이와 같이, 수신부 1, 2(110, 120)는 실시 예에 따라 다양한 형태로 구현될 수 있다.
또한, 수신부 1, 2(110, 120)는 반드시 동일한 유형의 소스로부터 컨텐츠를 수신할 필요는 없으며, 수신부 1(110)과 수신부 2(120)가 서로 다른 유형의 소스로부터 컨텐츠를 수신할 수도 있다. 예를 들어, 수신부 1(110)은 튜너, 복조기, 등화기, 디코더 등을 포함하는 형태로 구현되고, 수신부 2(120)는 네트워크 인터페이스 카드로 구현될 수도 있다.
스케일러부 1, 2(130, 140)는 수신부 1, 2(110, 120)에서 수신된 각 컨텐츠의 데이터 사이즈를 축소시켜 저장부(150)에 저장한다. 저장부(150)에 저장된 컨텐츠의 출력 타이밍이 도래하면, 스케일러부 1, 2(130, 140)는 해당 컨텐츠를 독출하여 프레임 레이트 변환부 1, 2(160, 170)로 제공한다.
데이터 사이즈의 축소 동작은 실시 예에 따라 다양한 방식으로 이루어질 수 있다. 일 예로, 스케일러부 1, 2(130, 140)는 컨텐츠의 크기를 줄이는 다운 스케일링을 수행한 후, 저장부(150)에 저장할 수 있다.
또는, 스케일러부 1, 2(130, 140)는 각 컨텐츠에 대하여 다운 스케일링을 수행한 후, 프레임 레이트를 축소시켜서 저장부(150)에 저장할 수도 있다.
또는, 스케일러부 1, 2(130, 140)는 각 컨텐츠에 대하여 다운 스케일링을 수행하여 저장부(150)에 저장한 후, 저장된 각 컨텐츠가 출력 타이밍에 따라 독출되면, 독출된 컨텐츠의 프레임 레이트를 축소시켜 프레임 레이트 변환부 1, 2(160, 170)로 제공할 수도 있다.
특히, 컨텐츠가 3:2 풀 다운된 필름 영상 컨텐츠이면, 스케일러부 1, 2(130, 140)는 필름 영상 컨텐츠를 다운 스케일링하고 키 프레임만을 추출하여 저장부(150)에 저장할 수 있다.
그 밖에, 스케일러부 1, 2(130, 140)는 컨텐츠의 다운 스케일링을 수행하고, 대응되는 프레임 레이트 변환부 1, 2(160, 170) 각각에 대응되는 데이터 포맷으로 변환할 수도 있다. 구체적으로는, 입력 데이터가 탑-투-바텀(top-to-bottom) 포맷인데 비해 프레임 레이트 변환부 1, 2(160, 170)에서 사이드-바이-사이드(side-by-side) 포맷으로 프레임을 처리하는 경우라면, 스케일러부 1, 2(130, 140)는 각 컨텐츠의 좌안 영상 및 우안 영상을 분리하여 가로 방향으로 나란하게 연결하여 사이드-바이-사이드 포맷으로 변환한다.
데이터 포맷 변환 작업은 다운 스케일링된 컨텐츠를 저장부(150)에 저장하기 전에, 또는, 저장부(150)로부터 컨텐츠가 독출된 이후에 이루어질 수 있다.
이와 같이, 스케일러부 1, 2(130, 140)에서 컨텐츠의 데이터 사이즈를 축소시켜 저장하게 되면, 저장부(150)의 사용 용량을 감소시킬 수 있고, 저장부(150), 스케일러부 1, 2(130, 140), 프레임 레이트 변환부 1, 2(160, 170)등을 연결하는 버스의 사용양도 감소시킬 수 있다. 결과적으로, 리소스 사용을 최소화시킬 수 있다.
프레임 레이트 변환부 1, 2(160, 170)는 스케일러부 1, 2(130, 140)에서 제공되는 각 컨텐츠의 프레임 레이트를 디스플레이 장치(100)의 출력 레이트를 참고하여 멀티 컨텐츠 디스플레이 레이트에 맞게 변환한다. 구체적으로는 디스플레이 장치(100)가 60Hz로 동작하는 경우라면, 프레임 레이트 변환부 1, 2(160, 170)는 각 컨텐츠의 프레임 레이트를 120Hz로 변환한다. 한편, 상술한 바와 같이 필름 영상 컨텐츠에 대하여 키 프레임만이 독출되어 저장부(150)에 저장된 경우에는, 해당 프레임 레이트 변환부(160, 170)는 저장부(150)에서 독출된 키 프레임을 기준으로 프레임을 보간하여 각 컨텐츠의 프레임 레이트를 영상 출력부(180)에 대응되는 프레임 레이트로 변환한다.
영상 출력부(180)는 프레임 레이트 변환부 1, 2(160, 170)에서 출력되는 각 컨텐츠를 조합하여 디스플레이한다. 구체적으로는, 영상 출력부(180)는 프레임 레이트 변환부 1, 2(160, 170)에서 제공되는 각 컨텐츠의 영상 프레임이 적어도 하나씩 교번적으로 배치되도록 멀티플렉싱하고, 멀티플렉싱된 데이터를 화면 사이즈에 맞추어 업 스케일링하여 멀티 컨텐츠 프레임 데이터를 구성한 후, 디스플레이한다. 멀티 컨텐츠 프레임 데이터란 복수의 사용자가 복수의 컨텐츠를 각각 시청할 수 있도록 구성된 프레임 데이터를 의미한다. 멀티 컨텐츠 프레임 데이터를 구성하는 방법은 디스플레이 장치의 구동 방식에 따라 다양하게 구현될 수 있다.
예를 들어, 셔터 글래스 방식의 디스플레이 장치인 경우, 영상 출력부(180)는 제1 컨텐츠의 영상 프레임과 제2 컨텐츠의 영상 프레임이 적어도 하나씩 교번적으로 배치하여 멀티 컨텐츠 프레임 데이터를 구성하고 디스플레이한다. 사용자는 영상 출력부(180)의 디스플레이 타이밍에 연동하는 안경 장치를 착용하여, 자신이 원하는 컨텐츠를 시청하게 된다. 구체적으로는, 안경 장치에는 좌안 셔터 글래스 및 우안 셔터 글래스가 착용된다. 좌안 셔터 글래스 및 우안 셔터 글래스는 3D 컨텐츠를 시청할 때는 교번적으로 온/오프되지만, 복수의 컨텐츠가 디스플레이될 때에는 안경 장치와 동기화된 컨텐츠의 출력 타이밍에 따라 일괄적으로 온/오프된다. 이에 따라, 사용자는 타 사용자와 별개로 컨텐츠를 시청할 수 있게 된다.
다른 예로 무 안경 방식의 디스플레이 장치인 경우, 영상 출력부(180)는 제1 및 제2 컨텐츠를 각각 복수 개의 라인으로 구분하고 구분된 라인들을 교번적으로 조합하여 적어도 하나 이상의 멀티 컨텐츠 프레임 데이터를 구성한다. 영상 출력부(180)는 패러랙스 배리어(Parallax Barrier) 또는 렌티큘러(Lenticular) 렌즈가 마련된 디스플레이 패널(미도시)을 이용하여 멀티 컨텐츠 프레임 데이터를 디스플레이하여, 각 사용자마다 서로 다른 컨텐츠의 프레임이 인식되도록 한다.
도 1에서는 두 개의 컨텐츠를 수신하여 처리하는 구성에 대하여 도시하였으나, 3개 이상의 컨텐츠를 수신하여 처리하는 실시 예로 구현될 수도 있다. 이 경우, 수신부, 스케일러부, 프레임 레이트 변환부는 각각 3개 이상이 될 수 있다.
이상과 같이 멀티 컨텐츠 프레임 데이터를 구성하여 디스플레이하는 모드는 멀티 뷰 모드(또는, 듀얼 뷰 모드) 등으로 명명할 수 있다. 디스플레이 장치(100)는 2D 컨텐츠 또는 3D 컨텐츠 하나만을 디스플레이하는 일반 모드(또는 싱글 뷰 모드)로 동작하는 경우에는 수신부 1, 2(110, 120) 중 하나만을 활성화시켜 컨텐츠를 처리할 수 있다. 일반 모드에서도 리소스 사용량을 감소시키기 위해서, 상술한 바와 같이 다양한 데이터 사이즈 축소 작업이 수행될 수 있다. 일반 모드로 동작하는 중에 사용자가 멀티 뷰 모드를 선택하게 되면, 디스플레이 장치(100)는 나머지 수신부도 활성화시켜 상술한 방식으로 데이터를 처리한다.
한편, 상술한 컨텐츠는 2D 컨텐츠가 될 수도 있고, 3D 컨텐츠가 될 수도 있다. 3D 컨텐츠란 동일한 객체(object)를 서로 다른 관점에서 표현한 다시점 영상을 이용하여 사용자가 입체감을 느낄 수 있도록 하는 컨텐츠를 의미한다.
복수의 3D 컨텐츠를 이용하여 멀티 컨텐츠 프레임을 구성하기 위해서, 영상 출력부(180)는 프레임 레이트 변환부 1, 2(160, 170)에서 제공되는 각 3D 컨텐츠에 포함된 좌안 영상 및 우안 영상들을 멀티플렉싱하여, 기 설정된 배치 순서에 따라 교번적으로 배치한다. 그리고, 멀티플렉싱된 데이터를 화면 사이즈에 맞추어 업 스케일링하여 멀티 컨텐츠 프레임을 구성한다.
이에 따라, 제1 컨텐츠의 좌안 영상, 우안 영상, 제2 컨텐츠의 좌안 영상, 우안 영상이 기 설정된 배치 순서에 따라 순차적으로 배치되어 디스플레이되며, 사용자는 안경 장치를 통해서 하나의 컨텐츠의 좌안 영상 및 우안 영상을 인식하게 된다.
한편, 도 1에서는 도시를 생략하였으나, 디스플레이 장치(100)는 멀티 뷰 모드 하에서 동작할 때 각 컨텐츠에 포함된 오디오 데이터를 각 사용자 별로 다르게 제공하는 구성을 더 포함한다. 즉, 각 수신부(110, 120)에서 수신된 컨텐츠에서 오디오 데이터를 분리하는 디먹스(미도시), 분리된 오디오 데이터를 각각 디코딩하는 오디오 디코더(미도시), 디코딩된 각 오디오 데이터를 서로 다른 주파수 신호로 변조하는 변조부(미도시), 변조된 각 오디오 데이터를 안경 장치로 전송하는 출력부(미도시) 등을 더 포함할 수 있다. 출력부에서 출력된 각 오디오 데이터는 안경 장치에 구비된 이어폰과 같은 출력 수단을 통해서, 사용자에게 제공된다. 이러한 구성들은 본 발명과 직접적인 관련성이 없으므로 별도의 도시는 생략한다.
도 2는 복수 개의 3D 컨텐츠를 이용하여 멀티 컨텐츠 프레임을 디스플레이하는 셔터 글래스 방식의 디스플레이 장치의 동작을 나타내는 도면이다.
도 2에 따르면, 디스플레이 장치(100)는 신호 전송부(190)를 포함한다. 신호 전송부(190)는 영상 출력부(180)에서 복수의 3D 컨텐츠를 구성하는 각각의 좌안 영상 및 우안 영상을 포함하는 멀티 컨텐츠 프레임(10)을 디스플레이하는 중에, 각 좌안 영상 및 우안 영상의 출력 타이밍에 서로 다른 3D 안경 장치를 동기화시키는 동기화 신호를 전송한다.
동기화 신호는 다양한 형태로 생성되어 전송될 수 있다. 일 예로, 신호 전송부(190)는 상이한 주파수를 가지는 복수의 IR(Infra Red) 동기화 신호 또는 RF(Radio Frequency) 동기화 신호를 생성하여 각 안경 장치로 제공하여 줄 수 있다.
또는, 신호 전송부(190)는 블루투스와 같은 각종 무선 통신 규격에 따라 동기화 신호를 생성하여 안경장치(210, 220)로 전송할 수도 있다. 이를 위해서, 안경 장치는 디스플레이 장치(100)와 페어링(pairing)을 수행한다. 페어링이 완료되면 디스플레이 장치(100)에는 각 안경 장치에 대한 정보, 예를 들어, 장치 ID 등이 등록될 수 있다. 신호 전송부(190)는 각 컨텐츠의 디스플레이 타이밍과 안경 장치 정보를 매칭시켜, 통신 규격에 따른 하나의 동기화 신호를 생성하여 전송할 수 있다.
도 2에서 신호 전송부(190)는 디스플레이 장치(100) 외측에 돌출된 형태로 도시되었으나, 무선 통신 규격에 따라 동기화 신호를 전송하는 실시 예에서는 디스플레이 장치(100) 내부에 내장될 수도 있다.
각 안경 장치(210, 220)는 동기화 신호가 수신되면 자신의 안경 장치 정보에 대응되는 디스플레이 타이밍을 확인하고, 확인된 디스플레이 타이밍에 따라 좌안 셔터 글래스 및 우안 셔터 글래스를 온 또는 오프시킬 수 있다. 그 밖에도, 동기화 신호는 다양한 방식으로 생성될 수도 있다.
각 안경 장치(210, 220)는 동기화 신호에 따라 좌안 글래스 및 우안 글래스를 개별적으로 온/오프 제어한다. 구체적으로, 메인 3D 컨텐츠를 시청하는 제1 안경 장치(210)에서는 메인 3D 컨텐츠의 좌안 영상(ML1)이 디스플레이될 때 좌안 글래스를 턴-온시키고 우안 글래스는 턴-오프시키며, 메인 3D 컨텐츠의 우안 영상(MR1)이 디스플레이될 때 우안 글래스를 턴-온시키고 좌안 글래스는 턴-오프시킨다. 반면, 서브 3D 컨텐츠의 좌안 영상(SL1) 및 우안 영상(SR1)이 디스플레이될 때에는 제1 안경 장치(210)는 좌안 글래스 및 우안 글래스 모두를 턴-오프시킨다. 제2 안경장치(220)는 제1 안경 장치와 반대로 메인 3D 컨텐츠의 좌안 영상(ML1) 및 우안 영상(MR1)이 디스플레이될 때 좌안 글래스 및 우안 글래스 모두를 턴-오프시킨다.
이에 따라, 제1 안경 장치(210)를 착용한 사용자는 메인 3D 컨텐츠를 시청하고, 제2 안경 장치(220)를 착용한 사용자는 서브 3D 컨텐츠를 시청할 수 있다.
도 3은 데이터 사이즈를 축소시켜 저장하는 과정의 일 예를 나타내는 도면이다. 도 3에 따르면, 메인 3D 컨텐츠(21) 및 서브 3D 컨텐츠(22)가 각각 수신되면, 스케일러부 1, 2(130, 140)에 의해 각각 데이터 사이즈가 축소된 후, 저장부(150)에 저장된다. 저장된 각 컨텐츠(31, 32)는 출력 타이밍에 따라 독출되어 프레임 레이트가 변환된 후, 디스플레이된다. 스케일러부 1, 2(130, 140)는 다운 스케일링만을 수행하거나, 또는 다운 스케일링 및 프레임 레이트 다운(down) 작업을 수행한 후에, 해당 컨텐츠를 저장부(150)에 저장할 수 있다. 도 3에서는 메인 3D 컨텐츠(21) 및 서브 3D 컨텐츠(22) 각각은 좌안 영상 및 우안 영상이 탑-투-바텀(top-to-bottom) 포맷으로 수신되어, 그대로 처리되는 상태를 나타낸다.
도 4는 데이터 사이즈를 축소시켜 저장하는 과정의 다른 예를 나타내는 도면이다. 도 4에 따르면, 탑-투-바텀(top-to-bottom) 포맷의 메인 3D 컨텐츠(21) 및 서브 3D 컨텐츠(22)가 각각 수신되면, 스케일러부 1, 2(130, 140)에 의해 각각 데이터 사이즈가 축소되고, 사이드-바이-사이드(side-by-side) 포맷으로 변환된 후, 저장부(150)에 저장된다. 저장된 각 컨텐츠(41, 42)는 출력 타이밍에 따라 독출되어 프레임 레이트 변환부 1, 2(160, 170)로 제공된다. 프레임 레이트 변환부 1, 2(160, 170)는 사이즈가 축소된 컨텐츠 데이터를 대상으로 프레임 레이트 변환 동작을 수행한다. 이에 따라, 프레임 레이트 변환 시에 사용되는 리소스를 최소화시킬 수 있다.
도 5는 하나의 3D 컨텐츠에 대한 프레임 레이트 변환 과정을 설명하기 위한 도면이다. 도 5에 따르면, 메인 컨텐츠는 수직 동기 신호 주기 내에 좌안 영상(ML0, ML1, ML2, ...,) 및 우안 영상(ML0, ML1, ML2, ...,)을 포함한다(b). 스케일러부 1(130)이 메인 컨텐츠를 수신한다면, 스케일러부 1(130)는 다운 스케일링을 수행한 후, 프레임 레이트를 다운시킨다(b). 도 5에 따르면 프레임 레이트는 절반 수준으로 감소된다. 즉, 입력 컨텐츠의 프레임 레이트가 60Hz라면 프레임 레이트는 30Hz로 다운된다.
이러한 상태에서 3D 컨텐츠를 처리하여 출력하여야 하는 타이밍이 도래하면, 프레임 레이트 변환부 1(160)은 타겟 프레임 레이트로 프레임 레이트를 증가시킨다(c). 프레임 레이트 변환부 1(160)는 다운 스케일링된 데이터의 프레임을 이용하여 새로운 프레임 ML0', MR0', ML1', MR1', ML2', MR2', ML3', MR3' 등을 추가하여 프레임 레이트를 증가시킨다. 도 5에 따르면, 프레임 레이트는 120Hz로 증가된다. 즉, 멀티 컨텐츠 디스플레이 레이트는 120Hz가 된다.
도 6은 프레임 레이트 변환부 1, 2(160, 170)에서 각각 처리된 메인 컨텐츠 및 서브 컨텐츠를 이용하여 멀티 컨텐츠 프레임을 구성하는 과정을 나타낸다. 도 6에 따르면, 영상 출력부(180)는 ML0, SL0, MR0, SR0과 같은 배치 패턴으로 메인 컨텐츠 및 서브 컨텐츠를 조합하여 멀티 컨텐츠 프레임을 구성한다. 도 6에서는 각 컨텐츠의 영상 프레임이 하나씩 배치되는 것으로 도시하였으나, ML0, ML0, SL0, SL0, MR0, MR0, SR0, SR0 와 같이 각 영상 프레임이 두 개씩 연속하게 배치될 수도 있다.
한편, 신호 전송부(190)는 각 컨텐츠의 출력 타이밍에 맞추어 각 안경 장치를 동기화시키기 위한 동기화 신호를 생성하여 출력한다. 도 6에서는 신호 전송부(190)가 블루투스 규격에 따라 제1 안경 장치(210)의 좌안 셔터 글래스, 제2 안경 장치(220)의 좌안 셔터 글래스, 제1 안경 장치(210)의 우안 셔터 글래스, 제2 안경 장치(220)의 우안 셔터 글래스를 순차적으로 턴 온시키도록 하는 하나의 동기화 신호를 전송하는 상태를 나타낸다.
한편, 상술한 실시 예들은 디스플레이 장치 이외에 신호 처리 장치에 적용될 수도 있다. 신호 처리 장치란 셋탑 박스나, 기록 매체 재생 장치, 영상 처리 칩 등과 같이 컨텐츠를 입력받아 처리하여 디스플레이 장치로 제공하는 장치를 의미한다.
도 7은 본 발명의 일 실시 예에 따른 신호 처리 장치(300)의 구성을 나타내는 도면이다. 도 7에 따르면, 신호 처리 장치(300)는 복수의 스케일러부(310-1, 310-2), 저장부(320), 복수의 프레임 레이트 변환부(330-1, 330-2)를 포함한다.
스케일러부들(310-1, 310-2)은 복수의 컨텐츠를 입력받아 데이터 사이즈를 축소시킨다. 컨텐츠는 2D, 3D 등과 같이 다양한 컨텐츠가 될 수 있다. 이하에서는 3D 컨텐츠가 수신된 경우를 기준으로 설명한다.
상술한 여러 실시 예들에서 설명한 바와 같이, 스케일러부들(310-1, 310-2)은 다운 스케일링, 프레임 레이트 다운, 데이터 포맷 변환 등과 같이 다양한 처리를 수행하여 데이터 사이즈를 축소시킬 수 있다. 이러한 데이터 사이즈 축소 작업은 저장부(320)에 컨텐츠가 저장되기 이전에 수행될 수도 있고, 저장부(320)로부터 컨텐츠가 독출된 이후에 수행될 수도 있다.
저장부(320)는 복수의 스케일러부에서 처리된 복수의 3D 컨텐츠를 저장한다. 그리고, 프레임 레이트 변환부들(330-1, 330-2)은 각 3D 컨텐츠의 프레임 레이트를 변환한다.
프레임 레이트가 변환된 각 3D 컨텐츠는 신호 처리 장치(300)에 연결된 디스플레이 장치로 제공된다. 디스플레이 장치는 신호 처리 장치(300)로부터 전달된 3D 컨텐츠를 조합하여 멀티 컨텐츠 프레임을 구성한 후 디스플레이할 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 신호 처리 장치(300)의 구성을 나타내는 도면이다. 도 8에 따르면, 신호 처리 장치(300)는 복수의 스케일러부(310-1, 310-2, ..., 310-n), 저장부(320), 복수의 프레임 레이트 변환부(330-1, 330-2, ...., 330-n), 영상 처리부(340), 인터페이스부(350), 및 이들 구성 간의 데이터 송수신 통로 역할을 하는 버스(50)를 포함한다. 도 7에서는 하나의 메인 버스(50)를 도시하였으나, 버스는 복수 개로 마련될 수도 있다.
복수의 스케일러부(310-1, 310-2, ..., 310-n), 저장부(320), 복수의 프레임 레이트 변환부(330-1, 330-2, ...., 330-n)의 동작에 대해서는 상술한 여러 실시 예들에서 설명한 것과 동일하므로 중복 설명은 생략한다.
영상 처리부(340)는 복수의 프레임 레이트 변환부(330-1, 330-2, ...., 330-n)에서 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여, 멀티 컨텐츠 프레임을 구성한다. 구체적으로는 도 6에 도시된 방법과 같이, 멀티 컨텐츠 프레임을 구성할 수 있다.
인터페이스부(350)는 영상 처리부(340)에서 구성된 멀티 컨텐츠 프레임에 대한 데이터를 디스플레이 장치로 전송한다. 인터페이스부(350)는 I2C 인터페이스, 시리얼 인터페이스 및 기타 공지된 다양한 유무선 통신 인터페이스를 통해서 외부 디스플레이 장치와 연결되어, 데이터를 전송할 수 있다.
이상과 같은 도 7 및 도 8과 같은 신호 처리 장치는 디스플레이 장치와 연결되어 멀티 뷰 기능을 지원할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 디스플레이 장치의 멀티 컨텐츠 디스플레이 방법을 설명하기 위한 흐름도이다. 도 9에 따르면 복수의 컨텐츠가 수신되면(S910), 각 컨텐츠의 데이터 사이즈를 축소시키고(S920), 저장한다(S930).
그리고, 각 컨텐츠를 출력하여야 하는 타이밍이 도래하면 저장된 컨텐츠들을 독출하여 프레임 레이트를 변환한 후(S940), 이를 조합하여 멀티 컨텐츠 프레임을 디스플레이한다(S950). 데이터 사이즈 축소 방법에 대해서는 상술한 여러 실시 예들에서 구체적으로 설명하였으므로 중복 설명은 생략한다.
도 10은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 멀티 컨텐츠 디스플레이 방법을 설명하기 위한 흐름도이다. 도 10에 따르면, 복수의 컨텐츠가 수신되면(S1010), 다운 스케일링을 수행한 후(S1020), 저장한다(S1030). 이 후에 해당 컨텐츠를 독출하여야 하는 상황이 발생하면(S1040), 데이터를 독출하여 데이터 포맷 변환 및 프레임 레이트 다운 작업 중 적어도 하나의 데이터 처리 작업을 수행한다(S1050). 그리고 나서, 프레임 레이트를 타겟 프레임 레이트 수준으로 변환한 후(S1060), 이를 조합하여 멀티 컨텐츠 프레임을 디스플레이한다.
도 9 및 도 10에서는 도시를 생략하였으나 멀티 컨텐츠 디스플레이 방법에 있어서 오디오 데이터 처리 단계나 동기화 신호 전송 단계 등도 더 포함될 수 있음은 자명하다. 또한, 도 9 및 도 10에서 처리하는 컨텐츠는 2D 컨텐츠나 3D 컨텐츠가 될 수 있다.
그 밖에, 본 발명의 일 실시 예에 따른 신호 처리 방법은, 좌안 영상 및 우안 영상을 각각 포함하는 복수의 3D 컨텐츠를 다운 스케일링하는 단계, 3D 컨텐츠의 프레임 레이트를 복수의 프레임 레이트 변환부를 이용하여 변환하는 단계, 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여 멀티 컨텐츠 프레임을 구성하는 단계 및, 멀티 컨텐츠 프레임을 디스플레이 장치로 전송하는 단계를 포함할 수 있다.
또한, 다운 스케일링된 복수의 3D 컨텐츠를 복수의 프레임 레이트 변환부에서 처리 가능한 포맷으로 변환하는 단계를 더 포함할 수도 있다.
이러한 신호 처리 방법의 각 단계는 상술한 여러 실시 예에서 설명한 내용과 동일하므로, 도시 및 중복 설명은 생략한다.
이상과 같이 본 발명의 다양한 실시 예에 따르면 신호 처리 및 디스플레이 과정에서 소요되는 리소스를 감소시킬 수 있다. 이에 따라 복수의 컨텐츠, 특히, 복수의 3D 컨텐츠를 하나의 디스플레이 장치에서 복수의 사용자에게 동시에 제공하는 기술을 효과적으로 구현할 수 있게 된다.
상술한 바와 같이 디스플레이 장치는 복수의 컨텐츠를 수신하여 멀티 뷰를 제공할 수 있다. 컨텐츠들은 다양한 소스에서 제공되는 다양한 종류의 것일 수 있다. 따라서, 각 컨텐츠들의 프레임 레이트가 서로 다른 경우가 생길 수 있다. 이 경우, 멀티 뷰 디스플레이 방법은, 서로 다른 프레임 레이트를 가지는 서로 다른 복수의 컨텐츠를 수신하는 단계, 복수의 컨텐츠의 프레임 레이트를 매칭시키는 단계, 매칭된 프레임 레이트를 가지는 각 컨텐츠를 이용하여 멀티 뷰 프레임을 디스플레이하는 단계를 포함할 수 있다. 프레임 레이트를 매칭시키는 것은 다양한 방법으로 이루어질 수 있다. 즉, 프레임을 보간하거나, 반복 또는 스킵하여 매칭시킬 수 있다. 이하에서는 프레임 레이트가 서로 다른 컨텐츠들을 수신하여 멀티 뷰를 구성하는 구성 및 방법에 대한 다양한 실시 예들에 대하여 설명한다.
[프레임 레이트가 서로 다른 경우에 대한 처리]
먼저, 프레임 레이트가 서로 다른 경우에 대한 첫 번째 실시 예로, 상대적으로 작은 프레임 레이트를 가지는 컨텐츠를 보간하는 방법이 있다.
본 실시 예에 따르면, 프레임 레이트가 서로 다른 경우에도 효과적으로 컨텐츠를 처리하여 멀티 뷰를 제공할 수 있다.
도 11은 본 실시 예에 따른 복수의 사용자에게 복수의 컨텐츠를 제공하는 시스템을 나타내는 예시도이다.
도 11에 도시된 바와 같이, 본 시스템은 디스플레이 장치(1100)와 안경 장치(1210, 1220)를 포함한다.
디스플레이 장치(1100)는 복수의 컨텐츠를 교번적으로 디스플레이하고, 각 컨텐츠의 디스플레이 타이밍에 대응되는 동기화 신호를 안경 장치(1210, 1220)로 전송한다. 또한, 디스플레이 장치(1100)는 복수의 컨텐츠에 대응되는 안경 장치(1210, 1220)로 각 컨텐츠의 오디오 신호를 출력한다. 이 같은 디스플레이 장치(1100)는 TV, 휴대폰, PDA, 노트북 PC, 모니터, 태블릿 PC, 전자 책, 전자 액자, 키오스크 등과 같이 디스플레이 유닛을 구비한 다양한 장치로 구현될 수 있다.
안경 장치(1210, 1220)는 디스플레이 장치(1100)로부터 수신된 동기화 신호에 따라 좌안 및 우안 셔터 글래스의 오픈 타이밍을 제어한다. 즉, 안경 장치(1210, 1220)는 수신된 동기화 신호에 포함된 정보에 따라, 컨텐츠가 디스플레이되는 타이밍 동안 좌안 및 우안 셔터 글래스를 오픈하여, 복수의 컨텐츠 중 하나의 컨텐츠에 대한 비디오 영상을 볼 수 있게 할 수 있다.
실시예에 따라, 제1 안경 장치(1210)는 디스플레이 장치(1100)로부터 수신되는 동기화 신호에 따라, 교번적으로 디스플레이되는 컨텐츠 1 내지 4 중 컨텐츠 1이 디스플레이되는 시점에 좌안 및 우안 셔터 글래스를 오픈할 수 있다. 이에 따라, 제1 안경 장치(1210)를 착용한 사용자는 해당 안경 장치(200)를 통해 디스플레이 장치(1100)에서 디스플레이되는 복수의 컨텐츠들 중 컨텐츠 1에 대한 비디오 영상을 볼 수 있다.
한편, 컨텐츠 1 내지 4를 교번적으로 디스플레이하는 디스플레이 장치(1100)는 컨텐츠1 내지 4가 디스플레이되는 타이밍에 대응하여 컨텐츠1 내지 4에 대한 오디오 신호를 출력할 수 있다. 따라서, 전술한 실시예에서, 컨텐츠1이 디스플레이되는 시점에 좌안 및 우안 셔터 글래스를 오픈하는 제1 안경 장치(1210)는 디스플레이 장치(1100)로부터 출력되는 컨텐츠 1에 대한 오디오 신호를 수신하여 출력할 수 있다. 이에 따라, 제1 안경 장치(1210)를 착용한 사용자는 컨텐츠 1에 대한 비디오 영상을 보면서, 동시에 컨텐츠 1에 대한 오디오를 청취할 수 있다.
반면, 제2 안경 장치(1220)는 디스플레이 장치(1100)로부터 수신되는 동기화 신호에 따라, 교번적으로 디스플레이되는 컨텐츠들 중 컨텐츠 3이 디스플레이되는 시점에 좌안 및 우안 셔터 글래스를 오픈할 수 있다. 상술한 바와 같이, 디스플레이 장치(1100)가 컨텐츠1 내지 4에 대한 오디오 신호도 함께 출력하면, 제2 안경 장치(1220)는 디스플레이 장치(1100)로부터 출력되는 컨텐츠 3에 대한 오디오 신호를 수신하여 출력할 수 있다. 이에 따라, 제2 안경 장치(1220)를 착용한 사용자는 컨텐츠 3에 대한 비디오 영상 및 오디오를 함께 제공받아 감상할 수 있다.
지금까지, 복수의 컨텐츠를 제공하는 디스플레이 장치(1100) 및 디스플레이 장치(1100)에서 제공되는 복수의 컨텐츠를 시청하기 위한 안경 장치(1210, 1220)를 포함하는 시스템에 대해서 간략하게 설명하였다.
본 실시 예는, 디스플레이 장치(1100)에서 복수의 컨텐츠에 대한 멀티 뷰 디스플레이를 하기 위해, 복수의 컨텐츠에 대한 각각의 영상 프레임에 대한 동기를 맞추기 위한 것이다. 따라서, 복수의 컨텐츠에 대한 멀티 뷰 모드를 수행하는 디스플레이 장치의 구성 및 안경 장치의 구성은 본 발명과 직접적인 관련성이 없으므로 상세한 설명은 생략하도록 한다.
이하에서는 전술한 디스플레이 장치(1100)의 구성에 대해서 상세히 설명하도록 한다.
도 12는 본 발명의 일 실시 예에 따른 디스플레이 장치의 블록도이다.
도 12에 도시된 바와 같이, 디스플레이 장치는 수신부(1110), 신호 처리부(1120), 저장부(130), 출력부(140) 및 제어부(150)를 포함한다.
수신부(1110)는 복수의 컨텐츠를 수신하기 위한 것으로써, 제1 컨텐츠를 수신하는 제1 수신부(1111)와 제1 컨텐츠보다 작음 프레임 레이트를 가지는 제2 컨텐츠를 수신하는 제2 수신부(1112)를 포함한다. 전술한 바와 같이, 제1 및 제2 수신부(1111,1112)는 서로 다른 프레임 레이트를 가지는 컨텐츠를 수신할 수 있다. 실시예에 따라, 제1 수신부(1111)는 튜너, 복조기, 등화기, 디코더 등과 같은 구성을 포함하는 형태로 구현될 수 있으며, 이 같은 구성을 통해 외부 방송 채널로부터 전송되는 제1 컨텐츠를 수신할 수 있다. 이 같은 제1 수신부(1111)에 포함되는 각 구성들은 공지된 기술이기에 본 발명에서는 각 구성들에 대한 동작 설명을 생략하기로 한다.
그리고, 제2 수신부(1112)는 CART, AV, HDMI, COMPONENT, USB 인터페이스 중 적어도 하나의 인터페이스를 통해 웹 서버와 같은 소스 장치 혹은 DVD 장치와 같은 재생 장치를 통해 제2 컨텐츠를 수신할 수 있다. 한편, 제2 수신부(1112)는 제1 수신부(1111)와 같이 또다른 외부 방송 채널로부터 전송되는 제2 컨텐츠를 수신할 수 있다. 이 같은 제2 컨텐츠는 제1 컨텐츠에 비해 작은 프레임 레이트를 가질 수 있다고 언급하였으나, 이에 한정되지 않으며, 제1 컨텐츠의 프레임 레이트 비율이 제2 컨텐츠의 프페임 레이트 비율에 비해 작은 비율을 가질 수 있다.
저장부(130)는 제1 수신부(1111)로부터 수신된 제1 컨텐츠와 제2 수신부(1112)로부터 수신된 제2 컨텐츠에 대한 영상 프레임이 저장된다. 신호 처리부(1120)는 제1 및 제2 수신부(1111,1112)로부터 수신된 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임을 생성하여 저장부(130)에 저장한다. 이 같은 신호 처리부(1120)는 제1 신호 처리부(1121) 및 제2 신호 처리부(1122)를 포함한다.
제1 신호 처리부(1121)는 제1 수신부(1111)로부터 수신된 제1 컨텐츠에 대한 영상 프레임을 생성하여 저장부(1130)에 저장하며, 제2 신호 처리부(1122)는 제2 수신부(1112)로부터 수신된 제2 컨텐츠에 대한 영상 프레임을 생성하여 저장부(1130)에 저장한다. 이 같이, 제1 수신부(1111) 및 제2 수신부(1112)로부터 수신된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 생성하는 제1 신호 처리부(1121) 및 제2 신호 처리부(1122)는 도 13과 같이 구성될 수 있다.
도 13은 본 발명의 일 실시예에 따른 신호 처리부의 블록도이다.
도 13에 도시된 바와 같이, 제1 신호 처리부(1121) 및 제2 신호 처리부(1122)는 제1 수신부(1111)로부터 수신된 제1 컨텐츠 및 제2 수신부(1112)로부터 수신된 제2 컨텐츠에 대한 영상 프레임을 생성한다. 이 같은 제1 신호 처리부(1121) 및 제2 신호 처리부(1122)의 구성은 동일하기에 본 발명에서는 제1 신호 처리부(1121)에 대한 구성에 대해서만 상세히 설명하도록 한다.
도시된 바와 같이, 제1 신호 처리부(1121)는 제1 비디오 처리부(1121-1), 제1 오디오 처리부(1122-1) 및 제1 부가 데이터 처리부(1123-1)를 포함한다.
제1 비디오 처리부(1121-1)는 제1 수신부(1111)로부터 제1 컨텐츠가 수신되면, 그 수신된 제1 컨텐츠에 포함된 비디오 데이터를 검출하여 신호처리를 수행한다. 구체적으로, 제1 수신부(1111)로부터 컨텐츠가 수신되면, 제1 비디오 처리부(1121-1)는 수신된 컨텐츠로부터 비디오 데이터를 검출하고, 그 검출된 비디오 데이터에 대한 디코딩을 수행한다. 이후, 제1 비디오 처리부(1121-1)는 후술할 비디오 출력부(1131)의 화면 사이즈에 맞추어 디코딩된 비디오 데이터에 대한 영상 프레임을 업 또는 다운으로 스케일링을 수행한다. 비디오 데이터에 대한 스케일링이 수행되면, 제1 비디오 처리부(1121-1)는 디스플레이 장치의 출력 레이트를 참조하여 스케일링된 각각의 영상 프레임을 멀티 컨텐츠 디스플레이 레이트에 맞게 변환한다. 구체적으로, 디스플레이 장치가 60Hz로 동작하는 경우, 제1 비디오 처리부(1121-1)는 스케일링된 각각의 영상 프레임에 대한 프레임 레이트를 120Hz로 변환할 수 있다.
한편, 제1 오디오 처리부(1122-1)는 수신된 컨텐츠에 포함된 오디오 데이터를 검출하여 신호처리를 수행한다. 구체적으로, 제1 수신부(1111)로부터 컨텐츠가 수신되면, 제1 오디오 처리부(1122-1)는 수신된 컨텐츠를 디먹싱하여 해당 컨텐츠로부터 오디오 데이터를 분리하고, 분리된 오디오 데이터에 대한 디코딩을 수행한다. 이후, 제1 오디오 처리부(1122-1)는 디코딩된 오디오 데이터를 오디오 신호로 변조한다. 이때, 제1 오디오 처리부(1122-1)를 통해 변조된 오디오 신호는 또다른 오디오 처리부로부터 변조되는 오디오 신호와 서로 다른 주파수 채널을 가지는 것이 바람직하다.
한편, 제1 부가 데이터 처리부(1123-1)는 수신된 컨텐츠에 EPG(Electronic Program Guide) 및 자막과 같은 부가 데이터가 포함되는지 여부를 판단하여, 부가 데이터가 포함되어 있을 경우, 수신된 컨텐츠로부터 부가 데이터를 분리한다. 이후, 제1 부가 데이터 처리부(1123-1)는 분리된 부가 데이터를 대응되는 영상 프레임에 부가할 수 있다.
이 같이, 제1 신호 처리부(1121) 및 제2 신호 처리부(1122)에서 신호처리된 제1 컨텐츠 및 제2 컨텐츠에 대한 데이터는 출력부(1140)를 통해 멀티 뷰 및 멀티 사운드로 출력될 수 있다. 본 실시 예는 복수의 컨텐츠에 대한 멀티 뷰 디스플레이를 위한 것이기에, 출력부(1140)에서 복수의 컨텐츠에 대한 영상 프레임을 멀티 뷰 형태로 디스플레이하는 동작에 대해서 상세히 설명하도록 한다.
출력부(1140)는 제1 및 제2 신호 처리부(1121, 1122)에서 처리된 제1 컨텐츠에 제2 컨텐츠에 대한 영상 프레임을 교번적으로 배치하여 멀티 뷰로 디스플레이한다. 전술한 바와 같이, 제1 및 제2 신호 처리부(1121, 1122)는 제1 및 제2 수신부(1111, 1112)에서 수신된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 생성하여 저장부(1130)에 저장한다. 따라서, 출력부(1140)는 저장부(1130)에 저장된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 조합하여, 멀티 뷰 프레임을 디스플레이한다. 여기서, 멀티 뷰 프레임은 복수의 사용자가 복수의 컨텐츠에 대한 비디오 영상을 볼 수 있도록 구성된 프레임 데이터를 의미한다.
실시예에 따라, 셔터 글래스 방식의 디스플레이 장치인 경우, 출력부(1140)는 제1 및 제2 신호 처리부(1121, 1122)로부터 출력된 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임이 적어도 하나씩 교번적으로 배치되도록 멀티플렉싱을 수행한다. 이후, 출력부(1140)는 멀티플렉싱된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 화면 사이즈에 맞추어 업 스케일링한 후, 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임이 조합된 멀티 뷰 프레임을 구성하여 디스플레이한다.
이와 같이, 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임이 조합된 멀티 뷰 프레임이 디스플레이되면, 복수의 사용자 각각은 자신이 착용한 안경 장치를 통해 서로 다른 컨텐츠에 대한 비디오 영상을 볼 수 있다. 구체적으로, 안경 장치는 좌안 셔터 글래스 및 우안 셔터 글래스를 구비한다. 이 같은 안경 장치는 출력부(1140)를 통해 멀티 뷰 프레임이 출력될 경우, 좌안 및 우안 셔터 글래스를 일괄적으로 온/오프시킨다.
이와 같이, 좌안 및 우안 셔터 글래스를 일괄적으로 온/오프시킴에 따라, 안경 장치를 착용한 사용자는 타 사용자와 별개의 컨텐츠의 비디오 영상을 볼 수 있다. 그러나, 본 발명은 이에 한정되지 않으며, 디스플레이 장치가 편광 글래스 방식이거나 또다른 방식으로 제1 컨텐츠 및 제2 컨텐츠에 대한 멀티 뷰 프레임을 디스플레이할 수 있다.
한편, 제어부(1150)는 저장부(1130)에 저장된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임의 프레임 레이트 차이에 따라, 제2 컨텐츠에 대한 영상 프레임을 보간 처리하도록 제2 신호 처리부(1122)를 제어한다. 전술한 바와 같이, 제2 컨텐츠가 제1 컨텐츠보다 작은 프레임 레이트를 가질 경우, 제2 신호 처리부(1122)는 제어부(1150)의 제어 명령에 따라, 저장부(1130)에 저장된 제2 컨텐츠에 대한 영상 프레임을 보간 처리한다. 그러나, 제1 컨텐츠가 제2 컨텐츠보다 작은 프레임 레이트를 가질 경우, 제어부(150)는 저장부(1130)에 저장된 제1 컨텐츠에 대한 영상 프레임을 보간 처리하도록 제1 신호 처리부(1121)를 제어할 수 있다.
이 같은 제어부(1150)는 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 비교하여 제2 컨텐츠의 영상 프레임을 보간 처리하도록 제2 신호 처리부(1122)를 제어한다. 여기서, 출력 싱크는 출력부(1140)에서 출력되는 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 동기화된 신호를 의미한다. 이 같은 출력 싱크의 설정은 제2 컨텐츠보다 큰 프레임 레이트를 가지는 제1 컨텐츠의 프레임 레이트로 설정되거나 혹은 외부로부터 입력되는 정보에 따라 설정될 수 있다.
따라서, 제2 신호 처리부(1122)는 제어부(1150)로부터 제2 컨텐츠의 영상 프레임에 대한 보간 제어 명령이 입력되는 전술한 조건에 따라 설정된 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 알 수 있다. 이 같이, 제2 신호 처리부(1122)에서 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치를 도 14를 통해 설명하도록 한다.
도 14는 본 발명의 일 실시 예에 따른 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치를 나타내는 예시도이다.
도 14에 도시된 바와 같이, 제1 컨텐츠의 영상 프레임은 30Hz의 프레임 레이트로 설정될 수 있으며, 제2 컨텐츠의 영상 프레임은 24Hz의 프레임 레이트로 설정될 수 있다. 그리고, 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 출력 싱크는 60Hz로 설정될 수 있다.
이 같이, 60Hz로 출력 싱크가 설정될 경우, 제1 컨텐츠의 영상 프레임별 상대적인 배치 위치는 0.5 단위로 구분되어 결정될 수 있다. 즉, 60Hz로 출력 싱크가 설정되는 구간 중 제1 구간(1/60)에 대응되는 제1 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치는 영상 프레임(A-0)의 0.5가 되는 지점이 된다. 그리고, 60Hz로 출력 싱크가 설정되는 구간 중 제1 구간(1/60)에 대응되는 제2 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치는 영상 프레임(B-0)의 0.4가 되는 지점이 된다.
한편, 본 발명에 따른 제2 신호 처리부(1122)는 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 라인 수 혹은 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임 정보를 참조하여 출력 싱크로부터 상대적인 배치 위치를 파악할 수 있다. 예를 들어, 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인이 1125 라인이고, 이 중 현재 저장부(1130)에 제2 컨텐츠에 대한 영상 프레임의 112번째 라인이 저장될 수 있다. 이 같이, 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인 중 112번째 라인이 저장부(1130)에 저장되는 시점에 출력 싱크가 발생되면, 제2 신호 처리부(1122)는 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인에서 현재 저장부(1130)에 저장되는 라인을 나누어 그에 따른 결과값을 산출한다. 이 같은 결과값은 출력 싱크가 발생된 시점의 제2 컨텐츠에 대한 상대적인 배치 위치 값이 될 수 있다. 즉, 제2 신호 처리부(1122)는 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인 1125를 현재 저장부(1130)에 저장되는 제2 컨텐츠에 대한 영상 프레임의 입력 라인 112를 나눈다. 따라서, 그에 따른 결과값 3.1으로부터 출력 싱크가 발생된 시점에 대한 제2 컨텐츠의 영상 프레임의 상대적인 배치 위치를 알 수 있다.
한편, 제1 신호 처리부(1121) 또한 제2 신호 처리부(1122)와 마찬가지로 출력 싱크가 발생되면, 그 발생 된 시점에 제1 컨텐츠에 대한 영상 프레임의 전체 입력 라인으로부터 저장부(1130)에 저장되는 제1 컨텐츠에 대한 영상 프레임의 입력 라인을 나눈다. 따라서, 그에 따른 결과값으로부터 출력 싱크가 발생된 시점에 대한 제1 컨텐츠의 영상 프레임의 상대적인 배치 위치를 알 수 있다.
이와 같이, 기설정된 조건에 따른 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 획득하면, 제어부(1150)는 기획득한 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 비교하여 제2 컨텐츠의 영상 프레임을 보간 처리하도록 제2 신호 처리부(1122)를 제어한다.
이 같은 제어부(1150)의 제어 명령에 따라, 제2 신호 처리부(1122)는 제1 컨텐츠의 상대적인 배치 위치에 대응하는 지점에 해당하는 제2 컨텐츠의 영상 프레임을 앞뒤 영상 프레임을 참조하여 생성하는 보간을 수행한다.
그러나, 본 발명은 이에 한정되지 않으며, 제어부(1150)는 제1 컨텐츠 및 제2 컨텐츠의 수신 시점에 따라 제2 컨텐츠에 대한 영상 프레임이 보간 되도록 제2 신호 처리부(1122)를 제어할 수 있다. 구체적으로, 제어부(1150)는 제1 컨텐츠 및 제2 컨텐츠가 수신되면, 수신된 제1 컨텐츠 및 제2 컨텐츠의 수신 시점을 비교하여, 제1 컨텐츠의 한 영상 프레임이 저장부(1130)에 저장 완료된 시점에 대응하는 제2 컨텐츠의 대응 프레임의 저장 비율을 확인한다. 이후, 제어부(1150)는 확인된 저장 비율에 따라 제2 컨텐츠의 대응 프레임 및 대응 프레임의 다음 프레임을 조합하여 보간 프레임을 생성하도록 제2 신호 처리부(1122)를 제어한다.
이 같은 제어 명령에 따라, 제2 신호 처리부(1122)는 제1 컨텐츠의 영상 프레임 중 하나의 영상 프레임이 저장부(1130)에 저장 완료되는 시점에 해당하는 제2 컨텐츠의 대응 프레임 및 다음 프레임을 비교하여 프레임 내에 표시된 객체의 모션을 추정하고, 추정된 모션에 수신 비율을 적용하여 보간 프레임을 생성할 수 있다.
예를 들어, 도 14에서 설명한 바와 같이, 만약 제1 컨텐츠의 영상 프레임(A-0,1,2,3,4,5) 중 영상 프레임(A-0)이 저장부(1130)에 저장 완료될 경우, 영상 프레임(A-0)이 저장 완료되는 시점에 대응되는 제2 컨텐츠의 대응 프레임인 영상 프레임(B-0)은 약 80% 저장될 수 있다. 따라서, 제2 신호 처리부(1122)는 제2 컨텐츠의 대응 프레임인 영상 프레임(B-0)와 다음 프레임인 영상 프레임(B-1)을 비교하여 프레임 내에 표시된 객체의 모션을 추정하고, 추정된 모션에 제2 컨텐츠의 대응 프레임인 영상 프레임(B-0)이 수신 혹은 저장되는 비율(80%)을 적용하여 보간 프레임을 생성할 수 있다.
지금까지, 본 발명에 따른 디스플레이 장치의 각 구성에 대해서 상세히 설명하였다. 이하에서는 본 발명에 따른 디스플레이 장치에서 복수의 컨텐츠에 대한 멀티 뷰 디스플레이를 수행하는 방법에 대해서 상세히 설명하도록 한다.
도 15는 본 발명의 일 실시예에 따른 디스플레이 장치에서 멀티 뷰 디스플레이 하는 방법의 흐름도이다.
도 15에 도시된 바와 같이, 디스플레이 장치는 제1 컨텐츠 및 제1 컨텐츠보다 작은 프레임 레이트를 가지는 제2 컨텐츠를 수신한다(S1510). 이후, 디스플레이 장치는 수신된 제1 컨텐츠 및 제2 컨텐츠를 저장부에 저장하며, 제1 신호 처리부 및 제2 신호 처리부를 통해 저장부에 저장된 제1 컨텐츠 및 제2 컨텐츠를 처리하여 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 생성한다(S1520, S1530). 이후, 디스플레이 장치는 제2 신호 처리부를 통해 제1 컨텐츠의 프레임 레이트와 제2 컨텐츠의 프레임 레이트의 차이를 비교하고, 그 비교 결과에 따라, 제2 컨텐츠의 영상 프레임을 보간 처리한다(S1540).
이후, 디스플레이 장치는 제1 신호 처리부로부터 생성된 제1 컨텐츠의 영상 프레임과 제2 컨텐츠의 영상 프레임을 보간 처리하여 생성된 제2 컨텐츠의 영상 프레임을 교번적으로 배치되도록 조합하여 디스플레이한다(S1550). 따라서, 본 발명에 따른 디스플레이 장치는 복수의 컨텐츠에 대한 멀티 뷰 디스플레이를 수행할 수 있다.
구체적으로, 디스플레이 장치는 제1 및 제2 수신부를 통해 제1 컨텐츠 및 제2 컨텐츠를 수신한다. 여기서, 제1 컨텐츠 및 제 제2 컨텐츠는 외부 방송 채널로부터 전송되거나 혹은 웹 서버와 같은 소스 장치 혹은 DVD 장치와 같은 재생 장치로부터 제공될 수 있다. 이 같은 제1 컨텐츠와 제2 컨텐츠 중 하나의 컨텐츠는 또다른 컨텐츠에 비해 작은 프레임 레이트를 가질 수 있다. 본 발명에서는 제2 컨텐츠의 프레임 레이트가 제2 컨텐츠의 프레임 레이트에 비해 작은 프레임 레이트를 가진다는 전제하에 설명하도록 한다.
이 같은 제1 컨텐츠 및 제2 컨텐츠가 제1 및 제2 수신부를 통해 수신되면, 디스플레이 장치는 수신되는 제1 컨텐츠 및 제2 컨텐츠를 저장부에 저장한다. 이 같은 제1 컨텐츠 및 제2 컨텐츠가 저장부에 저장되면, 디스플레이 장치는 제1 신호 처리부 및 제2 신호 처리부를 통해 저장부에 저장된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 생성한다. 제1 신호 처리부 및 제2 신호 처리부에서 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 생성하는 동작에 대해서는 도 13을 통해 상세히 설명하였기에 이하에서는 상세한 설명을 생략하도록 한다.
이 같은 제1 신호 처리부 및 제2 신호 처리부를 통해 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임이 생성되면, 디스플레이 장치는 생성된 제1 컨텐츠 및 제2 컨텐츠에 대한 영상 프레임을 저장부에 저장한다. 이후, 디스플레이 장치는 저장부에 저장된 제1 컨텐츠의 영상 프레임에 대한 프레임 레이트와 제2 컨텐츠의 영상 프레임에 대한 프레임 레이트를 비교하여 제2 컨텐츠의 영상 프레임을 보간 처리하여 보간된 제2 컨텐츠의 영상 프레임을 생성한다.
구체적으로, 디스플레이 장치는 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 비교하여 제2 컨텐츠의 영상 프레임을 보간 처리할 수 있다. 여기서, 출력 싱크는 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임이 교번적으로 디스플레이되는 영상 프레임에 대한 동기화된 신호를 의미한다. 이 같은 출력 싱크의 설정은 제2 컨텐츠보다 큰 프레임 레이트를 가지는 제1 컨텐츠의 프레임 레이트로 설정되거나 혹은 외부로부터 입력되는 정보에 따라 설정될 수 있다.
따라서, 디스플레이 장치는 이 같은 조건에 따라 설정된 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 알 수 있다. 도 14에서 설명한 바와 같이, 제1 컨텐츠의 영상 프레임은 30Hz의 프레임 레이트로 설정될 수 있으며, 제2 컨텐츠의 영상 프레임은 24Hz의 프레임 레이트로 설정될 수 있다. 그리고, 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 출력 싱크는 60Hz로 설정될 수 있다.
이 같이, 60Hz로 출력 싱크가 설정될 경우, 제1 컨텐츠의 영상 프레임별 상대적인 배치 위치는 0.5 단위로 구분되어 결정될 수 있다. 즉, 60Hz로 출력 싱크가 설정되는 구간 중 제1 구간(1/60)에 대응되는 제1 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치는 영상 프레임(A-0)의 0.5가 되는 지점이 된다. 그리고, 60Hz로 출력 싱크가 설정되는 구간 중 제1 구간(1/60)에 대응되는 제2 컨텐츠의 영상 프레임에 대한 상대적인 배치 위치는 영상 프레임(B-0)의 0.4가 되는 지점이 된다.
한편, 디스플레이 장치는 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임에 대한 라인 수 혹은 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임 정보를 참조하여 출력 싱크로부터 상대적인 배치 위치를 파악할 수 있다. 예를 들어, 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인이 1125 라인이고, 이 중 현재 저장부에 제2 컨텐츠에 대한 영상 프레임의 112번째 라인이 저장될 수 있다. 이 같이, 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인 중 112번째 라인이 저장부에 저장되는 시점에 출력 싱크가 발생되면, 디스플레이 장치는 제2 컨텐츠에 대한 영상 프레임의 전체 입력 라인에서 현재 저장부에 저장되는 라인을 나누어 그에 따른 결과값 3.1을 산출한다. 이 같은 결과값으로부터 출력 싱크가 발생된 시점에 대한 제2 컨텐츠의 영상 프레임의 상대적인 배치 위치를 알 수 있다.
이 같은 디스플레이 장치는 전술한 바와 같은 방법을 통해 출력 싱크가 발생된 시점에 대한 제1 컨텐츠의 영상 프레임의 상대적인 배치 위치를 알 수 있다. 이와 같이, 기설정된 조건에 따른 출력 싱크를 기준으로 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 획득하면, 디스플레이 장치는 기획득한 제1 컨텐츠 및 제2 컨텐츠의 각 영상 프레임 간의 상대적인 배치 위치를 비교하여 제2 컨텐츠의 영상 프레임을 보간 처리할 수 있다.
이 같은 디스플레이 장치는 제1 컨텐츠의 상대적인 배치 위치에 대응하는 지점에 해당하는 제2 컨텐츠의 영상 프레임을 앞뒤 영상 프레임을 참조하여 생성하는 보간을 수행한다. 그러나, 본 발명은 이에 한정되지 않으며, 디스플레이 장치는 제1 컨텐츠 및 제2 컨텐츠의 수신 시점에 따라 제2 컨텐츠에 대한 영상 프레임을 보간 처리할 수 있다. 구체적으로, 디스플레이 장치는 제1 컨텐츠 및 제2 컨텐츠가 수신되면, 수신된 제1 컨텐츠 및 제2 컨텐츠의 수신 시점을 비교하여, 제1 컨텐츠의 한 영상 프레임이 저장부에 저장 완료된 시점에 대응하는 제2 컨텐츠의 대응 프레임의 저장 비율을 확인한다. 이후, 디스플레이 장치는 확인된 저장 비율에 따라 제2 컨텐츠의 대응 프레임 및 대응 프레임의 다음 프레임을 조합하여 보간 프레임을 생성한다.
이 같은 디스플레이 장치는 제1 컨텐츠의 영상 프레임 중 하나의 영상 프레임이 저장부에 저장 완료되는 시점에 해당하는 제2 컨텐츠의 대응 프레임 및 다음 프레임을 비교하여 프레임 내에 표시된 객체의 모션을 추정하고, 추정된 모션에 수신 비율을 적용하여 보간 프레임을 생성할 수 있다.
예를 들어, 도 14에서 설명한 바와 같이, 만약 제1 컨텐츠의 영상 프레임(A-0,1,2,3,4,5) 중 영상 프레임(A-0)이 저장부(130)에 저장 완료될 경우, 영상 프레임(A-0)이 저장 완료되는 시점에 대응되는 제2 컨텐츠의 대응 프레임인 영상 프레임(B-0)은 약 80% 저장될 수 있다. 따라서, 디스플레이 장치는 제2 컨텐츠의 대응 프레임인 영상 프레임(B-0)와 다음 프레임인 영상 프레임(B-1)을 비교하여 프레임 내에 표시된 객체의 모션을 추정하고, 추정된 모션에 제2 컨텐츠의 대응 프레임인 영상 프레임(B-0)이 수신 혹은 저장되는 비율(80%)을 적용하여 보간 프레임을 생성할 수 있다.
이상과 같이, 프레임 레이트를 보간하여, 복수의 컨텐츠를 이용한 효과적인 멀티뷰 디스플레이를 구현할 수 있다.
한편, 상술한 실시 예와 달리 프레임을 반복 또는 스킵하여 프레임 레이트를 매칭시킬 수도 있다. 즉, 프레임 레이트가 서로 다른 경우에 대한 또 다른 실시 예에 따르면, 프레임을 반복하거나 스킵하여 키 프레임을 통합시키는 방식으로 프레임 레이트를 매칭시킬 수 있다. 이하에서는, 프레임 레이트를 통합시켜 처리하는 실시 예들에 대하여 설명한다.
도 16 및 도 17은 본 실시 예에 따른 컨텐츠 제공 시스템의 구성 및 동작을 설명하기 위한 모식도이다. 도 16 및 도 17에 도시된 바와 같이, 본 컨텐츠 제공 시스템은 디스플레이 장치(2100)와 제1 및 제2 안경 장치(2200-1, 2200-2)를 포함한다.
도 16에 따르면, 디스플레이 장치(2100)는 복수의 2D 컨텐츠(컨텐츠 A, B)를 교번적으로 디스플레이하고, 각 컨텐츠에 대응되는 동기화 신호를 생성하여 제1 및 제2 안경 장치(2200-1, 2200-2)로 전송한다. 도 16에서는 두 개의 안경장치가 도시되었으나 안경 장치의 개수는 다양하게 구현될 수 있다. 즉, 멀티 뷰 모드 중에서 3개의 컨텐츠를 제공하는 트리플 뷰 모드인 경우에는 3개의 안경이 사용될 수 있고, 4개의 컨텐츠를 제공하는 쿼트러플 뷰 모드인 경우에는 4개의 안경이 사용될 수 있다. 도 16에서는 두 개의 컨텐츠(A, B)가 제공되는 듀얼 뷰 모드를 나타낸다.
제1 안경 장치(2200-1)는 동기화 신호에 따라 하나의 컨텐츠(A)가 디스플레이될 때, 좌측 셔터 글래스 및 우측 셔터 글래스 모두를 오픈시키고, 다른 컨텐츠(B)가 디스플레이될 때 좌측 셔터 글래스 및 우측 셔터 글래스 모두를 오프시키도록 동작할 수 있다. 이에 따라, 제1 안경 장치(2200-1)를 착용한 시청자 1(viewer 1)는 교번적으로 디스플레이되는 복수의 컨텐츠(A, B) 중 제1 안경 장치(2200-1)와 동기화된 하나의 컨텐츠(A) 만을 시청할 수 있다. 마찬가지 방식으로 제2 안경 장치(2200-2)를 착용한 시청자 2(viewer 2)는 컨텐츠(B) 만을 시청할 수 있다.
도 17은 본 발명의 일 실시 예에 따라 복수의 3D 컨텐츠를 제공하는 방법을 설명하기 위한 도면이다.
도시된 바와 같이 복수의 3D 컨텐츠(컨텐츠 A, B)가 3D 컨텐츠인 경우, 디스플레이 장치(2100)는 복수의 3D 컨텐츠(컨텐츠 A, B)를 교번적으로 디스플레이하면서, 각 3D 컨텐츠의 좌안 영상 및 우안 영상 또한 교번적으로 디스플레이할 수 있다.
예를 들어, 3D 컨텐츠 A의 좌안 영상 및 우안 영상(AL, AR)을 디스플레이하고, 3D 컨텐츠 B의 좌안 영상 및 우안 영상(BL, BR)을 교번적으로 디스플레이할 수 있다. 이 경우, 제1 안경 장치(2200-1)는 3D 컨텐츠 A의 좌안 영상 및 우안 영상(AL, AR)의 디스플레이 시점에 좌안 및 우안 글래스를 오픈시키고, 제2 안경 장치(2200-2)는 3D 컨텐츠 B의 좌안 영상 및 우안 영상(BL, BR)의 디스플레이 시점에 좌안 및 우안 글래스를 오픈시킬 수 있다.
이에 따라 제1 안경 장치(2200-1)을 착용한 시청자 1(viewer 1)은 3D 컨텐츠 A만을 시청하게 되고, 제2 안경 장치(2200-2)는 착용한 시청자 2(viewer 2)은 3D 컨텐츠 B 만을 시청하게 된다.
다만, 이는 셔터 글래스 방식을 상정한 경우에 대한 설명이며, 편광 방식의 경우에는 복수의 컨텐츠 영상 각각의 편광 방향과 제1 및 제2 안경 장치의 편광 방향이 일치되도록 구현하여 멀티 뷰 모드를 지원할 수 있음은 당업자에게 자명하게 인식될 것이다.
도 18는 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 설명하는 블록도이다. 도 18에 따르면, 디스플레이 장치(2100)는 복수의 수신부(2110-1, 2110-2,..., 2110-n), 복수의 검출부(2120-1, 2120-2,..., 2120-n), 통합부(2130), 신호 처리부(2140), 디스플레이부(2150)를 포함한다.
복수의 수신부(2110-1, 2110-2,..., 2110-n)는 복수의 컨텐츠를 각각 수신한다. 구체적으로, 각 수신부(2110-1, 2110-2,..., 2110-n)는 방송 네트워크를 이용하여 방송 프로그램 컨텐츠를 전송하는 방송국 또는 인터넷을 이용하여 컨텐츠 파일을 전송하는 웹 서버로부터 컨텐츠를 수신한다. 또한, 디스플레이 장치(2100) 내에 마련되거나 디스플레이 장치(2100)에 연결된 각종 기록 매체 재생 장치로부터 컨텐츠를 수신할 수도 있다. 기록 매체 재생 장치란 CD, DVD, 하드디스크, 블루레이 디스크, 메모리 카드, USB 메모리 등과 같은 다양한 유형의 기록 매체에 저장된 컨텐츠를 재생하는 장치를 의미한다.
방송국으로부터 컨텐츠를 수신하는 실시 예의 경우에는, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 튜너(미도시), 복조기(미도시), 등화기(미도시) 등과 같은 구성을 포함하는 형태로 구현될 수 있다. 반면, 웹 서버와 같은 소스로부터 컨텐츠를 수신하는 실시 예의 경우에는, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 네트워크 인터페이스 카드(미도시)로 구현될 수 있다. 또는, 상술한 각종 기록 매체 재생 장치로부터 컨텐츠를 수신하는 실시 예의 경우에는, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 기록 매체 재생 장치와 연결된 인터페이스부(미도시)로 구현될 수 있다. 이와 같이, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 실시 예에 따라 다양한 형태로 구현될 수 있다.
또한, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 반드시 동일한 유형의 소스로부터 컨텐츠를 수신할 필요는 없으며, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 서로 다른 유형의 소스로부터 컨텐츠를 수신할 수도 있다. 예를 들어, 수신부 1(2110-1)은 튜너, 복조기, 등화기 등을 포함하는 형태로 구현되고, 수신부 2(2110-2)는 네트워크 인터페이스 카드로 구현될 수도 있다.
한편, 복수의 수신부(2110-1, 2110-2,..., 2110-n)는 서로 다른 프레임 레이트를 가지는 복수의 컨텐츠를 각각 수신할 수 있다. 구체적으로, 각 수신부(2110-1, 2110-2,..., 2110-n)는 초당 24 프레임 또는 초당 30 프레임으로 생성된 컨텐츠를 수신할 수 있다.
또한, 복수의 수신부(2110-1, 2110-2,..., 2110-n)에서 수신되는 컨텐츠는 2D 컨텐츠 또는 3D 컨텐츠가 될 수 있다. 3D 컨텐츠란 동일한 객체(object)를 서로 다른 관점에서 표현한 다시점 영상을 이용하여 사용자가 입체감을 느낄 수 있도록 하는 컨텐츠를 의미한다.
3D 컨텐츠는 다양한 포맷으로 될 수 있으며, 특히, 일반적인 탑-바톰(top-bottom) 방식, 사이드 바이 사이드(side by side) 방식, 수평 인터리브(horizontal interleave) 방식, 수직 인터리브(vertical interleave) 방식 또는 체커보드(checker board) 방식, 시퀀셜 프레임(sequential frame) 중 하나에 따른 포맷으로 될 수 있다.
복수의 검출부(2120-1, 2120-2,..., 2120-n)는 복수의 컨텐츠 각각의 키 프레임을 검출한다. 복수의 검출부(2120-1, 2120-2,..., 2120-n)는 다양한 방식으로 입력되는 컨텐츠를 구성하는 키 프레임을 검출할 수 있다.
예를 들어, 컨텐츠를 구성하는 영상 프레임이 초당 24 프레임 또는 초당 30 프레임의 프레임 레이트로 입력되면, 각 검출부(2120-1, 2120-2,..., 2120-n)는 각 프레임을 키 프레임으로 검출할 수 있다.
다른 한편, 컨텐츠를 구성하는 영상 프레임이 초당 60 프레임의 프레임 레이트로 입력되면, 각 검출부(2120-1, 2120-2,..., 2120-n)는 입력되는 프레임의 풀 다운 방식을 추출하여 키 프레임을 검출할 수 있다. 예를 들어, 현재 프레임이 3장 반복되고 다음 프레임이 2장 반복되면 각 검출부(2120-1, 2120-2,..., 2120-n)는 입력되는 컨텐츠가 디스플레이 장치(2100)에서 재생하기 위하여 3:2 풀 다운 방식으로 변환된 것으로 판단하고, 3장 반복되는 프레임에서 하나의 프레임 및 2장 반복되는 프레임에서 하나의 프레임을 키 프레임으로 검출한다.
통합부(2130)는 복수의 검출부(2120-1, 2120-2,..., 2120-n)는 검출된 키 프레임을 통합한다. 구체적으로, 통합부(2130)는 복수의 컨텐츠 각각의 키 프레임 개수가 다르면, 프레임 반복(repeat) 또는 프레임 스킵(skip) 동작을 수행하여 키 프레임 개수를 일치시키고, 각 컨텐츠의 서로 대응되는 키 프레임끼리 통합할 수 있다. 이 경우, 통합부(2130)는 복수의 컨텐츠 각각의 키 프레임을 탑 투 바텀(top to bottom), 사이드 바이 사이드(side by side) 포맷, 체커 보드(checker board) 포맷 또는 인터레이스드(interlaced) 포맷으로 통합할 수 있다. 보다 구체적인 설명을 위해 도 19 내지 도 22를 참조한다.
도 19 내지 도 22는 본 발명의 일 실시 예에 따라 서로 프레임 레이트를 갖는 각 컨텐츠의 키 프레임을 통합하는 방법을 설명하기 위한 도면들이다. 특히, 각 도면들에서 컨텐츠 A는 3:2 풀 다운 방식으로, 초당 24 프레임의 프레임 레이트를 가지며, 컨텐츠 B는 2:2 풀 다운 방식으로, 초당 30 프레임의 프레임 레이트를 갖는다.
도 19에 도시된 바와 같이, 컨텐츠 A에서 검출된 키 프레임(A-a, A-b, A-c,...) 및 컨텐츠 B에서 검출된 키 프레임(B-a, B-b, B-c,...)이 입력되면, 통합부(130)는 프레임 레이트가 큰 컨텐츠를 구성하는 일부 키 프레임을 스킵하여 복수의 컨텐츠 각각의 키 프레임의 개수를 동일하게 한다. 여기에서, 키 프레임을 스킵한다는 것을 해당 프레임을 제거한다는 의미로 해석될 수 있다.
예를 들어, 도 20에 도시된 바와 같이, 통합부(130)는 2:2 풀 다운 방식을 갖는 컨텐츠 B에서 세 번째 키 프레임(B-c), 일곱 번째 키 프레임(B-g),.. 등을 스킵하여, 컨텐츠 A의 키 프레임과 개수를 동일하게 할 수 있다.
여기에서, 스킵되는 키 프레임은 각 컨텐츠의 풀 다운 방식에 따라 서로 시간적으로 일치하지 않는 키 프레임일 수 있다. 즉, 도 20에 도시된 바와 같이 3:2 풀 다운 방식을 갖는 컨텐츠 A의 첫 번째 키 프레임(A-a), 네 번째 키 프레임(A-d), 다섯 번째 키 프레임(A-e),... 각각은 2:2 풀 다운 방식을 갖는 컨텐츠 B의 첫 번째 키 프레임(B-a), 다섯 번째 키 프레임(B-e), 여섯 번째 키 프레임(B-f),.... 각각과 시간적으로 일치한다. 따라서, 통합부(2130)는 이들을 제외하고 시간적으로 일치하지 않은 키 프레임 중 적어도 하나의 키 프레임을 스킵하여 복수의 컨텐츠 각각의 키 프레임을 동일하게 할 수 있다.
한편, 통합부(2130)는 각 컨텐츠의 서로 대응되는 키 프레임을 통합하기 위해, 키 프레임을 재정렬할 수 있다. 예를 들어, 도 21에 도시된 바와 같이, 통합부(2130)는 컨텐츠 A의 세 번째 키 프레임(A-c)를 쉬프트하여 컨텐츠 B의 네 번째 키 프레임(B-d)과 시간적으로 일치시키고, 컨텐츠 B의 두 번째 및 일곱 번째 키 프레임(B-b, B-g)을 쉬프트하여 컨텐츠 A의 두 번째 및 여섯 번째 키 프레임(A-b, A-f)과 각각 시간적으로 일치시킬 수 있다. 이와 같이, 통합부(2130)는 스킵되어 개수가 동일해진 키 프레임을 재정렬하여, 각 컨텐츠의 키 프레임을 시간적으로 일치시킬 수 있다.
한편, 상술한 실시 예에서 통합부(2130)는 키 프레임을 스킵하는 동작을 통해 키 프레임의 개수를 일치시켰으나, 키 프레임을 반복하여 키 프레임의 개수를 일치시킬 수도 있다. 즉, 통합부(2130)는 프레임 레이트가 작은 컨텐츠를 구성하는 일부 키 프레임을 반복하여 복수의 컨텐츠 각각의 키 프레임의 개수를 동일하게 한다.
예를 들어, 도 20에서, 통합부(2130)는 컨텐츠 B의 세 번째 프레임(B-c)에 대응되는 컨텐츠 A의 키 프레임, 컨텐츠 B의 일곱 번째 프레임(B-g)에 대응되는 컨텐츠 A의 키 프레임,... 등을 생성하여, 복수의 컨텐츠 각각의 키 프레임의 개수를 동일하게 할 수 있다.
여기에서, 통합부(2130)는 컨텐츠 B의 세 번째 프레임(B-c), 컨텐츠 B의 일곱 번째 프레임(B-g),... 등과 시간적으로 인접한 컨텐츠 A의 키 프레임을 복사하여 생성할 수 있다. 즉, 통합부(2130)는 컨텐츠 B의 세 번째 프레임(B-c)에 대응되는 컨텐츠 A의 키 프레임은 컨텐츠 A의 두 번째 프레임(A-b)를 복사하여 생성하고, 컨텐츠 B의 일곱 번째 프레임(B-g)에 대응되는 컨텐츠 A의 키 프레임은 컨텐츠 A의 여섯 번째 키 프레임(A-f)를 복사하여 생성할 수 있다.
그리고, 통합부(2130)는 시간적으로 일치하도록 정렬된 키 프레임들을 다양한 방식으로 통합한다.
예를 들어, 통합부(2130)는 도 22의 ①, ③과 같이 탑-투-바텀 포맷으로 컨텐츠 A 및 컨텐츠 B의 키 프레임을 통합할 수 있다. 구체적으로, 탑-투-바텀 포맷은 하나의 컨텐츠에 대한 키 프레임을 상부에 위치시키고, 다른 컨텐츠에 대한 키 프레임을 하부에 위치시키는 포맷으로, ③과 같이 각 컨텐츠에 대한 키 프레임을 수직 방향으로 1/2 서브 샘플링한 후 상부 및 하부에 각각 위치시킬 수도 있다.
다른 한편, 통합부(2130)는 도 22의 ②, ④와 같이 사이드 바이 사이드 포맷으로 컨텐츠 A 및 컨텐츠 B의 키 프레임을 통합할 수 있다. 구체적으로, 사이드 바이 사이드 포맷은 하나의 컨텐츠에 대한 키 프레임을 좌측에 위치시키고, 다른 컨텐츠에 대한 키 프레임을 우측에 위치시키는 포맷으로, ④과 같이 각 컨텐츠에 대한 키 프레임을 수평 방향으로 1/2 서브 샘플링한 후 좌측 및 우측에 각각 위치시킬 수도 있다.
또 다른 한편, 통합부(2130)는 도 22의 ⑤와 같이 체커 보드 포맷으로 컨텐츠 A 및 컨텐츠 B의 키 프레임을 통합할 수 있다. 구체적으로, 체커 보드 포맷은 하나의 컨텐츠에 대한 키 프레임 및 다른 컨텐츠에 대한 키 프레임을 각각 수직과 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 각 키 프레임의 화소를 교번적으로 위치시키는 포맷이다.
한편, 상술한 포맷 외에도 하나의 컨텐츠에 대한 키 프레임 및 다른 컨텐츠에 대한 키 프레임을 각각 수직 방향으로 1/2 서브 샘플링하고, 각 키 프레임의 화소를 라인마다 교번적으로 위치시키는 인터레이스드(interlaced) 포맷을 이용하여 각 키 프레임을 통합할 수도 있다. 이와 같이, 통합부(2130)는 다양한 방식에 따라 방식에 따라 복수의 컨텐츠 각각에 대한 키 프레임을 통합할 수 있다.
한편, 통합부(2130)는 3D 컨텐츠에 대한 키 프레임이 수신되는 경우, 포맷 방식에 따라 3D 컨텐츠를 구성하는 좌안 영상 프레임 및 우안 영상 프레임을 각각 생성하고, 복수의 컨텐츠 각각의 키 프레임을 통합하는 동작을 수행할 수 있다.
예를 들어, 3D 영상의 포맷이 탑-바톰(top-bottom) 방식, 사이드 바이 사이드(side by side) 방식, 수평 인터리브(horizontal interleave) 방식, 수직 인터리브(vertical interleave) 방식 또는 체커보드(checker board) 방식, 시퀀셜 프레임(sequential frame)에 따른 포맷일 경우, 통합부(2130)는 각 영상 프레임에서 좌안 영상 부분과 우안 영상 부분을 각각 추출하여 확대 스케일링 또는 보간함으로써, 좌안 영상 프레임과 우안 영상 프레임을 각각 생성하게 된다.
또한, 3D 영상의 포맷이 일반적인 프레임 시퀀스 방식일 경우, 통합부(2130)는 각 프레임에서 좌안 영상 프레임과 우안 영상 프레임을 추출하게 된다.
그리고, 통합부(2130)는 복수의 3D 컨텐츠 각각을 구성하는 좌안 영상 프레임 및 우안 영상 프레임에 대해 스킵 동작을 수행하여 각 3D 컨텐츠의 프레임의 개수를 일치시키고, 이들을 통합하여 통합된 키 프레임을 생성할 수 있다.
신호 처리부(2140)는 통합부(2130)에서 통합된 키 프레임에 대한 처리를 수행한다. 즉, 신호 처리부(2140)는 통합부(2130)에서 통합된 키 프레임에 대한 보간을 수행하여 모션 저더 제거(Motion Judder Cancelation) 처리를 수행한다. 구체적으로, 신호 처리부(2140)는 통합부(2130)에서 통합된 키 프레임의 프레임 레이트를 디스플레이 장치(2100)에서 표시가능한 프레임 레이트로 변환하는 FRC(Frame Rate Control)를 수행한다. 예를 들어, NTSC(National Television System Committee) 방식의 경우, 디스플레이 장치(100)에서 표시 가능한 프레임 레이트는 초당 60 프레임이 될 수 있다.
이 경우, 신호 처리부(2140)는 통합된 키 프레임에서 현재 프레임과 다음 프레임에 포함된 객체의 움직임을 추정하여 보간 프레임을 생성하고, 생성된 보간 프레임을 현재 프레임과 다음 프레임 사이에 삽입하여, 통합된 키 프레임의 프레임 레이트를 디스플레이 장치(2100)에서 표시가능한 프레임 레이트로 변환할 수 있다. 움직임을 추정하여 보간 프레임을 생성하는 방식을 공지된 어떠한 방식을 사용할 수 있다는 점에서, 구체적인 설명은 생략한다.
그리고, 신호 처리부(2140)는 프레임 레이트가 변환된 프레임을 컨텐츠 별로 분리하며, 스케일러(미도시)를 이용하여 각 프레임을 디스플레이부(2150)의 화면 사이즈에 맞추어 업 또는 다운 스케일링을 수행할 수 있다.
디스플레이부(2150)는 신호 처리부(2140)에서 출력되는 데이터를 이용하여 멀티 뷰 프레임을 디스플레이한다. 구체적으로, 디스플레이부(2150)는 신호 처리부(2140)에서 제공되는 각 컨텐츠에 대한 영상 프레임을 적어도 하나씩 교번적으로 배치되도록 멀티플렉싱하여 멀티 뷰 프레임을 디스플레이할 수 있다.
예를 들어, 셔터 글래스 방식의 디스플레이 장치인 경우, 디스플레이부(2150)는 제1 컨텐츠의 영상 프레임, 제2 컨텐츠의 영상 프레임,..., 제n 컨텐츠의 영상 프레임이 적어도 하나씩 교번적으로 배치되도록 구성하여 디스플레이한다.
NTSC 방식에 따라, 디스플레이 장치(2100)에서 표시 가능한 프레임 레이트가 초당 60 프레임인 경우, 신호 처리부 1(2140)에서 3D 컨텐츠를 구성하는 좌안 영상 및 우안 영상 각각의 프레임 레이트를 초당 60 프레임으로 변환된다. 디스플레이부(2150)는 교번적으로 배치된 3D 컨텐츠에 대한 좌안 영상 프레임 및 우안 영상 프레임을 n×60Hz의 구동 주파수로 디스플레이할 수 있다. 사용자는 디스플레이부(2150)에서 컨텐츠가 디스플레이되는 타이밍에 연동하는 안경 장치(미도시)를 착용하여, 자신이 원하는 컨텐츠를 시청할 수 있다.
구체적으로는, 안경 장치에는 좌안 셔터 글래스 및 우안 셔터 글래스가 구비된다. 좌안 셔터 글래스 및 우안 셔터 글래스는 3D 컨텐츠를 시청할 때는 교번적으로 오픈/오프되지만, 상술한 바와 같이, 각 컨텐츠의 영상 프레임이 적어도 하나씩 교번적으로 배치되어 디스플레이될 때는, 안경 장치와 동기화된 컨텐츠의 출력 타이밍에 따라 일괄적으로 오픈/오프된다. 이에 따라, 사용자는 타 사용자와 별개로 컨텐츠를 시청할 수 있게 된다.
이상과 같이 각 컨텐츠의 영상 프레임을 교번적으로 배치하여 디스플레이하는 모드를 멀티 뷰 모드(또는, 듀얼 뷰 모드) 등으로 명명할 수 있다. 디스플레이 장치(2100)는 2D 컨텐츠 또는 3D 컨텐츠 하나만을 디스플레이하는 일반 모드(또는 싱글 뷰 모드)로 동작하는 경우에는 복수의 수신부(2110-1, 2110-2,..., 2110-n) 중 하나만을 활성화시켜 컨텐츠를 처리할 수 있다. 일반 모드로 동작하는 중에 사용자가 멀티 뷰 모드를 선택하게 되면, 디스플레이 장치(2100)는 나머지 수신부도 활성화시켜 상술한 방식으로 데이터를 처리할 수 있다.
한편, 복수의 3D 컨텐츠를 이용하는 경우, 디스플레이부(2150)는 신호 처리부(2140)에서 제공되는 각 3D 컨텐츠에 포함된 좌안 영상 및 우안 영상들을 기설정된 배치 형태로 멀티플렉싱하고, 타 컨텐츠의 영상 프레임과 교번적으로 배치할 수 있다.
구체적으로, 디스플레이 장치(2100)가 60Hz로 동작하는 경우라면, 디스플레이부(2150)는 제1 컨텐츠의 좌안 영상, 우안 영상, 제2 컨텐츠의 좌안 영상, 우안 영상,.. 제n 컨텐츠의 좌안 영상, 우안 영상이 순차적으로 배치하고, 2×n×60Hz의 구동 주파수로 디스플레이할 수 있다. 사용자는 안경 장치를 통해서 하나의 3D 컨텐츠의 좌안 영상 및 우안 영상을 인식하게 된다.
한편, 도 18에서는 도시를 생략하였으나, 디스플레이 장치(2100)는 멀티 뷰 모드 하에서 동작할 때 각 컨텐츠에 포함된 오디오 데이터를 각 사용자 별로 다르게 제공하는 구성을 더 포함한다. 즉, 각 수신부(2110-1, 2110-2,..., 2110-n)에서 수신된 컨텐츠로부터 비디오 데이터 및 오디오 데이터를 분리하기 위한 디멀티플렉서(미도시), 분리된 오디오 데이터를 디코딩하는 오디오 디코더(미도시), 디코딩된 각 오디오 데이터를 서로 다른 주파수 신호로 변조하는 변조부(미도시), 변조된 각 오디오 데이터를 안경 장치로 전송하는 출력부(미도시) 등을 더 포함할 수 있다. 출력부에서 출력된 각 오디오 데이터는 안경 장치에 구비된 이어폰과 같은 출력 수단을 통해서 사용자에게 제공된다. 이러한 구성들은 본 발명과 직접적인 관련성이 없으므로 별도의 도시는 생략한다.
경우에 따라 컨텐츠에 EPG(Electronic Program Guide) 및 자막과 같은 부가 정보가 포함되었다면, 디멀티플렉서는 컨텐츠로부터 부가 데이터를 추가로 분리하여 후술할 제어부(2160)로 전달할 수 있다. 그리고, 디스플레이 장치(2100)는 부가데이터 처리부(미도시)를 통해 표시가능하도록 처리된 자막 등을 대응되는 영상 프레임에 부가할 수도 있다.
한편, 일반 모드(특히, 3D 컨텐츠를 디스플레이)의 경우, 복수의 수신부(2120-1, 2120-2,..., 2120-n) 중 활성화된 수신부 1(2120-1)을 통해 3D 컨텐츠가 수신되면, 신호 처리부 1(2120-1)은 3D 컨텐츠를 구성하는 좌안 영상 및 우안 영상에 대한 신호 처리를 수행한다.
구체적으로, 디스플레이부(2150)는 신호 처리부(2140)에서 처리된 각 3D 컨텐츠의 좌안 영상 프레임 및 우안 영상 프레임을 교번적으로 배치하여 디스플레이한다. 구체적으로, 디스플레이부(2150)는 '좌안 영상 프레임 -> 우안 영상 프레임 -> 좌안 영상 프레임 -> 우안 영상 프레임 -> ...'의 시간 순서로 교번적으로 3D 컨텐츠를 디스플레이한다. NTSC 방식에 따라, 디스플레이 장치(2100)에서 표시 가능한 프레임 레이트가 초당 60 프레임인 경우, 신호 처리부(2140)는 3D 컨텐츠를 구성하는 좌안 영상 및 우안 영상 각각의 프레임 레이트를 초당 60 프레임으로 변환한다. 그리고, 디스플레이부(2150)는 교번적으로 배치된 3D 컨텐츠에 대한 좌안 영상 프레임 및 우안 영상 프레임을 120Hz의 구동 주파수로 디스플레이할 수 있다.
도 23은 디스플레이 장치의 세부 구성을 설명하기 위한 블록도이다. 도 23에 따르면, 디스플레이 장치(2100)는 복수의 수신부(2110-1, 2110-2,..., 2110-n), 복수의 검출부(2120-1, 2120-2,..., 2120-n), 통합부(2130), 신호 처리부(2140), 디스플레이부(2150), 제어부(2160), 동기화 신호 생성부(2170) 및 인터페이스부(2180)를 포함한다. 도 23을 설명함에 있어, 도 18과 동일한 도면 부호를 가지는 구성은 동일한 기능을 수행한다는 점에서 중복 설명은 생략한다.
제어부(2160)는 디스플레이 장치(2100)의 전반적인 동작을 제어한다. 구체적으로, 제어부(2160)는 복수의 수신부(2110-1, 2110-2,..., 2110-n), 복수의 검출부(2120-1, 2120-2,..., 2120-n), 통합부(2130), 신호 처리부(2140) 및, 디스플레이부(2150)를 제어하여, 각 구성이 대응되는 기능을 수행하도록 제어할 수 있다. 이들 구성에 대해서는 도 18과 함께 상술하였다는 점에서 중복 설명은 생략한다.
그리고, 제어부(2160)는 동기화 신호 생성부(2170) 및 인터페이스부(2180)를 제어하여, 디스플레이부(2150)에서 디스플레이되는 컨텐츠의 디스플레이 타이밍에 안경 장치가 동기화되도록 제어할 수 있다.
동기화 신호 생성부(2170)는 각 컨텐츠의 디스플레이 타이밍에 따라, 각 컨텐츠에 대응되는 안경 장치를 동기화시키는 동기화 신호를 생성한다. 구체적으로, 동기화 신호 생성부(2170)는 멀티 뷰 모드에서 복수의 컨텐츠 각각에 대한 영상 프레임의 디스플레이 타이밍에 안경 장치를 동기화시키기 위한 동기화 신호를 생성하며, 일반 모드에서는 3D 컨텐츠의 좌안 영상 프레임 및 우안 영상 프레임의 디스플레이 타이밍에 안경 장치를 동기화시키기 위한 동기화 신호를 생성한다.
인터페이스부(2180)는 동기화 신호를 안경 장치로 전송한다. 인터페이스부(2180)는 다양한 무선 방식에 따라 안경 장치와 통신을 수행하여, 동기화 신호를 안경 장치로 전송한다.
예를 들어, 인터페이스부(2180)는 블루투스 통신 모듈을 구비하여 안경 장치와 통신을 수행하며, 동기화 신호를 블루투스 통신 규격에 따른 전송 페킷으로 생성하여 안경 장치로 전송할 수 있다.
전송 패킷은 컨텐츠의 디스플레이 타이밍에 동기화되어 안경 장치의 셔터 글래스를 오픈/오프시키기 위한 시간 정보를 포함한다. 구체적으로, 시간 정보는 안경 장치의 좌안 셔터 글래스를 오픈시키는 오프셋 시간(left shutter open offset), 좌안 셔터 글래스를 오프시키는 오프셋 시간(left shutter close offset), 우안 셔터 글래스를 오픈시키는 오프셋 시간(right shutter open offset), 우안 셔터 글래스를 오프시키는 오프셋 시간(right shutter close offset)에 대한 정보를 포함한다.
오프셋 시간은 컨텐츠마다 설정된 기준 시점으로부터 셔터 글래스의 오픈 또는 오프시점까지의 딜레이 정보이다. 즉, 안경 장치는 기준 시점으로부터 오프셋 시간이 경과된 때, 좌안 셔터 글래스 및 우안 셔터 글래스를 오픈/오프시킨다.
예를 들어, 기준 시점은 영상 프레임에서 수직 동기 신호(즉, 프레임 싱크)가 발생되는 시점일 수 있으며, 기준 시점에 대한 정보는 전송 패킷에 포함될 수 있다. 또한, 전송 패킷은 디스플레이 장치(2100)에서 사용되는 클럭 신호에 대한 정보를 포함할 수 있다. 따라서, 안경 장치는 전송 패킷을 수신하면 디스플레이 장치(2100)의 클럭 신호에 자신의 클럭 신호를 동기화하고, 클럭 신호를 이용하여 수직 동기 신호가 발생되는 시점으로부터 오프셋 시간이 도달하였는지 여부를 판단하여 셔터 글래스를 오픈/오프시킬 수 있다.
그 밖에도, 전송 패킷은 프레임 싱크의 주기에 대한 정보, 프레임 싱크의 주기가 소수점을 가질 때, 소수점 정보를 표기하기 위한 정보 등을 더 포함할 수 있다.
한편, 인터페이스부(2180)는 안경 장치와 블루투스 어드레스(Bluetooth device Address) 및 핀코드 등을 송수신하여 블루투스 통신 방식에 따른 페어링(pairing)을 수행한다. 페어링이 완료되면, 통신 인터페이스부(2150)는 페이링을 통해 획득한 정보에 기초하여 복수의 컨텐츠 중 하나의 컨텐츠에 대응되는 동기화 신호를 안경 장치로 전송할 수 있다.
또한, 복수의 안경 장치와 페어링이 완료된 경우, 통신 인터페이스부(2150)는 페이링을 통해 획득한 정보에 기초하여 동일하거나 서로 다른 동기화 신호를 서로 다른 안경 장치로 전송할 수 있다. 또한, 통신 인터페이스부(2150)는 일부의 안경 장치로 동일한 동기화 신호를 전송할 수도 있다. 예를 들어, 통신 인터페이스부(2150)는 제1 안경 장치로 컨텐츠 1에 대응되는 동기화 신호, 제2 안경 장치로는 컨텐츠 2에 대응되는 동기화 신호, 안경 장치 3으로 컨텐츠 1에 대응되는 동기화 신호를 전송할 수 있다.
비록, 상술한 실시 예에서는 인터페이스부(2180)와 안경 장치가 블루투스 통신 방식에 따라 통신을 수행하는 것으로 설명하였지만, 이는 일 예에 불과하다. 즉, 블루투스 방식 이외에 적외선 통신, 지그비(Zigbee) 등의 통신 방식을 이용할 수 있고, 기타 근거리에서 통신 채널을 형성하여 신호를 송수신할 수 있는 다양한 무선 통신 방식에 따라 통신을 수행할 수 있음은 물론이다.
또한, 상술한 실시 예에서는 동기화 신호를 생성하는 구성과 동기화 신호를 전송하는 구성이 별개인 것으로 설명하였지만 이는 설명의 편의를 위한 것이다. 즉, 인터페이스부(2180)에서 동기화 신호를 생성하여 안경 장치로 전송할 수 있으며, 이 경우, 동기화 신호 생성부(2170)는 생략될 수 있다.
또한, 상술한 실시 예에서는 디스플레이 장치(2100)가 컨텐츠의 디스플레이 타이밍에 대응되는 동기화 신호를 각각 생성하여, 안경 장치로 전송하는 것으로 설명하였지만 이는 일 예에 불과하다.
즉, 제어부(2160)는 각 컨텐츠의 디스플레이 타이밍에 대응되는 동기화 신호를 블루투스 통신 규격에 따른 하나의 전송 패킷으로 생성하도록 인터페이스부(2180)를 제어할 수도 있다. 즉, 인터페이스부(2180)는 제1 컨텐츠의 디스플레이 타이밍에 동기화되어 안경 장치의 셔터 글래스를 오픈/오프시키기 위한 시간 정보, 제2 컨텐츠의 디스플레이 타이밍에 동기화되어 안경 장치의 셔터 글래스를 오픈/오프시키기 위한 시간 정보,..., 제n 컨텐츠의 디스플레이 타이밍에 동기화되어 안경 장치의 셔터 글래스를 오픈/오프시키기 위한 시간 정보를 모두 포함하는 하나의 전송 패킷을 생성할 수 있다.
이 경우, 인터페이스부(2180)는 각 컨텐츠의 디스플레이 타이밍에 안경 장치에 대한 정보를 매칭시켜 전송 패킷을 생성할 수 있다. 예를 들어, 디스플레이 장치(2100)는 컨텐츠의 영상 프레임이 배열된 순서에 따라 각 컨텐츠마다 서로 다른 안경 장치에 대한 정보를 매칭시킬 수 있다. 즉, 멀티 뷰 모드에서 2개의 컨텐츠가 제공되는 경우, 첫 번째, 세 번째,..., n 번째에 배치된 컨텐츠의 영상 프레임은 제1 안경 장치에 대한 정보를 매칭시키고, 두 번째, 네 번째,...., n+1 번째에 배치된 컨텐츠의 영상 프레임은 제2 안경 장치에 대한 정보를 매칭시킬 수 있다(여기서, n은 홀수). 그리고, 인터페이스부(2180)는 복수의 컨텐츠 각각에 대한 동기화 신호를 포함하도록 생성된 전송 패킷을 안경 장치로 전송할 수 있다. 안경 장치는 복수의 컨텐츠 각각에 대한 동기화 신호 중 자신의 안경 장치 정보를 포함하는 동기화 신호를 이용하여, 셔터 글래스를 오픈/오프 시킬 수 있다.
도 24는 본 발명의 일 실시 예에 따른 안경 장치의 구성을 설명하기 위한 블록도이다. 도 16 및 도 17에서의 제1 및 제2 안경 장치(2200-1, 2200-2)는 동일한 구성을 가지므로, 도 24에서는 임의의 하나의 안경 장치(2200)의 구성을 도시하였다. 도 24에 따르면, 안경 장치(2200)는 인터페이스부(2210), 제어부(2220), 셔터 글래스 구동부(2230), 제1 셔터 글래스부(2240) 및, 제2 셔터 글래스부(2250)를 포함한다.
인터페이스부(2210)는 디스플레이 장치로부터 동기화 신호를 수신한다. 인터페이스부(2210)는 다양한 통신 방식을 이용할 수 있다. 예를 들어, 블루투스, 와이파이, 지그비, IEEE 등과 같은 각종 무선 통신 규격이나 RF 신호 송수신, IR 신호 송수신 방식으로 통신을 수행할 수도 있다. 인터페이스부(2210)는 디스플레이 장치와 통신을 수행하여 동기화 신호를 수신할 수 있다.
동기화 신호는 디스플레이 장치의 컨텐츠 뷰 출력 시점과 안경 장치를 동기화 시키기 위한 신호이다. 상술한 바와 같이, 동기화 신호는 다양한 통신 규격에 따른 전송 패킷 형태로 수신될 수 있다. 전송 패킷에는 컨텐츠의 디스플레이 타이밍을 알려주기 위한 시간 정보가 포함될 수 있다. 전송 패킷에 포함된 정보에 대해서는 도 23과 함께 상술한 바 있다는 점에서 중복 설명은 생략한다.
제어부(2220)는 안경 장치(2200)의 전반에 대한 동작을 제어한다. 특히, 제어부(2220)는 인터페이스부(2210)에서 수신된 동기화 신호를 셔터 글래스 구동부(2230)로 전달하여, 셔터 글래스 구동부(2230)의 동작을 제어한다. 즉, 제어부(2220)는 동기화 신호를 기초로, 제1 셔터 글래스부(2240) 및 제2 셔터 글래스부(2250)를 구동시키기 위한 구동 신호가 생성되도록 셔터 글래스 구동부(2230)를 제어한다. 구동 신호를 수신하기 위해서, 제어부(2220)는 디스플레이 장치와 페어링을 수행할 수도 있다.
셔터 글래스 구동부(2230)는 제어부(2220)로부터 수신된 동기화 신호를 기초로 구동 신호를 생성한다. 셔터 글래스 구동부(2230)는 생성된 구동 신호를 각 셔터 글래스부(2240, 2250)에 제공하여, 디스플레이 장치(2100)에서 디스플레이되는 복수의 컨텐츠 중 하나의 컨텐츠의 디스플레이 타이밍에 따라 제1 셔터 글래스부(2240) 및 제2 셔터 글래스부(2250)를 오픈시킬 수 있다.
제1 셔터 글래스부(2240) 및 제2 셔터 글래스부(2250)는 셔터 글래스 구동부(2230)로부터 수신된 구동 신호에 따라 셔터 글래스를 오픈 또는 오프시킨다.
구체적으로, 제1 셔터 글래스부(2240) 및 제2 셔터 글래스부(2250)는 복수의 컨텐츠 중 하나의 컨텐츠가 디스플레이될 때 셔터 글래스를 동시에 오픈하고, 다른 컨텐츠가 디스플레이될 때 셔터 글래스 모두를 오프시킨다. 이에 따라, 안경 장치(2200)를 착용한 사용자는 하나의 컨텐츠를 시청할 수 있다.
한편, 3D 컨텐츠의 경우, 제1 셔터 글래스부(2240) 및 제2 셔터 글래스부(2250)는 각각의 글래스를 번갈아 오픈/클로즈할 수 있다. 즉, 구동 신호에 따라 하나의 3D 컨텐츠를 구성하는 좌안 영상이 디스플레이되는 타이밍에 제1 셔터 글래스부(2240)를 오픈시키고, 우안 영상이 디스플레이되는 타이밍에 제2 셔터 글래스부(2250)를 오픈시킬 수 있다.
한편, 상술한 실시 예에서는 디스플레이 장치가 컨텐츠의 디스플레이 타이밍에 대응되는 동기화 신호를 각각 생성하여, 안경 장치(2200)로 전송하는 것으로 설명하였지만 이는 일 예에 불과하다. 즉, 디스플레이 장치는 각 컨텐츠의 디스플레이 타이밍에 대응되는 동기화 신호를 블루투스 통신 규격에 따른 하나의 전송 패킷으로 생성하여 안경 장치로 전송할 수 있다.
제어부(2220)는 동기화 신호가 수신되면 자신의 안경 장치 정보에 대응되는 디스플레이 타이밍을 확인하고, 확인된 디스플레이 타이밍에 따라 셔터 글래스를 오픈 또는 오프시킬 수 있다.
또한, 상술한 실시 예에서는, 근거리에서 통신 채널을 형성하여 신호를 송수신할 수 있는 다양한 무선 통신 방식에 따라 디스플레이 장치와 안경 장치가 통신을 수행하는 것으로 설명하였으나, 이는 일 예에 불과하다. 즉, 디스플레이 장치는 상이한 주파수를 가지는 IR(Infra Red) 동기화 신호를 안경 장치로 제공하고, 안경 장치는 특정 주파수를 가지는 동기화 신호를 수신하여, 대응되는 컨텐츠의 디스플레이 타이밍에 따라 셔터 글래스를 오픈 또는 오프시킬 수 있음은 물론이다.
도 25는 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 컨텐츠 제공 방법을 설명하기 위한 흐름도이다.
먼저, 복수의 컨텐츠를 수신한다(S2310). 구체적으로, 서로 다른 프레임 레이트를 가지는 복수의 컨텐츠를 수신할 수 있다.
이후, 복수의 컨텐츠 각각의 키 프레임을 검출한다(S2320).
예를 들어, 컨텐츠를 구성하는 영상 프레임이 초당 24 프레임 또는 초당 30 프레임의 프레임 레이트로 입력되면, 각 프레임을 키 프레임으로 검출할 수 있다.
다른 한편, 컨텐츠를 구성하는 영상 프레임이 초당 60 프레임의 프레임 레이트로 입력되면, 입력되는 프레임의 풀 다운 방식을 추출하여 키 프레임을 검출할 수 있다. 예를 들어, 현재 프레임이 3장 반복되고 다음 프레임이 2장 반복되면, 입력되는 컨텐츠가 3:2 풀 다운 방식으로 변환된 것으로 판단하고, 3장 반복되는 프레임에서 하나의 프레임 및 2장 반복되는 프레임에서 하나의 프레임을 키 프레임으로 검출한다.
그리고, 검출된 키 프레임을 통합한다(S2330). 구체적으로, 복수의 컨텐츠 각각의 키 프레임 개수가 다르면, 프레임 스킵 동작을 수행하여 키 프레임 개수를 일치시키고, 각 컨텐츠의 서로 대응되는 프레임끼리 통합할 수 있다.
이 경우, 복수의 컨텐츠 각각의 키 프레임을 탑 투 바텀(top to bottom), 사이드 바이 사이드(side by side) 포맷 또는 체커 보드(checker board) 포맷으로 통합할 수 있다. 이들 각 실시 예에 대해서는 상술한 바 있으므로 중복 설명은 생략한다.
그리고, 통합된 키 프레임에 대한 신호 처리를 수행한다(S2340). 즉, 통합된 키 프레임에 대한 보간을 수행하여 모션 저더 제거 처리를 수행할 수 있다. 구체적으로, 통합된 키 프레임의 프레임 레이트를 디스플레이 장치에서 표시가능한 프레임 레이트로 변환하는 FRC(Frame Rate Control)를 수행한다. 예를 들어, NTSC(National Television System Committee) 방식의 경우, 디스플레이 장치(2100)에서 표시가능한 프레임 레이트는 초당 60 프레임이 될 수 있다.
이 경우, 통합된 키 프레임에서 현재 프레임과 다음 프레임에 포함된 객체의 움직임을 추정하여 보간 프레임을 생성하고, 생성된 보간 프레임을 현재 프레임과 다음 프레임 사이에 삽입하여, 통합된 키 프레임의 프레임 레이트를 디스플레이 장치에서 표시가능한 프레임 레이트로 변환할 수 있다.
한편, 프레임 레이트가 변환된 프레임을 컨텐츠 별로 분리하며, 스케일러를 이용하여 각 프레임을 디스플레이 장치의 화면 사이즈에 맞추어 업 또는 다운 스케일링을 수행할 수 있다.
그리고, 처리된 키 프레임을 이용하여 멀티 뷰 프레임을 디스플레이한다(S2350). 구체적으로, 각 컨텐츠에 대한 영상 프레임을 적어도 하나씩 교번적으로 배치되도록 멀티플렉싱하여 멀티 뷰 프레임을 디스플레이할 수 있다.
예를 들어, 셔터 글래스 방식의 디스플레이 장치인 경우, 제1 컨텐츠의 영상 프레임, 제2 컨텐츠의 영상 프레임,..., 제n 컨텐츠의 영상 프레임이 적어도 하나씩 교번적으로 배치되도록 구성하여 디스플레이한다. 이 경우, 처리된 프레임 레이트가 60Hz인 경우, 각 컨텐츠를 n×60Hz로 디스플레이하며, 사용자는 컨텐츠가 디스플레이되는 타이밍에 연동하는 안경 장치(미도시)를 착용하여, 자신이 원하는 컨텐츠를 시청할 수 있다.
한편, 복수의 3D 컨텐츠를 이용하는 경우, 각 3D 컨텐츠에 포함된 좌안 영상 및 우안 영상들을 기설정된 배치 형태로 멀티플렉싱하고, 타 컨텐츠의 영상 프레임과 교번적으로 배치할 수 있다.
구체적으로, 디스플레이 장치가 60Hz로 동작하는 경우라면, 제1 컨텐츠의 좌안 영상, 우안 영상, 제2 컨텐츠의 좌안 영상, 우안 영상,.. 제n 컨텐츠의 좌안 영상, 우안 영상이 순차적으로 배치하고, 2×n×60Hz의 구동 주파수로 디스플레이할 수 있다. 사용자는 안경 장치를 통해서 하나의 3D 컨텐츠의 좌안 영상 및 우안 영상을 인식하게 된다.
또한, 본 실시 예에 따른 컨텐츠 제공 방법은 각 컨텐츠의 디스플레이 타이밍에 따라 각 컨텐츠에 대응되는 안경 장치를 동기화시키는 동기화 신호를 생성하는 단계 및 동기화 신호를 안경 장치로 전송하는 단계를 더 포함할 수 있다.
구체적으로, 멀티 뷰 모드에서 복수의 컨텐츠 중 하나의 컨텐츠에 대한 영상 프레임의 디스플레이 타이밍에 안경 장치를 동기화시키기 위한 동기화 신호를 생성하며, 일반 모드에서는 3D 컨텐츠의 좌안 영상 프레임 및 우안 영상 프레임의 디스플레이 타이밍에 안경 장치를 동기화시키기 위한 동기화 신호를 생성한다.
그리고, 다양한 무선 통신 방식에 따라 안경 장치와 통신을 수행하여, 대응되는 동기화 신호를 전송할 수 있다. 블루투스 통신 방식으로 동기화 신호를 전송하는 경우에 대해 상술한바 있으므로, 중복 설명은 생략한다.
[복수의 SoC를 이용하는 실시 예]
상술한 바와 같이 복수의 컨텐츠를 처리하기 위해서는 하나의 컨텐츠를 처리할 때 비하여 많은 수의 컴포넌트를 구비하여야 한다. 특히, 멀티 뷰를 효과적으로 제공하기 위해서, 디스플레이 프로세서가 복수 개로 구비될 수 있다. 이 경우, 복수의 디스플레이 프로세서를 구비한 SoC를 설계하는 데에는 많은 노력과 비용이 든다. 이러한 점을 고려하여, 이하에서는 복수의 SoC를 이용하여 복수의 컨텐츠 뷰를 디스플레이하는 본 발명의 또 다른 실시 예에 따른 디스플레이 장치 및 방법을 제공한다.
도 26은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다. 도 26의 디스플레이 장치(3100)는 TV, 휴대폰, PDA, 노트북 PC, 모니터, 태블릿 PC, 전자 책, 전자 액자, 키오스크 등과 같이 디스플레이 유닛을 구비한 다양한 장치로 구현될 수 있다.
도 26에 따르면, 디스플레이 장치(3100)는 수신부 1, 2(3110, 3120), 제1 및 제2 SoC(3130, 3140), 출력부(3150)를 포함한다.
수신부 1, 2(3110, 3120)는 서로 다른 소스로부터 각각 컨텐츠를 수신한다. 수신되는 컨텐츠는 2D 컨텐츠일 수도 있고, 3D 컨텐츠일 수도 있다. 도 1에서 설명한 바와 같이, 소스는 다양한 유형으로 구현될 수 있다. 수신부 1, 2(3110, 3120)의 동작은 도 1에 기재된 실시 예에서의 수신부 1, 2(110, 120)의 동작과 동일하므로, 중복 설명은 생략한다.
SoC 1, 2(3130, 3140)는 각각 디스플레이 프로세서(3131, 3141)를 포함한다. SoC 1(3130)에 탑재된 디스플레이 프로세서 1(3131)은 수신부 1(3110)에서 수신된 컨텐츠를 처리한다. 디스플레이 프로세서 1(3131)은 컨텐츠 내의 비디오 데이터에 대해 각종 신호 처리를 수행한다. 구체적으로는, 데이터 디코딩, 스케일링, 프레임 레이트 변환 등과 같은 처리를 수행할 수 있다.
SoC 2(3140)에 포함된 디스플레이 프로세서 2(3141)는 수신부 2(3120)에서 수신된 컨텐츠를 처리한다. 디스플레이 프로세서 2(3141)는 컨텐츠 내의 비디오 데이터에 대해 각종 신호 처리를 수행한다. 구체적으로는, 데이터 디코딩, 스케일링, 프레임 레이트 변환 등과 같은 처리를 수행할 수 있다.
디스플레이 프로세서 1(3131) 및 디스플레이 프로세서 2(3141)에서 각각 처리된 데이터는 SoC 2(3140) 내의 먹스(3142)로 출력된다. 먹스(3142)는 각 데이터를 먹싱하여, 복수의 컨텐츠 뷰를 포함하는 데이터를 생성한다. 출력부(3150)는 먹스(3142)에서 제공되는 데이터를 이용하여 복수의 컨텐츠 뷰를 출력할 수 있다.
출력부(3150)는 먹스(3142)에서 출력되는 데이터를 디스플레이하는 비디오 출력부를 포함한다. 예를 들어, 셔터 글래스 방식의 디스플레이 장치인 경우, 비디오 출력부는 교번적으로 배치된 제1 컨텐츠 및 제2 컨텐츠의 영상 프레임을 디스플레이할 수 있다.
다른 예로 편광 방식의 디스플레이 장치인 경우, 비디오 출력부는 각 컨텐츠의 영상 프레임이 라인 별로 분리되고 교번적으로 배치되어 구성된 프레임을 디스플레이할 수 있다. 편광 방식의 경우, 3D 컨텐츠를 시청하기 위한 안경 장치와, 멀티 뷰 모드를 이용하기 위한 안경 장치가 서로 달라진다. 즉, 3D 컨텐츠를 시청하기 위한 안경 장치는 좌안 및 우안의 편광 방향이 서로 다르고, 멀티 뷰 모드를 이용하기 위한 안경 장치는 좌안 및 우안이 편광 방향이 서로 동일하다.
한편, 출력부(3150)에는 오디오 출력부도 포함될 수 있다. 오디오 출력부는 별도로 마련된 오디오 신호 처리부(미도시)에서 처리된 오디오 데이터를 각각 서로 다른 무선 주파수 신호로 변조하여 각 안경 장치로 출력할 수도 있고, 인터페이스부(미도시)를 통해 전송할 수도 있다.
이러한 디스플레이 장치에 의해 복수의 2D 컨텐츠 또는 복수의 3D 컨텐츠가 조합된 멀티 뷰 모드가 수행될 수 있다.
도 27는 복수 개의 3D 컨텐츠를 수신하여 디스플레이하는 셔터 글래스 방식의 디스플레이 장치의 동작을 나타내는 도면이다.
도 27에 따르면, 디스플레이 장치(3100)의 출력부(3150)는 복수의 3D 컨텐츠를 구성하는 각각의 좌안 영상 및 우안 영상을 포함하는 복수의 컨텐츠 뷰(10)을 화면 상에 디스플레이한다. 각 컨텐츠 뷰(10)는 화면 크기의 영상 프레임에 해당한다. 도 27의 시스템은 도 2에 도시된 시스템과 유사하다. 다만, 도 2에서는 신호 전송부(190)가 장치 외측으로 돌출되어 표시되어 있으나, 도 27에서는 내장된 상태로 구현되었음을 알 수 있다. 동작의 측면에서는 도 27의 동작과 도 2의 동작의 유사하므로, 중복되는 설명은 생략한다.
도 28은 복수의 2D 컨텐츠를 수신하여 디스플레이하는 셔터 글래스 방식의 디스플레이 장치의 동작을 나타내는 도면이다. 도 28에 따르면, 컨텐츠 뷰 1 및 2에는 서로 다른 컨텐츠의 영상 프레임이 표시된다. 안경 장치(3210, 3220)들은 대응되는 컨텐츠 뷰가 출력되는 타이밍에 좌안 및 우안 글래스를 일괄적으로 오픈시킨다. 도 28에 따르면, 제1 안경 장치(3210)는 컨텐츠 뷰 1을 시청하고, 제2 안경 장치(3220)는 컨텐츠 뷰 2를 시청할 수 있다.
디스플레이 장치(3100)는 각 안경장치(3210, 3220)들의 페어링 순서에 따라 컨텐츠 뷰를 매칭시킨다. 가령, 두 개의 컨텐츠 뷰를 제공하는 듀얼 뷰 모드에서 제1 안경 장치(3210)가 먼저 페어링되었다면 컨텐츠 뷰 1을 매칭시키고, 제2 안경 장치(3220)가 그 이후에 페어링되면 컨텐츠 뷰 2를 매칭시킨다.
도 29는 도 26의 디스플레이 장치(3100)에 사용되는 SoC 1(3130) 구성의 일 예를 나타낸다. SoC 1(3130)은 디스플레이 프로세서(3131), 비디오 디코더(3132), CPU(3133), 메모리(3134)를 포함한다.
비디오 디코더(3132)는 수신부 1(3110)에서 수신된 컨텐츠 내의 비디오 데이터를 디코딩하는 구성이다. 디스플레이 프로세서(3131)는 비디오 디코더(3132)로부터 출력되는 비디오 데이터에 대하여 상술한 바와 같이 스케일링, 프레임 레이트 변환 등의 처리를 수행한다.
메모리(3134)는 SoC 1(3130)의 동작에 필요한 프로그램 및 데이터를 저장한다. CPU(3133)는 메모리(3134)를 이용하여 비디오 디코더(3132), 디스플레이 프로세서(3131)의 동작을 제어한다.
SoC 1(3130)은 HDMI 포트를 통해 3D 컨텐츠를 입력받는다. SoC 1(3130)은 디스플레이 프로세서(3131)에서 처리된 데이터를 LVDS Tx와 같은 고속 인터페이스를 통해서 SoC 2(3140)로 출력한다. SoC 2(3140)는 LVDS Rx를 통해서 데이터를 수신하여 디스플레이 프로세서(3141)에서 처리한다. 그리고 먹스(3142)에서 각 데이터들을 먹싱하여 출력부(3150)로 제공한다.
이상과 같이 디스플레이 장치(3100)에서는 2D 컨텐츠 또는 3D 컨텐츠를 처리할 수 있지만, 이하에서는 복수의 3D 컨텐츠를 수신하는 경우를 예로 들어 설명한다.
도 30는 디스플레이 장치의 세부구성을 나타내는 블럭도이다. 도 30에 따르면, 디스플레이 장치는 수신부 1, 2(3110, 3120), SoC 1, 2(3130, 3140), 프레임 레이트 변환부(3150), 출력부(3160), 제어부(3170), 인터페이스부(3180), 동기화 신호 생성부(3190)를 포함한다.
수신부 1, 2(3110, 3120)는 다양한 소스로부터 각각 3D 컨텐츠를 수신한다. SoC 1, 2(3130, 3140)는 각 3D 컨텐츠에 대한 신호처리를 수행한다. 수신부 1, 2(3110, 3120), SoC 1, 2(3130, 3140)에 대해서는 도 26에서 구체적으로 설명한 바 있으므로, 중복 설명은 생략한다. 프레임 레이트 변환부(3150)는 SoC 2(3140)에서 출력된 데이터의 프레임 레이트를 변환한다. 프레임 레이트 변환부(3150)는 멀티 뷰 모드의 종류에 따라 프레임 레이트를 변환할 수 있다. 즉, 멀티 뷰 모드는 컨텐츠 뷰의 개수에 따라 듀얼 뷰 모드, 트리플 뷰 모드, 쿼드러플 뷰 모드 등과 같이 다양한 모드를 포함할 수 있다. 가령, 디스플레이 장치(3100)가 60Hz로 동작하고 듀얼 뷰 모드인 경우라면, 프레임 레이트 변환부(3150)는 각 3D 컨텐츠의 프레임 레이트를 120Hz로 변환한다.
인터페이스부(3180)는 안경 장치와 통신을 수행한다. 구체적으로는 인터페이스부(3180)는 블루투스, 와이파이, 지그비, IEEE 등과 같은 각종 무선 통신 규격에 따라 안경 장치로 오디오 신호나 동기화 신호 등을 전송할 수 있다. 또는 인터페이스부(3180)는 IR 동기화 신호를 발산하는 IR 램프 또는 RF 동기화 신호를 출력하는 RF 트랜스미터로 구현될 수도 있다. 인터페이스부(3180)가 IR 램프 또는 RF 트랜스미터로 구현되는 경우, 도 2의 신호 전송부(190)와 같이 외관 상에 구비될 수도 있다.
동기화 신호 생성부(3190)는 출력부(3150)에서 출력되는 복수의 컨텐츠 뷰와 복수의 안경 장치를 동기화시키기 위한 동기화 신호를 생성하여 인터페이스부(3180)를 통해 각 안경 장치로 전송한다. 동기화 신호 생성부(3190)는 안경 장치와의 인터페이스 방식에 대응되는 포맷으로 동기화 신호를 생성할 수 있다. 즉, 각종 무선 통신 규격에 따른 데이터 스트림, RF 신호, IR 신호 등의 형태로 동기화 신호를 생성할 수 있다. 동기화 신호 생성부(3190)는 인터페이스부(3180)와 일체로 구성될 수도 있다.
제어부(3170)는 디스플레이 장치(3100)의 전반적인 동작을 제어한다. 제어부(3170)는 사용자 선택에 따라 디스플레이 장치(3100)의 동작 모드를 변경할 수 있다. 사용자는 하나의 컨텐츠를 시청하는 싱글 뷰 모드, 복수의 컨텐츠를 시청하는 멀티 뷰 모드와 같이 다양한 동작 모드 중 하나를 선택할 수 있다. 싱글 뷰 모드에서는 2D 컨텐츠나 3D 컨텐츠와 같은 하나의 컨텐츠가 출력되지만, 멀티 뷰 모드에서는 복수의 컨텐츠가 상술한 바와 같이 조합되어 복수의 컨텐츠 뷰로 제공된다. 멀티 뷰 모드에서 하나의 컨텐츠 뷰에 할당된 컨텐츠 재생이 종료되고 다음 컨텐츠가 재생 시작되더라도 컨텐츠 뷰는 그대로 유지된다.
제어부(3170)는 싱글 뷰 모드에 따라 동작하는 중에 사용자가 모드 전환 명령을 입력하게 되면, 복수의 컨텐츠를 조합하여 출력하도록 SoC 1, 2(3130, 3140), 출력부(3150)를 제어한다. 멀티 뷰 모드로 전환되면, 제어부(3170)는 동기화 신호 생성부(3190) 및 인터페이스부(3180)를 제어하여 각 컨텐츠에 매칭되는 각 안경 장치들로 동기화 신호를 전송한다.
도 31은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다. 도 31에 따르면, 디스플레이 장치는 수신부 1, 2(3310, 3320), 복수의 SoC(3330, 3340, 3350), 프레임 레이트 변환부(3360), 출력부(3370)를 포함한다.
수신부 1, 2(3310, 3320)는 도 26에서 설명한 바와 같이 다양한 소스로부터 다양한 유형의 컨텐츠를 수신할 수 있다.
SoC 1(3330) 및 SoC 2(3340)는 각각 디스플레이 프로세서 1, 2(3331, 3341)를 포함한다. 그리고 SoC 3(3350)는 먹스(3351)를 포함한다. 먹스(3351)는 SoC 1, 2(3330, 3340)에서 출력되는 데이터를 먹싱하여 프레임 레이트 변환부(3360)로 출력한다.
프레임 레이트 변환부(3360)는 먹스(3351)에서 먹싱된 데이터의 프레임 레이트를 변환하여 출력부(3370)로 출력한다.
출력부(3370)는 프레임 레이트 변환부(3360)에서 출력된 데이터에 따라 복수의 컨텐츠 뷰를 출력한다.
한편, 도 27 및 도 28에 도시된 안경 장치는 도 24에 도시된 바와 같은 구성을 가질 수 있다. 즉, 제1 또는 제2 안경 장치(3210. 3220)는 제1 및 제2 셔터 글래스부(2240, 2250), 셔터글래스 구동부(2230), 제어부(2220), 인터페이스부(2210)를 포함한다. 안경 장치에 대해서는 도 24 부분에서 구체적으로 설명하였으므로, 중복 설명은 생략한다.
도 32는 본 발명의 또 다른 실시 예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다. 도 32에 따르면, 복수의 3D 컨텐츠를 수신하여 출력하는 3D 멀티 뷰 모드가 개시되면(S3810), 복수의 3D 컨텐츠를 수신하고(S3820), 복수의 SoC를 이용하여 각 3D 컨텐츠를 처리한다(S3830).
복수의 SoC를 이용하여 각 컨텐츠를 처리하는 단계는, 복수의 SoC 중 하나의 SoC에 탑재된 먹스를 이용하여 각 SoC에서 처리된 데이터를 먹싱하고, 먹싱된 데이터의 프레임 레이트를 변환할 수 있다.
또는, 복수의 SoC에서 각 3D 컨텐츠를 처리한 후, 별도의 SoC에 탑재된 먹스를 이용하여 데이터를 먹싱하고, 먹싱된 데이터의 프레임 레이트를 변환할 수도 있다.
이에 따라 각 3D 컨텐츠의 영상 프레임을 조합하여 복수의 컨텐츠 뷰를 디스플레이하고(S3840), 동기화 신호를 전송한다(S3850).
도 32에서는 도시되지 않았으나, 본 실시 예에서는, 복수의 안경 장치와 페어링을 수행하는 단계, 페어링 순서에 따라 복수의 안경 장치와 복수의 컨텐츠 뷰를 순차적으로 매칭하는 단계를 더 포함할 수도 있다.
이상과 같이 본 발명의 다양한 실시 예에 따르면, 복수의 컨텐츠를 수신하여 멀티 뷰를 효과적으로 제공할 수 있다.
상술한 다양한 실시 예들에 따른 방법은, 어플리케이션으로 프로그래밍되어 디스플레이 장치 및 안경 장치 등에 제공될 수 있다.
구체적으로는, 좌안 영상 및 우안 영상을 각각 포함하는 복수의 컨텐츠를 수신하는 단계, 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계, 저장된 복수의 컨텐츠의 프레임 레이트를 각각 변환하는 단계 및 프레임 레이트가 변환된 각 컨텐츠를 조합하여 디스플레이하는 단계를 순차적으로 수행하여 멀티 뷰 디스플레이를 제공하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 디스플레이 장치에 내장되거나, 디스플레이 장치에 연결되어 사용될 수 있다. 이러한 프로그램은 웹 서버나 관리 서버 등과 같은 다양한 소스로부터 다운로드 받을 수도 있다.
또는, 좌안 영상 및 우안 영상을 각각 포함하는 복수의 3D 컨텐츠를 다운 스케일링하는 단계. 3D 컨텐츠의 프레임 레이트를 복수의 프레임 레이트 변환부를 이용하여 변환하는 단계, 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여, 멀티 컨텐츠 프레임 데이터를 구성하는 단계 및 3D 멀티 컨텐츠 프레임 데이터를 디스플레이 장치로 전송하는 단계를 순차적으로 수행하여 신호 처리를 수행하는 프로그램이 비일시적 판독 가능 매체 또는 네트워크를 통해 디스플레이 장치에 제공될 수 있다.
또는, 서로 다른 프레임 레이트를 가지는 서로 다른 복수의 컨텐츠를 수신하는 단계, 복수의 컨텐츠의 프레임 레이트를 매칭시키는 단계, 매칭된 프레임 레이트를 가지는 각 컨텐츠를 이용하여 멀티 뷰 프레임을 디스플레이하는 단계를 순차적으로 수행하기 위한 프로그램이 비일시적 판독 가능 매체 또는 네트워크를 통해 디스플레이 장치에 제공될 수 있다.
상술한 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110, 120 : 수신부 1, 2 130, 140 : 스케일러부 1, 2
150 : 저장부 180 : 영상 출력부
160, 170 : 프레임 레이트 변환부 1, 2
150 : 저장부 180 : 영상 출력부
160, 170 : 프레임 레이트 변환부 1, 2
Claims (24)
- 복수의 컨텐츠를 수신하는 복수의 수신부;
저장부;
상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 상기 저장부에 저장하고, 상기 저장부에 저장된 각 컨텐츠를 출력 타이밍에 따라 독출하는 복수의 스케일러부;
상기 독출된 각 컨텐츠의 프레임 레이트를 변환하는 복수의 프레임 레이트 변환부; 및,
상기 복수의 프레임 레이트 변환부에서 출력되는 각 컨텐츠를 조합하여 디스플레이하는 영상 출력부;를 포함하는 디스플레이 장치. - 제1항에 있어서,
상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠이며,
상기 복수의 스케일러부 각각은,
상기 복수의 3D 컨텐츠를 다운 스케일링하고 프레임 레이트를 축소시켜 상기 저장부에 저장하는 것을 특징으로 하는 디스플레이 장치. - 제2항에 있어서,
상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠이며,
상기 복수의 스케일러부 각각은,
상기 복수의 3D 컨텐츠를 다운 스케일링하여 상기 저장부에 저장하고,
상기 저장부에 저장된 각 3D 컨텐츠가 출력 타이밍에 따라 독출되면, 독출된 3D 컨텐츠의 프레임 레이트를 다운시켜 상기 복수의 프레임 레이트 변환부로 제공하는 것을 특징으로 하는 디스플레이 장치. - 제1항에 있어서,
상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠이며,
상기 복수의 스케일러부 중 적어도 하나는,
상기 3D 컨텐츠가 3:2 풀 다운된 필름 영상 컨텐츠이면, 상기 필름 영상 컨텐츠를 다운 스케일링하고 키 프레임만을 추출하여 상기 저장부에 저장하고,
상기 복수의 프레임 레이트 변환부는 상기 저장부에서 상기 키 프레임이 독출되면, 독출된 키 프레임을 기준으로 프레임을 보간하여 각 3D 컨텐츠의 프레임 레이트를 멀티 컨텐츠 디스플레이 레이트로 변환하는 것을 특징으로 하는 디스플레이 장치. - 제1항에 있어서,
상기 영상 출력부는,
상기 복수의 프레임 레이트 변환부에서 제공되는 각 컨텐츠를 기 설정된 배치 순서에 따라 순차적으로 배치되도록 멀티플렉싱하고, 멀티플렉싱된 데이터를 화면 사이즈에 맞추어 업 스케일링하여 디스플레이하는 것을 특징으로 하는 디스플레이 장치. - 디스플레이 장치의 멀티 컨텐츠 디스플레이 방법에 있어서,
좌안 영상 및 우안 영상을 각각 포함하는 복수의 컨텐츠를 수신하는 단계;
상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계;
저장된 복수의 컨텐츠의 프레임 레이트를 각각 변환하는 단계; 및
프레임 레이트가 변환된 각 컨텐츠를 조합하여 디스플레이하는 단계;를 포함하는 멀티 컨텐츠 디스플레이 방법. - 제6항에 있어서,
상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠이며,
상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계는,
상기 복수의 3D 컨텐츠를 다운 스케일링하는 단계;
상기 다운 스케일링된 3D 컨텐츠 각각의 프레임 레이트를 감소시키는 단계;
상기 프레임 레이트가 감소된 각 3D 컨텐츠를 저장하는 단계;를 포함하며,
상기 프레임 레이트를 변환하는 단계는,
상기 각 3D 컨텐츠의 프레임 레이트를 멀티 컨텐츠 디스플레이 레이트로 변환하는 것을 특징으로 하는 멀티 컨텐츠 디스플레이 방법. - 제6항에 있어서,
상기 복수의 컨텐츠는 좌안 영상 및 우안 영상을 각각 포함하는 3D 컨텐츠이며,
상기 복수의 컨텐츠의 데이터 사이즈를 축소시켜 저장하는 단계는,
상기 3D 컨텐츠가 3:2 풀 다운된 필름 영상 컨텐츠이면, 상기 필름 영상 컨텐츠를 다운 스케일링하는 단계;
상기 다운 스케일링된 필름 영상 컨텐츠의 키 프레임만을 추출하여 저장하는 단계;를 포함하고,
상기 프레임 레이트를 변환하는 단계는,
저장된 키 프레임을 기준으로 프레임을 보간하여 각 3D 컨텐츠의 프레임 레이트를 변환하는 것을 특징으로 하는 멀티 컨텐츠 디스플레이 방법. - 제6항에 있어서,
상기 디스플레이하는 단계는,
각 컨텐츠가 기 설정된 배치 순서에 따라 순차적으로 배치되도록 멀티플렉싱하는 단계;
멀티플렉싱된 데이터를 화면 사이즈에 맞추어 업 스케일링하는 단계;
상기 업스케일링된 데이터를 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 멀티 컨텐츠 디스플레이 방법. - 신호 처리 장치에 있어서,
좌안 영상 및 우안 영상을 각각 포함하는 복수의 3D 컨텐츠를 데이터 사이즈를 축소시키는 복수의 스케일러부;
상기 복수의 스케일러부에서 처리된 복수의 3D 컨텐츠를 저장하는 저장부;
상기 저장부에 저장된 복수의 3D 컨텐츠의 프레임 레이트를 멀티 컨텐츠 디스플레이 레이트로 변환하는 복수의 프레임 레이트 변환부;를 포함하는 신호 처리 장치. - 제10항에 있어서,
상기 복수의 스케일러부는,
상기 복수의 3D 컨텐츠를 다운 스케일링하여 상기 저장부에 저장하고,
상기 저장부로부터 상기 다운 스케일링된 3D 컨텐츠가 독출되면, 독출된 3D 컨텐츠를 상기 복수의 프레임 레이트 변환부에서 처리 가능한 포맷으로 변환하는 것을 특징으로 하는 신호 처리 장치. - 제10항에 있어서,
상기 복수의 프레임 레이트 변환부에서 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여, 멀티 컨텐츠 프레임 데이터를 구성하는 영상 처리부; 및,
상기 멀티 컨텐츠 프레임 데이터를 디스플레이 장치로 전송하는 인터페이스부;를 더 포함하는 것을 특징으로 하는 신호 처리 장치. - 신호 처리 방법에 있어서,
좌안 영상 및 우안 영상을 각각 포함하는 복수의 3D 컨텐츠를 다운 스케일링하는 단계;
상기 3D 컨텐츠의 프레임 레이트를 복수의 프레임 레이트 변환부를 이용하여 변환하는 단계;
상기 변환된 프레임 레이트를 가지는 복수의 3D 컨텐츠를 이용하여, 멀티 컨텐츠 프레임 데이터를 구성하는 단계; 및,
상기 3D 멀티 컨텐츠 프레임 데이터를 디스플레이 장치로 전송하는 단계;를 포함하는 것을 특징으로 하는 신호 처리 방법. - 제13항에 있어서,
상기 다운 스케일링된 복수의 3D 컨텐츠를 상기 복수의 프레임 레이트 변환부에서 처리 가능한 포맷으로 변환하는 단계;를 더 포함하는 것을 특징으로 하는 신호 처리 방법. - 서로 다른 프레임 레이트를 가지는 서로 다른 복수의 컨텐츠를 수신하는 단계;
상기 복수의 컨텐츠의 프레임 레이트를 매칭시키는 단계;
상기 매칭된 프레임 레이트를 가지는 각 컨텐츠를 이용하여 멀티 뷰 프레임을 디스플레이하는 단계;를 포함하는 멀티 뷰 디스플레이 방법. - 제15항에 있어서,
상기 프레임 레이트를 매칭시키는 단계는,
상기 복수의 컨텐츠를 저장하는 단계;
상기 복수의 컨텐츠를 각각 처리하여 복수의 영상 프레임을 생성하는 단계;
상기 복수의 컨텐츠 중 상대적으로 작은 프레임 레이트를 가지는 컨텐츠의 영상 프레임을 보간 처리하는 단계;를 포함하는 것을 특징으로 하는 멀티 뷰 디스플레이 방법. - 제16항에 있어서,
상기 보간 처리하는 단계는,
상기 복수의 컨텐츠 각각의 수신 시점을 비교하여, 상기 복수의 컨텐츠 중 하나의 컨텐츠의 한 영상 프레임이 저장 완료된 시점의 타 컨텐츠의 대응 프레임의 저장 비율을 확인하는 단계;
확인된 저장 비율에 따라 상기 대응 프레임 및 상기 대응 프레임의 다음 프레임을 조합하여 보간 프레임을 생성하는 단계;를 포함하는 멀티 뷰 디스플레이 방법. - 제17항에 있어서,
상기 보간 프레임을 생성하는 단계는,
상기 대응 프레임 및 상기 다음 프레임을 비교하여 프레임 내에 표시된 객체의 모션을 추정하고, 상기 추정된 모션에 상기 수신 비율을 적용하여 상기 보간 프레임을 생성하는 것을 특징으로 하는 멀티 뷰 디스플레이 방법. - 제15항에 있어서,
상기 프레임 레이트를 매칭시키는 단계는,
상기 복수의 컨텐츠 각각의 키 프레임을 검출하는 단계;
검출된 키 프레임을 통합하는 단계;를 포함하는 것을 특징으로 하는 멀티 뷰 디스플레이 방법. - 제19항에 있어서,
상기 키 프레임을 통합하는 단계는,
상기 복수의 컨텐츠 각각의 키 프레임 개수가 다르면, 프레임 반복 또는 스킵 동작을 수행하여 키 프레임 개수를 일치시키고, 각 컨텐츠의 서로 대응되는 키 프레임끼리 통합시키는 것을 특징으로 하는 멀티 뷰 디스플레이 방법. - 제20항에 있어서,
상기 프레임 레이트를 매칭시키는 단계는,
상기 통합된 키 프레임에 대한 보간을 수행하여 모션 저더 제거 처리를 수행하는 단계;를 더 포함하는 것을 특징으로 하는 멀티 뷰 디스플레이 방법. - 복수의 3D 컨텐츠를 수신하는 복수의 수신부;
3D 컨텐츠 처리를 위한 디스플레이 프로세서가 각각 탑재된 복수의 SoC(System on Chip);
상기 복수의 SoC에서 처리된 각 3D 컨텐츠의 영상 프레임을 조합하여 복수의 컨텐츠 뷰를 출력하는 출력부;를 포함하는 디스플레이 장치. - 제22항에 있어서,
상기 복수의 SoC 중 하나의 SoC는, 상기 SoC에 탑재된 디스플레이 프로세서에서 처리된 데이터와 타 SoC에서 출력된 데이터를 먹싱하는 먹스를 포함하는 것을 특징으로 하는 디스플레이 장치. - 제22항에 있어서,
상기 복수의 SoC로부터 출력되는 데이터를 먹싱하는 먹스가 탑재된 SoC; 및
상기 먹스에서 먹싱된 데이터의 프레임 레이트를 변환하는 프레임 레이트 변환부;를 더 포함하는 것을 특징으로 하는 디스플레이 장치.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/614,277 US20130169755A1 (en) | 2011-12-28 | 2012-09-13 | Signal processing device for processing plurality of 3d content, display device for displaying the content, and methods thereof |
| EP12184610.9A EP2611161B1 (en) | 2011-12-28 | 2012-09-17 | Signal processing device for processing plurality of 3D content, display device for displaying the content, and methods thereof |
| CN2012105899170A CN103188509A (zh) | 2011-12-28 | 2012-12-28 | 用于多个3d内容的信号处理装置、显示装置、及其方法 |
Applications Claiming Priority (8)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020110144365 | 2011-12-28 | ||
| KR20110145280 | 2011-12-28 | ||
| KR1020110145280 | 2011-12-28 | ||
| KR20110144365 | 2011-12-28 | ||
| KR20110147502 | 2011-12-30 | ||
| KR1020110147502 | 2011-12-30 | ||
| KR1020110147291 | 2011-12-30 | ||
| KR20110147291 | 2011-12-30 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20130076674A true KR20130076674A (ko) | 2013-07-08 |
Family
ID=48990210
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020120054864A Withdrawn KR20130076674A (ko) | 2011-12-28 | 2012-05-23 | 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들 |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20130076674A (ko) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20150058809A (ko) * | 2013-11-21 | 2015-05-29 | 삼성전자주식회사 | 다중 영상 재생장치 및 재생방법 |
| WO2016036073A1 (ko) * | 2014-09-02 | 2016-03-10 | 삼성전자 주식회사 | 디스플레이 장치, 시스템 및 그 제어 방법 |
| WO2024090743A1 (ko) * | 2022-10-26 | 2024-05-02 | 삼성전자주식회사 | 복수의 비디오를 동시에 재생하기 위한 전자 장치 및 그 제어 방법 |
| US12154528B2 (en) | 2020-11-17 | 2024-11-26 | Samsung Electronics Co., Ltd. | Display device and control method thereof |
-
2012
- 2012-05-23 KR KR1020120054864A patent/KR20130076674A/ko not_active Withdrawn
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20150058809A (ko) * | 2013-11-21 | 2015-05-29 | 삼성전자주식회사 | 다중 영상 재생장치 및 재생방법 |
| WO2016036073A1 (ko) * | 2014-09-02 | 2016-03-10 | 삼성전자 주식회사 | 디스플레이 장치, 시스템 및 그 제어 방법 |
| US10140685B2 (en) | 2014-09-02 | 2018-11-27 | Samsung Electronics Co., Ltd. | Display device, system and controlling method therefor |
| US10878532B2 (en) | 2014-09-02 | 2020-12-29 | Samsung Electronics Co., Ltd. | Display device, system and controlling method therefor |
| US12154528B2 (en) | 2020-11-17 | 2024-11-26 | Samsung Electronics Co., Ltd. | Display device and control method thereof |
| WO2024090743A1 (ko) * | 2022-10-26 | 2024-05-02 | 삼성전자주식회사 | 복수의 비디오를 동시에 재생하기 위한 전자 장치 및 그 제어 방법 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2611161B1 (en) | Signal processing device for processing plurality of 3D content, display device for displaying the content, and methods thereof | |
| CN101076130B (zh) | 通信方法及系统、传送方法及设备、接收方法及设备 | |
| EP2375767A1 (en) | Stereoscopic video player, stereoscopic video playback system, stereoscopic video playback method, and semiconductor device for stereoscopic video playback | |
| CN102143369B (zh) | 影像处理装置和影像处理方法 | |
| CN102918847B (zh) | 显示图像的方法和设备 | |
| EP2320669B1 (en) | Stereoscopic image reproduction method in case of pause mode and stereoscopic image reproduction apparatus using same | |
| US20120113113A1 (en) | Method of processing data for 3d images and audio/video system | |
| EP2434763A1 (en) | 3d image reproduction device and method capable of selecting 3d mode for 3d image | |
| US20110063422A1 (en) | Video processing system and video processing method | |
| CN102138331A (zh) | 立体影像传输系统、影像显示装置以及影像输出装置 | |
| WO1998039927A1 (fr) | Recepteur de telediffusion numerique et afficheur | |
| US9438895B2 (en) | Receiving apparatus, transmitting apparatus, communication system, control method of the receiving apparatus and program | |
| KR20100042771A (ko) | 영상처리장치 및 영상처리방법 | |
| US20150035958A1 (en) | Apparatus and method for concurrently displaying multiple views | |
| JP5412404B2 (ja) | 情報統合装置、情報表示装置、情報記録装置 | |
| US20130141534A1 (en) | Image processing device and method | |
| US20150289015A1 (en) | Broadcast receiving apparatus, upgrade device for upgrading the apparatus, broadcast signal processing system, and methods thereof | |
| US20140015941A1 (en) | Image display apparatus, method for displaying image and glasses apparatus | |
| KR20130076674A (ko) | 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들 | |
| US20130169698A1 (en) | Backlight providing apparatus, display apparatus and controlling method thereof | |
| KR101885215B1 (ko) | 디스플레이 장치 및 그 디스플레이 방법 | |
| US20130266287A1 (en) | Reproduction device and reproduction method | |
| US20110310222A1 (en) | Image distributing apparatus, display apparatus, and image distributing method thereof | |
| CN103188513A (zh) | 用于显示视频的装置和方法 | |
| KR20130079458A (ko) | 영상표시장치 및 영상표시방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20120523 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination | ||
| WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |