[go: up one dir, main page]

KR101781850B1 - Electronic device and method for displying stereo-view or multiview sequence image - Google Patents

Electronic device and method for displying stereo-view or multiview sequence image Download PDF

Info

Publication number
KR101781850B1
KR101781850B1 KR1020100124522A KR20100124522A KR101781850B1 KR 101781850 B1 KR101781850 B1 KR 101781850B1 KR 1020100124522 A KR1020100124522 A KR 1020100124522A KR 20100124522 A KR20100124522 A KR 20100124522A KR 101781850 B1 KR101781850 B1 KR 101781850B1
Authority
KR
South Korea
Prior art keywords
image frame
eye view
image
line
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020100124522A
Other languages
Korean (ko)
Other versions
KR20120063388A (en
Inventor
김희재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100124522A priority Critical patent/KR101781850B1/en
Publication of KR20120063388A publication Critical patent/KR20120063388A/en
Application granted granted Critical
Publication of KR101781850B1 publication Critical patent/KR101781850B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

전자 장치 및 입체영상 재생 방법이 개시한다. 수신부는 제1 해상도를 갖는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신한다. 포맷터는 홀수 라인에 수신부가 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 제1 해상도 또는 제1 해상도와 대응하는 프로그레시브 해상도를 갖는 제1 영상 프레임 및 제2 영상 프레임을 생성한다. 디스플레이는 포맷터가 생성한 영상 프레임을 스캔한다.An electronic device and a stereoscopic image reproducing method are disclosed. The receiving unit receives image data including a left eye view image frame and a right eye view image frame having a first resolution. The formatter includes one pixel data of the left eye view image frame and the right eye view image frame included in the image data received by the receiving unit on the odd line and includes one pixel data on the even line, And generates a first video frame and a second video frame having a resolution and a corresponding progressive resolution. The display scans the image frame generated by the formatter.

Figure R1020100124522
Figure R1020100124522

Description

전자 장치 및 입체영상 재생 방법{Electronic device and method for displying stereo-view or multiview sequence image}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device and a stereoscopic image reproducing method,

본 발명은 전자 장치 및 입체영상 재생 방법에 관한 것으로, 보다 상세하게는, 2안식 입체영상 기술 또는 다안식 입체영상 기술에 있어서 입체영상을 처리할 수 있는 전자 장치 및 입체영상 재생 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic apparatus and a stereoscopic image reproducing method, and more particularly, to an electronic apparatus and a stereoscopic image reproducing method capable of processing a stereoscopic image in a two-eye stereoscopic image technique or a multi-view stereoscopic image technique.

상용화된 3D 컨텐츠 및 3D 방송의 경우 양안시차(binocular disparity)를 이용한 방식이 주를 이룬다. 양안시차는 사람이 두 눈을 이용하여 하나의 피사체를 볼 때, 왼쪽 눈으로 보는 영상과 오른쪽 눈으로 보는 영상 사이에 두 눈의 간격에 해당하는 만큼 수평으로 존재하는 위치 차이를 말한다. 따라서 사람의 두 눈에 보이는 실제 영상과 동일한 영상을 두 눈에 입력할 수 있다면 영상을 입체적으로 느낄 수 있게 된다. 이에 따라, 실제 피사체를 양안 카메라로 찍어 영상을 얻거나 CG(Computer Graphic) 피사체의 경우 양안 카메라 형태로 사상하여 영상을 생성하고, 생성된 영상을 사용자의 양쪽 눈에 보여줌으로써 입체감을 제공할 수 있다.The commercialization of 3D content and 3D broadcasting are mainly based on binocular disparity. The binocular parallax is a positional difference between the image seen by the left eye and the image seen by the right eye when the person looks at a single object using two eyes. Therefore, if the same image as the actual image seen in two eyes of the person can be input into the two eyes, the image can be sensed in three dimensions. Accordingly, a stereoscopic effect can be provided by capturing an actual subject with a binocular camera to obtain an image, mapping the image to a binocular camera in the case of a CG (Computer Graphic) subject, and displaying the generated image to both eyes of the user .

본 발명이 이루고자 하는 기술적 과제는 인터레이스 해상도를 갖는 입체영상 데이터를 디인터레이스하지 않고 재생할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.An aspect of the present invention is to provide an electronic device and a stereoscopic image reproducing method capable of reproducing stereoscopic image data having an interlace resolution without deinterlacing.

본 발명이 이루고자 하는 기술적 과제는 Full-HD 입체영상을 1920x1080i로 표시할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.An aspect of the present invention is to provide an electronic device and a stereoscopic image reproducing method capable of displaying a full-HD stereoscopic image at 1920 x 1080i.

본 발명이 이루고자 하는 기술적 과제는 입체영상의 종류 및 사용자에 맞추어 적절한 입체영상 재생 방법을 선택할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.An aspect of the present invention is to provide an electronic device and a stereoscopic image reproducing method capable of selecting a stereoscopic image reproducing method suitable for a type of stereoscopic image and a user.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 재생 방법은, 제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 단계, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하는 단계, 여기서 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖고, 및 상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a stereoscopic image reproducing method, comprising: receiving image data including a left eye view image frame having a first resolution and a right eye view image frame having the first resolution; Generating a first image frame and a second image frame based on the left eye view image frame and the right eye view image frame, wherein the first image frame and the second image frame include the left eye view image frame and the right eye view image frame, Wherein the first image frame and the second image frame have pixel data of one of right eye view image frames and another pixel data of even lines and have a progressive resolution corresponding to the first resolution or the first resolution, And scanning the two image frames.

상기 스캔하는 단계는, 상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함할 수 있다.The scanning may include scanning the first image frame and the second image frame at a frame rate corresponding to twice the frame rate of the received image data.

상기 스캔하는 단계는, 상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 단계를 포함할 수 있다.The scanning may include scanning the first image frame and the second image frame with a vertical scanning frequency corresponding to a vertical scan frequency of the received image data.

상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성할 수 있다.The first image frame and the second image frame may form one stereoscopic image.

상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것일 수 있다.The pixel data included in the first line of the first image frame may be the same as the pixel data included in the first line of the second image frame.

상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터일 수 있다.The pixel data included in the second odd-numbered line of the first image frame may be the pixel data of the second line, and the pixel data included in the second odd-numbered line of the second image frame may be the pixel data of the third line.

상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함할 수 있다.The first line of the second image frame may include pixel data of the next line of the pixel data included in the first line of the first image frame.

상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p인 것일 수 있다.The first resolution may be one of 1920 × 1080i and 1920 × 1080p, and the resolution of the first image frame and the second image frame may be 1920 × 1080p.

상기의 입체영상 재생 방법은 수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 단계, 상기 입체영상 재생 모드가 디인터레이스 모드인 경우에는, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 디인터레이스하는 단계, 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하는 단계 및 상기 생성된 제3 영상 프레임을 스캔하는 단계를 더 포함하고, 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 생성하는 단계는 상기 입체영상 재생 모드가 인터레이스 모드인 경우에 수행되는 것일 수 있다.The stereoscopic image reproducing method includes the steps of: checking a stereoscopic image reproducing mode based on at least one of received broadcast information and stored setting information; when the stereoscopic image reproducing mode is the deinterlacing mode, Generating a third image frame based on the deinterlaced left eye view image frame and the deinterlaced right eye view image frame, and scanning the generated third image frame, The generating of the first image frame and the second image frame may be performed when the stereoscopic image reproducing mode is an interlace mode.

상기의 입체영상 재생 방법은 상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 단계, 및 상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하는 단계를 더 포함할 수 있다.The stereoscopic image reproducing method includes the steps of detecting a user action requesting a graphical user interface (GUI) for setting the setting information, and in response to detecting the user action, And displaying a screen including an area in which the image data is displayed.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 전자 장치는, 제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 수신부, 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖는 제1 영상 프레임 및 제2 영상 프레임을 생성하는 포맷터, 및 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 디스플레이를 포함할 수 있다.According to another aspect of the present invention, there is provided an electronic apparatus including a receiver for receiving image data including a left eye view image frame having a first resolution and a right eye view image frame having the first resolution, Wherein the first resolution and the second resolution match the first resolution and the second resolution, respectively, and the first resolution and the second resolution match the first resolution and the second resolution, respectively, A formatter for generating one image frame and a second image frame, and a display for scanning the first image frame and the second image frame.

상기 디스플레이는, 상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.The display may scan the first image frame and the second image frame at a frame rate corresponding to twice the frame rate of the received image data.

상기 디스플레이는, 상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.The display may scan the first image frame and the second image frame at a vertical scanning frequency corresponding to a vertical scan frequency of the received image data.

상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것일 수 있다.The first image frame and the second image frame may form one stereoscopic image.

상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것일 수 있다.The pixel data included in the first line of the first image frame may be the same as the pixel data included in the first line of the second image frame.

상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터일 수 있다.The pixel data included in the second odd-numbered line of the first image frame may be the pixel data of the second line, and the pixel data included in the second odd-numbered line of the second image frame may be the pixel data of the third line.

상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함할 수 있다.The first line of the second image frame may include pixel data of the next line of the pixel data included in the first line of the first image frame.

상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 생성된 영상 프레임의 해상도는 1920×1080p일 수 있다.The first resolution may be one of 1920 × 1080i and 1920 × 1080p, and the resolution of the generated image frame may be 1920 × 1080p.

상기 전자 장치는 수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 제어부 및 상기 확인 결과에 따라 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임에 디인터레이스를 더 수행하는 스케일러를 더 포함하고, 상기 포맷터는, 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하고, 상기 디스플레이부는, 상기 제3 영상 프레임을 스캔할 수 있다.The electronic device includes a controller for confirming a stereoscopic image playback mode based on at least one of received broadcast information and stored setting information, and a scaler for performing deinterlacing on the left eye view image frame and the right eye view image frame according to the confirmation result. And the formatter generates a third image frame based on the deinterlaced left eye view image frame and the deinterlaced right eye view image frame, and the display unit can scan the third image frame.

상기 제어부는, 상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 하고, 상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면이 디스플레이되도록 제어할 수 있다.Wherein the control unit detects a user action requesting a graphical user interface (GUI) for setting the setting information, and in response to detecting the user action, It is possible to control so that a screen including an area to be displayed is displayed.

본 발명에 따른 전자 장치 및 입체영상 재생 방법에 의하면, 디인터레이스를 수행하지 않고 입체영상 데이터를 처리할 수 있어, 디인터레이스로 인한 화질 저하를 방지할 수 있고 보다 신속하게 입체영상 데이터를 재생할 수 있으며, 디인터레이스를 위한 하드웨어 모듈이 요구되지 않아 보다 저렴한 비용으로 전자 장치를 제작할 수 있고, Full-HD 입체영상을 1920x1080i로 표시할 수 있다. 또한 사용자가 설정한 정보에 따라 입체영상 재생 방법을 선택하므로, 사용자는 개개인의 기호에 맞추어 입체영상을 재생할 수 있고, 수신된 방송 정보에 따라 입체영상 재생 방법을 선택하므로, 입체영상의 종류에 따라 적정한 방법으로 입체영상을 재생할 수 있다.According to the electronic device and the stereoscopic image reproducing method according to the present invention, it is possible to process stereoscopic image data without performing deinterlacing, thereby preventing deterioration of image quality due to deinterlacing, enabling stereoscopic image data to be reproduced more quickly, It is possible to manufacture an electronic device at a lower cost and display a Full-HD stereoscopic image at 1920x1080i. Also, since the stereoscopic image reproduction method is selected according to the information set by the user, the user can reproduce the stereoscopic image according to the preference of the individual, and the stereoscopic image reproduction method is selected according to the received broadcast information. The stereoscopic image can be reproduced in an appropriate manner.

도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 양안시차 방식을 도시한 도면,
도 3은 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함한 영상 데이터의 포맷들을 도시한 도면,
도 4는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 5는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제1 실시예가 도시된 도면,
도 6은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제2 실시예가 도시된 도면,
도 7은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제3 실시예가 도시된 도면,
도 8은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제4 실시예가 도시된 도면,
도 9a 및 도 9b는 인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면,
도 10은 디인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면,
도 11은 입체영상 재생 모드를 설정하기 위한 화면의 일실시예가 도시된 도면, 그리고,
도 12는 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 일실시예의 수행과정을 도시한 흐름도이다.
1 is a block diagram showing a configuration of a preferred embodiment of an electronic device according to the present invention;
2 is a diagram illustrating a binocular disparity system,
3 is a diagram illustrating formats of image data including left eye view image data and right eye view image data,
4 is a block diagram showing a configuration of a preferred embodiment of the signal processing unit,
FIG. 5 is a diagram illustrating a first embodiment of a pixel data structure of a first image frame and a second image frame generated by an electronic device according to the present invention.
6 is a view showing a second embodiment of the pixel data configuration of the first image frame and the second image frame generated by the electronic device according to the present invention,
7 is a diagram illustrating a third embodiment of the pixel data structure of the first image frame and the second image frame generated by the electronic device according to the present invention.
8 is a view showing a fourth embodiment of the pixel data structure of the first image frame and the second image frame generated by the electronic device according to the present invention,
FIGS. 9A and 9B are views for explaining a stereoscopic image reproducing method in the interlace mode,
FIG. 10 is a diagram for explaining a stereoscopic image reproducing method in a deinterlaced mode,
11 is a view illustrating an exemplary screen for setting a stereoscopic image reproduction mode, and FIG.
12 is a flowchart illustrating a method of performing a stereoscopic image reproducing method according to an exemplary embodiment of the present invention.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The structure and operation of the present invention shown in the drawings and described by the drawings are described as at least one embodiment, and the technical ideas and the core structure and operation of the present invention are not limited thereby.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.1 is a block diagram showing a configuration of a preferred embodiment of an electronic device according to the present invention.

도 1을 참조하면, 본 발명에 따른 전자 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 전자 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 전자 장치(100)는 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.1, an electronic device 100 according to the present invention includes a receiving unit 101, a signal processing unit 140, a display 150, a voice output unit 160, an input device 170, a storage unit 180, And a control unit 190. The electronic device 100 may be a personal computer system such as a desktop, laptop, tablet or handheld computer. The electronic device 100 may be a mobile terminal such as a mobile phone, a smart phone, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation device, .

수신부(101)는 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터, 프로그램 코드를 수신할 수 있다. 여기서 영상 데이터는 양안시차 방식의 입체영상 데이터일 수 있다. 입체영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 입체영상 데이터는 적어도 하나의 좌안 시점 영상 데이터와 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다. 또한 입체영상 데이터는 사이드 바이 사이드(side by side) 포맷, 탑 앤 바텀(top and bottom) 포맷, 체커 보드(checker board) 포맷 및 프레임 시퀀셜(Frame sequential) 포맷 중 하나의 포맷을 가질 수 있다.The receiving unit 101 can receive broadcast data, video data, audio data, information data, and program codes. Here, the image data may be stereoscopic image data of a binocular parallax system. The stereoscopic image data may be a stereo view image or a multi-view image. That is, the stereoscopic image data may include at least one left eye view image data and at least one right eye view image data. The stereoscopic image data may also have a format of one of a side by side format, a top and bottom format, a checker board format and a frame sequential format.

도 2는 양안시차 방식을 도시한 도면이고, 도 3은 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함한 영상 데이터의 포맷들을 도시한 도면이다.FIG. 2 is a diagram illustrating a binocular disparity system, and FIG. 3 is a diagram illustrating formats of image data including left eye view image data and right eye view image data.

도 2 및 도 3을 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 적어도 좌안 시점 영상(201) 및 우안 시점 영상(202)을 시청자의 양 눈(211, 212)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(201) 및 우안 시점 영상(202)의 양안 시차에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라진다.2 and 3, the binocular disparity system displays at least the left-eye view image 201 and the right-eye view image 202 captured by a binocular camera or the like on both eyes 211 and 212 of the viewer, Dimensional display system. The binocular disparity between the left eye view image 201 and the right eye view image 202 varies according to the spatial sense or stereoscopic effect provided to the viewer.

좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 좁을수록, 좌안(211) 및 우안(212)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 또한 좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 넓을수록, 좌안(211) 및 우안(212)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.As the interval between the left eye view image 201 and the right eye view image 202 is narrowed, images are perceived to form at distances far from the left eye 211 and the right eye 212, so that the sense of space or stereoscopic effect provided to viewers can be reduced . Also, as the interval between the left eye view image 201 and the right eye view image 202 is wider, it is recognized that an image is formed at a close distance from the left eye 211 and the right eye 212, .

사이드 바이 사이드(side by side) 포맷(310)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(311)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(312)가 사람의 좌안과 우안에 각각 서로 직교하도록 나란히 입력되는 포맷이다. 사이드 바이 사이드 포맷의 영상 프레임(310)에는 하나의 좌안 시점 영상 프레임(311) 및 하나의 우안 시점 영상 프레임(312)이 나란히 배치된다.The side by side format 310 includes a left eye view image data 311 for displaying a left eye view image 201 and right eye view image data 312 for displaying a right eye view image 202, And are orthogonal to each other in the right eye. One left eye view image frame 311 and one right eye view image frame 312 are arranged side by side in an image frame 310 of side by side format.

탑 앤 바텀(top and bottom) 포맷(320)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(321)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(322)가 상하로 입력되는 포맷이다. 탑 앤 바텀 포맷의 영상 프레임(320)에는 하나의 좌안 시점 영상 프레임(321) 및 하나의 우안 시점 영상 프레임(322)이 상하로 배치된다. The top and bottom format 320 includes left eye view image data 321 for displaying the left eye view image 201 and right eye view image data 322 for displaying the right eye view image 202, Format. One left eye view image frame 321 and one right eye view image frame 322 are arranged vertically in the top and bottom format image frames 320.

체커 보드(checker board) 포맷(330)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(331)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(332)가 체스판 모양으로 시간적으로 번갈아 입력되는 포맷이다. 체커 보드 포맷의 영상 프레임(330)에는 좌안 시점 영상(201)의 화소 데이터와 우안 시점 영상(202)의 화소 데이터가 체스판 모양으로 시간적으로 번갈아 배치된다.The checker board format 330 includes left eye view image data 331 for displaying the left eye view image 201 and right eye view image data 332 for displaying the right eye view image 202 in a chessboard- . ≪ / RTI > The pixel data of the left eye view image 201 and the pixel data of the right eye view image 202 are alternately arranged in chessboard shape in the video frame 330 of the checkerboard format.

프레임 시퀀셜(Frame sequential) 포맷(340)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(341) 및 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(342)가 시간차를 두어 입력되는 방식이다. 프레임 시퀀셜 포맷에서 하나의 좌안 시점 영상 프레임(341) 및 하나의 우안 시점 영상 프레임(342)이 하나의 독립된 영상 프레임으로 수신된다. The frame sequential format 340 includes a left eye view image data 341 for displaying the left eye view image 201 and a right eye view image data 342 for displaying the right eye view image 202 with a time difference Method. In the frame sequential format, one left eye view image frame 341 and one right eye view image frame 342 are received in one independent image frame.

수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다. 또한 수신부(101)는 입체영상 재생 모드 정보를 수신할 수 있다. 즉 튜너부(110), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)는 입체감 설정 정보를 수신할 수 있다. 또한 입체영상 재생 모드 정보는 방송 정보에 포함되어 전송될 수 있다. 일예로, 입체감 설정 정보는 DVB SI 표준의 EIT(Event Information Table)에 포함되어 전송될 수 있고, BCG 디스커버리 레코드(Broadband Content Guide Discovery Record)에 포함되어 전송될 수 있다.The receiving unit 101 may include a tuner unit 110, a demodulation unit 120, a mobile communication unit 115, a network interface unit 130, and an external signal receiving unit 130. Also, the receiving unit 101 can receive the stereoscopic image playback mode information. That is, the tuner unit 110, the mobile communication unit 115, the network interface unit 130, and the external signal receiving unit 135 can receive the three-dimensional setting information. Also, the stereoscopic image reproduction mode information may be included in the broadcast information and transmitted. For example, the three-dimensional setting information may be transmitted in an EIT (Event Information Table) of a DVB SI standard, and may be included in a BCG discovery record.

튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.The tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by a user from among RF (Radio Frequency) broadcast signals received through an antenna, converts the selected RF broadcast signal into an intermediate frequency signal, a baseband image, Conversion.

복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 일예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우에는, 복조부(120)는 8-VSB(8-Vestigial Side Band) 복조를 수행한다. 또 다른 예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation. For example, when the digital IF signal output from the tuner unit 110 is the ATSC scheme, the demodulation unit 120 performs 8-VSB (8-Vestigial Side Band) demodulation. As another example, when the digital IF signal output from the tuner unit 110 is a DVB scheme, the demodulator 120 performs CODDMA (Coded Orthogonal Frequency Division Modulation) demodulation.

또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.Also, the demodulation unit 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, and a reed solomon decoder to perform trellis decoding, deinterleaving, Solomon decoding can be performed.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. At this time, the stream signal may be a signal in which a video signal, a voice signal, or a data signal is multiplexed. For example, the stream signal may be an MPEG-2 TS (Transport Stream) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, or the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다. The stream signal output from the demodulation unit 120 may be input to the signal processing unit 140.

이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication unit 115 transmits / receives a radio signal to / from at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

외부 신호 수신부(135)는 외부 장치와 전자 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 전자 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호를 디스플레이할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다. The external signal receiving unit 135 may provide an interface for connecting the external device and the electronic device 100. The external device may refer to various types of video or audio output devices such as a DVD (Digital Versatile Disk), a Blu-ray, a game device, a camcorder, a computer (notebook) Device. The electronic device 100 can display a video signal and a voice signal received from the external signal receiving unit 135, and can store or use the data signal.

또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있다. 촬영 장치(90)는 사람의 손 영역을 인식하여 손 영역에 초점을 맞추고, 줌인하여 촬상할 수 있다. 여기서 촬상된 손 모양은 공간 제스처로 인식될 수 있다. 즉 제어부(190)는 촬상된 손 모양을 공간 제스처로 인식하고 인식된 공간 제스처와 연관된 동작들을 수행하는 명령어들을 실행할 수 있다. 여기서 공간 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 촬영 장치(90)로부터 수신되는 영상 프레임 또는 영상으로부터 인식되는 제스처로 정의될 수 있다. The external device may also be a photographing device 90. [ The photographing apparatus 90 may include a plurality of cameras. The photographing apparatus 90 can photograph a person. The photographing apparatus 90 recognizes a hand region of a person, focuses on the hand region, and can zoom in to pick up the image. The hand shape captured here can be recognized as a space gesture. That is, the control unit 190 can execute the instructions for recognizing the captured hand shape as a space gesture and performing operations associated with the recognized space gesture. Where a spatial gesture can be defined as a gesture recognized from an image frame or image received from the imaging device 90, which is mapped to one or more specific computing operations.

일부 실시예로, 전자 장치(100)는 촬영 장치(90)를 포함할 수 있다.In some embodiments, the electronic device 100 may include a photographing device 90.

신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)로 영상을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다. The signal processing unit 140 demultiplexes the stream signal output from the demodulation unit 210 and performs signal processing on the demultiplexed signal and then outputs the image to the display 150 and outputs the image to the audio output unit 160 And outputs the sound 161. The signal processing unit 140 may receive video data, audio data, and broadcast data from the mobile communication unit 115, the network interface unit 130, and the external signal receiving unit 135.

신호 처리부(140)는 제어부(190)로부터 입체영상 재생 모드를 나타내는 입체영상 재생 모드 신호를 수신할 수 있다. 그리고 신호 처리부(140)는 수신한 입체영상 재생 모드 신호에 따라 입체영상 데이터를 처리할 수 있다. 여기서, 입체영상 재생 모드는 인터레이스 모드 및 디인터레이스 모드 중 하나일 수 있다.The signal processing unit 140 may receive a stereoscopic image playback mode signal indicating a stereoscopic image playback mode from the controller 190. [ The signal processing unit 140 may process the stereoscopic image data according to the received stereoscopic image reproduction mode signal. Here, the stereoscopic image reproduction mode may be one of an interlace mode and a deinterlaced mode.

신호 처리부(140)는 수신부(101)로부터 수신된 입체영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 영상 프레임을 생성할 수 있다. 일부 실시예로, 신호 처리부(140)는 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 즉 신호 처리부(140)는 하나의 좌안 시점 영상 프레임 및 하나의 우안 시점 영상 프레임을 이용하여 두개의 영상 프레임을 생성한다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 하나의 입체영상 이미지를 형성할 수 있다.The signal processing unit 140 can generate an image frame based on the left eye view image frame and the right eye view image frame included in the stereoscopic image data received from the receiver 101. [ In some embodiments, the signal processing unit 140 may generate a first image frame and a second image frame based on the left eye view image frame and the right eye view image frame. That is, the signal processing unit 140 generates two image frames using one left eye view image frame and one right eye view image frame. The first image frame and the second image frame may form one stereoscopic image.

상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함할 수 있다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 상기 좌안 시점 영상 데이터의 해상도와 동일한 해상도를 가질 수 있고 상기 좌안 시점 영상 데이터의 해상도와 대응하는 프로그레시브 해상도를 가질 수 있다.The first image frame and the second image frame may include pixel data of one of a left eye view image frame and a right eye view image frame on an odd line and may include another pixel data on an even line. The first image frame and the second image frame may have the same resolution as the resolution of the left eye view image data and may have a progressive resolution corresponding to the resolution of the left eye view image data.

일부 실시예로, 신호 처리부(140)는 수신된 입체영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 그리고 신호 처리부(140)는 디인터레이스된 좌안 시점 영상 프레임 및 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성할 수 있다.In some embodiments, the signal processing unit 140 may deinterlace the left eye view image frame and the right eye view image frame included in the received stereoscopic image data. The signal processing unit 140 may generate a third image frame based on the deinterlaced left eye view image frame and the deinterlaced right eye view image frame.

신호 처리부(140)는 생성한 영상 프레임을 디스플레이(150)로 출력할 수 있다. 여기서 상기 생성한 영상 프레임은 제1 영상 프레임 및 제2 영상 프레임일 수 있고, 제3 영상 프레임일 수 있다.The signal processing unit 140 may output the generated image frame to the display 150. FIG. The generated image frame may be a first image frame, a second image frame, or a third image frame.

디스플레이(150)는 영상(152)을 디스플레이한다. 여기서 영상(152)은 입체영상일 수 있고, 디스플레이(150)는 편광 방식(Patterned Retarder type)으로 입체영상을 디스플레이할 수 있다. 또한 입체영상(152)은 신호 처리부(140)가 생성한 제1 영상 프레임 및 제2 영상 프레임이 디스플레이된 것일 수 있고, 신호 처리부(140)가 생성한 제3 영상 프레임이 디스플레이된 것일 수 있다.The display 150 displays an image 152. Here, the image 152 may be a stereoscopic image, and the display 150 may display a stereoscopic image using a patterned retarder type. In addition, the stereoscopic image 152 may be one in which the first image frame and the second image frame generated by the signal processing unit 140 are displayed, and the third image frame generated by the signal processing unit 140 is displayed.

또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 전자 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다. GUI(153)는 프로그램, 파일, 및 동작 옵션들을 그래픽 이미지로 표현한다. 그래픽 이미지는 윈도우, 필드, 대화상자, 메뉴, 아이콘, 버튼, 커서 및 스크롤바 등을 포함할 수 있다. 이러한 이미지는 미리 정의된 레이아웃으로 정렬될 수 있거나, 사용자가 취하고 있는 특정의 조치를 돕기 위해 동적으로 생성될 수 있다. 동작 동안에, 사용자는 여러 가지 그래픽 이미지와 연관된 기능 및 작업을 제기하기 위해 그 이미지를 선택 및 활성화할 수 있다. 예로서, 사용자는 윈도우의 열기, 닫기, 최소화, 또는 최대화를 행하는 버튼, 또는 특정 프로그램을 가동시키는 아이콘을 선택할 수 있다.In addition, the display 150 may operate in conjunction with the control unit 190. [ Display 150 may display a graphical user interface (GUI) 153 that provides an easy to use interface between a user of the electronic device and an application running on the operating system or operating system. The GUI 153 represents a program, a file, and operation options in the form of a graphic image. A graphical image may include a window, a field, a dialog box, a menu, an icon, a button, a cursor, a scroll bar, and the like. This image can be arranged in a predefined layout, or it can be dynamically created to help the user take the specific action taken. During operation, the user may select and activate the image to raise the functions and tasks associated with the various graphic images. By way of example, the user may select a button to open, close, minimize, or maximize a window, or an icon to activate a particular program.

음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.The audio output unit 160 may receive the audio data from the signal processing unit 140 and the control unit 190 and may output the audio 161 on which the received audio data is reproduced.

입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려 놓을 수 있다. 터치패드에서는, 이것과 같은 일대일 관계가 없다.The input device 170 may be a touch screen disposed on or in front of the display 150. The touch screen may be integral with the display 150 or may be a separate component. As the touch screen is disposed in front of the display 150, the user can manipulate the GUI 153 directly. For example, a user may simply place his finger on an object to be controlled. On the touchpad, there is no one-to-one relationship like this.

터치패드에 있어서, 터치패드는 디스플레이(150)로부터 떨어져 일반적으로 다른 평면에 놓여 있다. 예를 들어, 디스플레이(150)는 일반적으로 수직 평면에 위치해 있고, 터치패드는 일반적으로 수평 평면에 위치해 있다. 이것은 그의 사용을 덜 직관적이게 하며, 따라서 터치 스크린과 비교할 때 더 어렵다. 터치 스크린인 것에 부가하여, 입력장치(170)는 다중점 입력장치일 수 있다.In the touchpad, the touchpad is generally away from the display 150 and lies in a different plane. For example, the display 150 is generally located in a vertical plane, and the touchpad is generally located in a horizontal plane. This makes his use less intuitive and therefore more difficult when compared to the touch screen. In addition to being a touch screen, the input device 170 may be a multipoint input device.

저장부(180)는 일반적으로 전자 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 또한 저장부(180)는 입체영상 재생 모드 정보를 저장할 수 있다. 여기서 입체영상 재생 모드 정보는 초기값으로 제공될 수 있고, 인식된 사용자 조치에 따라 설정 및 변경될 수 있다.The storage 180 provides a location for storing program codes and data typically used by the electronic device 100. Also, the storage unit 180 may store stereoscopic image reproduction mode information. Here, the stereoscopic image reproduction mode information may be provided as an initial value, and may be set and changed according to a recognized user action.

저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 전자 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.The storage unit 180 may be implemented as a read-only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside on a removable storage medium and may be loaded or installed onto the electronic device 100 as needed. The removable storage medium may include a CD-ROM, a PC-CARD, a memory card, a floppy disk, a magnetic tape, and a network component.

제어부(190)는 명령어를 실행하고 전자 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 전자 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.The control unit 190 executes an instruction and performs an operation associated with the electronic device 100. For example, using the instructions retrieved from storage 180, controller 190 may control input and output between components of electronic device 100, and the reception and processing of data. The control unit 190 may be implemented on a single chip, a plurality of chips, or a plurality of electrical components. Various architectures may be used for the controller 190, including, for example, a dedicated or embedded processor, a single purpose processor, a controller, an ASIC,

제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.The control unit 190 executes the computer code together with the operating system and generates and uses data. The operating system is generally known and will not be described in more detail. By way of example, the operating system may be a Windows-based OS, Unix, Linux, Palm OS, DOS, Android and Macintosh. The operating system, other computer code, and data may reside within the storage 180 operating in conjunction with the controller 190.

제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 전자 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 전자 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다.The control unit 190 can recognize the user action and control the electronic device 100 based on the recognized user action. Wherein the user action comprises selecting a physical button on the electronic device or remote control, performing a predetermined gesture on the touch screen display surface or selecting a soft button, performing a predetermined gesture recognized from the image photographed by the imaging device, And may include the implementation of certain vocalizations that are recognized. The external signal receiving unit 135 can receive a signal for a user action for selecting a physical button of the remote control through a remote controller.

제스처는 터치 제스처와 공간 제스처를 포함할 수 있다. 터치 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 입력장치(170)와의 양식화된 상호작용으로서 정의될 수 있다. 터치 제스처는 여러 가지 손을 통해, 보다 상세하게는 손가락 움직임을 통해 행해질 수 있다. 다른 대안으로서 또는 그에 부가하여, 제스처는 스타일러스로 행해질 수 있다.Gestures can include touch gestures and space gestures. The touch gesture can be defined as a stylized interaction with the input device 170, which is mapped to one or more specific computing operations. The touch gesture can be done through various hands, and more particularly through finger movements. Alternatively or additionally, the gesture can be done with a stylus.

입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.The input device 170 receives the gesture 171 and the control 190 executes the instructions that perform the actions associated with the gesture 171. In addition, the storage 180 may include a gesture operating program 181 that may be an operating system or part of a separate application. Gesture activation program 181 generally includes a series of instructions to recognize the occurrence of gestures 171 and to inform one or more software agents of what action (s) should be taken in response to gestures 171 and / or gestures 171 . ≪ / RTI >

사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 전자 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다. 예로서, 이들 명령은 줌잉, 패닝, 스크롤링, 페이지 넘김, 회전, 크기조정, 영상 채널 변경, 컨텐츠 수신, 인터넷 접속 등과 연관되어 있을 수 있다. 추가의 예로서, 명령은 또한 특정의 프로그램을 기동시키는 것, 파일 또는 문서를 여는 것, 메뉴를 보는 것, 선택을 하는 것, 명령어를 실행하는 것, 인터넷 사이트 시스템에 로그온하는 것, 인가된 개인에게 컴퓨터 시스템의 제한된 영역에의 액세스를 허용하는 것, 바탕화면의 사용자 선호 배열과 연관된 사용자 프로파일을 로드하는 것, 및/또는 기타 등등과 연관되어 있을 수 있다.When the user performs one or more gestures, the input device 170 delivers the gesture information to the control unit 190. [ The control unit 190 analyzes the gesture 171 using the instruction from the storage unit 180 and more specifically the gesture operation program 181 and controls the storage unit 180, the display 150, the audio output unit The signal processing unit 140, the network interface unit 130 and the input device 170 of the electronic device 100 according to an embodiment of the present invention. The gesture 171 performs operations in the application stored in the storage unit 180, modifies the GUI object displayed on the display 150, modifies the data stored in the storage unit 180, ), And can be identified as an instruction to perform an operation in the signal processing unit 140. [ By way of example, these commands may be associated with zooming, panning, scrolling, turning pages, rotating, resizing, changing video channels, receiving content, accessing the Internet, and so on. As a further example, the command may also be used to activate a particular program, to open a file or document, to view a menu, to make a selection, to execute a command, to log onto an Internet site system, Allowing access to a limited area of the computer system, loading a user profile associated with the user preference array of the desktop, and / or the like.

일부 실시예들에서, 손가락과 터치 스크린 디스플레이 간의 파라미터(예를 들어, 커패시턴스)의 크기에 따라, 이 파라미터가 미리 정해진 문턱값을 넘을 때, 다운 이벤트가 일어나고, 이 파라미터가 미리 정해진 문턱값을 넘고 있는 동안에 손가락의 대응하는 커서 위치가 위치 A로부터 위치 B로 이동할 때, 드래깅 이벤트가 일어나며, 이 파라미터가 문턱값 레벨 아래로 떨어질 때 업 이벤트가 일어난다.In some embodiments, depending on the magnitude of the parameter (e.g., capacitance) between the finger and the touch screen display, when the parameter exceeds a predetermined threshold, a down event occurs and the parameter exceeds a predetermined threshold A dragging event occurs when the corresponding cursor position of the finger moves from position A to position B and an up event occurs when this parameter falls below the threshold level.

제어부(190)는 입체영상 재생 모드를 결정 또는 확인할 수 있다. 일부 실시예로, 제어부(190)는 인식된 사용자 조치를 기초로 입체영상 재생 모드를 결정할 수 있고, 수신된 입체영상 데이터의 해상도 및 포맷 중 적어도 하나를 기초로 입체영상 재생 모드를 결정할 수 있다. 또한 제어부(190)는 수신된 방송 정보를 기초로 입체영상 재생 모드를 결정 또한 확인할 수 있고, 저장된 입체영상 재생 모드 정보를 기초로 입체영상 재생 모드를 확인할 수 있다.The control unit 190 can determine or confirm the stereoscopic image playback mode. In some embodiments, the controller 190 may determine the stereoscopic image playback mode based on the recognized user action, and may determine the stereoscopic image playback mode based on at least one of the resolution and the format of the received stereoscopic image data. Also, the controller 190 can determine and confirm the stereoscopic image playback mode based on the received broadcast information, and can confirm the stereoscopic image playback mode based on the stored stereoscopic image playback mode information.

제어부(190)는 신호 처리부(140)로 하여금 결정한 또는 확인한 입체영상 재생 모드에 따라 입체영상 데이터를 처리하도록 제어할 수 있다.The control unit 190 may control the signal processing unit 140 to process the stereoscopic image data according to the determined or confirmed stereoscopic image reproduction mode.

또한 제어부(190)는 입체영상 재생 모드를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지할 수 있다. 상기 사용자 조치의 감지에 응답하여, 제어부(190)는 상기 그래픽 사용자 인터페이스(GUI: Graphical User Interface) 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하기 위한 신호가 생성되도록 제어할 수 있다. 여기서 상기 영역에는 입체영상이 디스플레이될 수 있다.In addition, the controller 190 may detect a user action requesting a graphical user interface (GUI) for setting a stereoscopic image playback mode. In response to the detection of the user action, the controller 190 may control to generate a signal for displaying a screen including the graphical user interface (GUI) and the area where the image data is displayed. Here, a stereoscopic image may be displayed in the area.

제어부(190)는 신호 처리부(140)로 하여금 상기 GUI를 통해 설정된 입체영상 재생 모드에 따라 상기 화면에 디스플레이되는 영상을 처리하도록 제어할 수 있다.The control unit 190 may control the signal processing unit 140 to process the image displayed on the screen according to the stereoscopic image reproduction mode set through the GUI.

또한 제어부(190)는, 상기 GUI를 통해 설정된 입체영상 재생 모드를 나타내는 정보인 입체영상 재생 모드 정보가 저장부(190)에 저장되도록 제어할 수 있다.Also, the controller 190 may control the stereoscopic image playback mode information, which is information indicating the stereoscopic image playback mode set through the GUI, to be stored in the storage unit 190. [

도 4는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.4 is a block diagram showing the configuration of a preferred embodiment of the signal processing unit.

도 4를 참조하면, 신호 처리부(140)는 역다중화부(410), 오디오 디코더(420), 비디오 디코더(430), 스케일러(440), 믹서(450), 포맷터(460) 및 영상 인터페이스부(470)를 포함할 수 있다.4, the signal processing unit 140 includes a demultiplexing unit 410, an audio decoder 420, a video decoder 430, a scaler 440, a mixer 450, a formatter 460, 470).

역다중화부(410)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 입력부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(410)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 정보 데이터로 역다중화하여 각각 비디오 디코더(430), 오디오 디코더(420) 및 제어부(190)로 출력할 수 있다.The demultiplexing unit 410 can receive a stream signal from the mobile communication unit 115, the network interface unit 130 and the external signal input unit 135. The demultiplexing unit 410 demultiplexes the received stream signal into video data, Demultiplexed into audio data and information data, and output to the video decoder 430, the audio decoder 420, and the control unit 190, respectively.

오디오 디코더(420)는 역다중화부(410)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(440) 또는 음성 출력부(160)로 출력할 수 있다.The audio decoder 420 receives the voice data from the demultiplexing unit 410 and restores the received voice data to output the restored data to the scaler 440 or the voice output unit 160.

비디오 디코더(430)는 역다중화부(410)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하고 복원한 영상 데이터를 스케일러(440)에 출력한다. 여기서 영상 데이터는 입체영상 데이터를 포함할 수 있다.The video decoder 430 receives the video data from the demultiplexer 410, restores the received video data, and outputs the restored video data to the scaler 440. Here, the image data may include stereoscopic image data.

스케일러(440)는 비디오 디코더(430), 제어부(190) 및 오디오 디코더(420)에서 처리된 영상 데이터 및 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(260)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 포맷, 1280x720 포맷, 1280x768 포맷, 1280x800 포맷, 1920x540 포맷 및 1920x1080 포맷 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(260)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.The scaler 440 converts the video data and audio data processed by the video decoder 430, the controller 190 and the audio decoder 420 into signals of appropriate sizes for outputting through the display 150 or the speaker Scaling. The scaler 260 receives the stereoscopic image and scales the stereoscopic image according to a resolution or a predetermined aspect ratio of the display 150. The display 150 may be manufactured to output an image screen having a predetermined resolution for each product specification, for example, 720x480 format, 1024x768 format, 1280x720 format, 1280x768 format, 1280x800 format, 1920x540 format and 1920x1080 format. Accordingly, the scaler 260 can convert the resolution of the stereoscopic image, which can be input with various values, according to the resolution of the display.

입체영상 재생 모드가 디인터레이스 모드인 경우에는, 스케일러(440)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 일부 실시예로, 1920x1080p의 해상도를 갖는 좌안 시점 영상 프레임이 수신된 경우에는, 스케일러(440)는 상기 좌안 시점 영상 프레임을 디인터레이스하여 1920x540p로 압축할 수 있다.When the stereoscopic image playback mode is the deinterlaced mode, the scaler 440 can deinterlace the left eye view image frame and the right eye view image frame. In some embodiments, when a left eye view image frame having a resolution of 1920x1080p is received, the scaler 440 may deinterlace the left eye view image frame and compress it to 1920x540p.

디인터레이스를 위해, 스케일러(440)는 영상처리 메모리(미도시), 움직임 검출부(미도시), 디인터레이스부(미도시)를 포함할 수 있다. 영상처리 메모리(미도시)는 디인터레이스될 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 임시로 저장할 수 있다. 움직임 검출부(미도시)는 영상 프레임의 움직임 유무를 판단할 수 있다. 그리고, 상기 판단에 따라 디인터레이스부(미도시)는 주사라인 사이에 보간을 위해 가상의 중간 데이터를 만들 수 있다. For de-interlacing, the scaler 440 may include an image processing memory (not shown), a motion detector (not shown), and a de-interlacing unit (not shown). The image processing memory (not shown) may temporarily store the left eye view image frame and the right eye view image frame to be deinterlaced. A motion detection unit (not shown) can determine the presence or absence of motion of the image frame. According to the determination, the deinterlacing unit (not shown) can create virtual intermediate data for interpolation between the scan lines.

또한, 스케일러(440)는 디스플레이되는 컨텐츠의 종류 또는 사용자 설정 등에 따라서, 입체영상의 화면비(aspect ratio)를 조절하여 출력한다. 화면비 값은 16:9, 4:3, 또는 3:2 등의 값이 될 수 있으며, 스케일러(440)는 가로 방향의 화면 길이 비와 세로 방향의 화면 길이 비가 특정 비율이 되도록 조절할 수도 있다. In addition, the scaler 440 adjusts the aspect ratio of the stereoscopic image according to the type of content to be displayed, user setting, or the like. The aspect ratio value may be a value such as 16: 9, 4: 3, or 3: 2, and the scaler 440 may adjust the screen length ratio in the horizontal direction and the screen length ratio in the vertical direction to be a specific ratio.

믹서(450)는 스케일러(440) 및 제어부(190)의 출력을 믹싱하여 출력한다.The mixer 450 mixes and outputs the outputs of the scaler 440 and the controller 190.

포맷터(460)는 입체영상을 구현하기 위하여 변환된 영상 데이터를 디스플레이(150)로 출력하고, 출력되는 입체영상 신호에 동기 신호(Sync signal)를 생성하여 안경(미도시)으로 전송할 수 있다. 포맷터(460)는 동기 신호의 전송을 위해 적외선 출력부(미도시)를 포함할 수 있다. 여기서, 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(미도시)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.The formatter 460 outputs the converted image data to the display 150 in order to realize a stereoscopic image, generates a synch signal to the stereoscopic image signal to be outputted, and transmits it to the glasses (not shown). The formatter 460 may include an infrared ray output unit (not shown) for transmitting the synchronization signal. Here, the synchronizing signal is a signal for synchronizing the display time of the left eye view image or the right eye view image according to the stereoscopic image signal with the opening / closing time of the left eye lens or the right eye lens of the shutter glasses (not shown).

입체영상 재생 모드가 인터레이스 모드인 경우에는, 포맷터(460)는 스케일러(440)가 스케일링한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 여기서 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도는 1920×1080i 및 1920×1080p 중 하나일 수 있다.When the stereoscopic image playback mode is the interlace mode, the formatter 460 can generate the first image frame and the second image frame based on the left eye view image frame and the right eye view image frame scaled by the scaler 440. Here, the resolution of the left eye view image frame and the right eye view image frame may be one of 1920 × 1080i and 1920 × 1080p.

도 5는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제1 실시예가 도시된 도면이다.5 is a diagram illustrating a first embodiment of a pixel data structure of a first image frame and a second image frame generated by an electronic device according to the present invention.

도 5를 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(510)을 생성하고, 제2 영상 프레임으로 영상 프레임(520)을 생성할 수 있다. 영상 프레임(510)과 영상 프레임(520)의 첫 라인에는 좌안 시점 영상 프레임의 첫 라인의 화소 데이터가 포함된다. 즉 영상 프레임(510)의 첫 라인에 포함된 화소 데이터(L1)는 영상 프레임(520)의 첫 라인에 포함된 화소 데이터(L1)와 동일하다.Referring to FIG. 5, the formatter 460 may generate an image frame 510 with a first image frame and an image frame 520 with a second image frame. The first line of the image frame 510 and the image frame 520 includes the pixel data of the first line of the left eye view image frame. That is, the pixel data L1 included in the first line of the image frame 510 is the same as the pixel data L1 included in the first line of the image frame 520.

도시된 도면에서 L은 좌안 시점 영상 데이터를 의미하고, R은 우안 시점 영상 데이터를 의미한다. 그리고 L 또는 R 다음의 숫자는 영상 프레임의 라인 번호를 의미한다. 여기서, 만일 좌안 시점 영상 프레임 및 우안 시점 영상 프레임이 인터레이스 해상도를 갖는다면, 상기 라인 번호가 홀수인 경우에는 홀수필드의 라인을 의미하고, 상기 라인 번호가 짝수인 경우에는 짝수필드의 라인을 의미한다. L1은 좌안 시점 영상 프레임의 홀수필드의 첫 라인이고, L3은 상기 홀수필드의 두 번째 라인이며, L5는 상기 홀수필드의 세 번째 라인이다. 마찬가지로, L2는 상기 좌안 시점 영상 프레임의 짝수필드의 첫 라인이고, L4는 상기 짝수필드의 두 번째 라인이면, L6은 상기 짝수필드의 세 번째 라인이다.In the drawing, L denotes left eye view image data, and R denotes right eye view image data. And the number after L or R means the line number of the image frame. Here, if the left eye view image frame and the right eye view image frame have an interlace resolution, it means an odd field line when the line number is an odd number, and a even line field if the line number is an even number . L1 is the first line of the odd field of the left eye view image frame, L3 is the second line of the odd field, and L5 is the third line of the odd field. Likewise, L2 is the first line of the even field of the left eye view image frame, L4 is the second line of the even field, and L6 is the third line of the even field.

영상 프레임(510)의 두 번째 라인은 우안 시점 영상 프레임의 첫 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(510)의 세 번째 라인은 좌안 시점 영상 프레임의 두 번째 라인의 화소 데이터(L2)를 포함하며, 영상 프레임(510)의 네 번째 라인은 우안 시점 영상 프레임의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(510)의 다섯 번째 라인은 좌안 시점 영상 프레임의 네 번째 라인의 화소 데이터(L4)를 포함한다. 즉 영상 프레임(510)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(510)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 홀수 라인의 화소 데이터가 포함된다. 그리고 영상 프레임(510)의 첫 라인을 제외한 홀수 라인에는 좌안 시점 영상 프레임의 각 짝수 라인의 화소 데이터가 포함된다.The second line of the image frame 510 includes the pixel data R1 of the first line of the right eye view image frame and the third line of the image frame 510 includes the pixel data L2 of the second line of the left eye view image frame The fourth line of the image frame 510 includes the pixel data R3 of the third line of the right eye view image frame and the fifth line of the image frame 510 includes the pixel data R3 of the fourth line of the left eye view image frame Line pixel data L4. That is, the left eye view image data is included in the odd lines of the image frame 510, and the right eye view image data is included in the even lines. Each even line of the image frame 510 includes pixel data of each odd line of the right eye view image frame. The odd line except for the first line of the image frame 510 includes pixel data of each even line of the left eye view image frame.

영상 프레임(520)의 두 번째 라인은 우안 시점 영상 프레임의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(520)의 세 번째 라인은 좌안 시점 영상 프레임의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(520)의 네 번째 라인은 우안 시점 영상 프레임의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(520)의 다섯 번째 라인은 좌안 시점 영상 프레임의 다선 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(520)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(520)의 각 홀수 라인에는 좌안 시점 영상 프레임의 각 홀수 라인 화소 데이터가 포함되고 영상 프레임(520)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 짝수 라인의 화소 데이터가 포함된다.The second line of the image frame 520 includes the pixel data R2 of the second line of the right eye view image frame and the third line of the image frame 520 includes the pixel data of the third line of the left eye view image frame The fourth line of the image frame 520 includes the pixel data R4 of the fourth line of the right eye view image frame and the fifth line of the image frame 520 includes the multi- Th line of pixel data L5. That is, the left eye view image data is included in the odd lines of the image frame 520, and the right eye view image data is included in the even lines. Each odd line of the image frame 520 includes pixel data of each odd line of the left eye view image frame and each even line of the image frame 520 includes pixel data of each even line of the right eye view image frame.

도 6은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제2 실시예가 도시된 도면이다.6 is a diagram showing a second embodiment of the pixel data structure of the first image frame and the second image frame generated by the electronic device according to the present invention.

도 6을 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(610)을 생성하고, 제2 영상 프레임으로 영상 프레임(620)을 생성할 수 있다. 영상 프레임(620)의 첫 라인은 영상 프레임(610)의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함한다. 즉 영상 프레임(620)의 첫 라인에 포함된 화소 데이터(L2)는 영상 프레임(610)의 첫 라인에 포함된 화소 데이터(L1)의 다음 라인의 화소 데이터이다.Referring to FIG. 6, the formatter 460 may generate an image frame 610 with a first image frame and an image frame 620 with a second image frame. The first line of the image frame 620 includes the pixel data of the next line of the pixel data included in the first line of the image frame 610. The pixel data L2 included in the first line of the image frame 620 is the pixel data of the next line of the pixel data L1 included in the first line of the image frame 610. [

도시된 도면에서 L은 좌안 시점 영상 데이터를 의미하고, R은 우안 시점 영상 데이터를 의미한다. 그리고 L 또는 R 다음의 숫자는 영상 프레임의 라인 번호를 의미한다. 여기서, 만일 좌안 시점 영상 프레임 및 우안 시점 영상 프레임이 인터레이스 해상도를 갖는다면, 상기 라인 번호가 홀수인 경우에는 홀수필드의 라인을 의미하고, 상기 라인 번호가 짝수인 경우에는 짝수필드의 라인을 의미한다. L1은 좌안 시점 영상 프레임의 홀수필드의 첫 라인이고, L3은 상기 홀수필드의 두 번째 라인이며, L5는 상기 홀수필드의 세 번째 라인이다. 마찬가지로, L2는 상기 좌안 시점 영상 프레임의 짝수필드의 첫 라인이고, L4는 상기 짝수필드의 두 번째 라인이면, L6은 상기 짝수필드의 세 번째 라인이다.In the drawing, L denotes left eye view image data, and R denotes right eye view image data. And the number after L or R means the line number of the image frame. Here, if the left eye view image frame and the right eye view image frame have an interlace resolution, it means an odd field line when the line number is an odd number, and a even line field if the line number is an even number . L1 is the first line of the odd field of the left eye view image frame, L3 is the second line of the odd field, and L5 is the third line of the odd field. Likewise, L2 is the first line of the even field of the left eye view image frame, L4 is the second line of the even field, and L6 is the third line of the even field.

영상 프레임(610)의 두 번째 라인은 우안 시점 영상 프레임의 첫 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(510)의 세 번째 라인은 좌안 시점 영상 프레임의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(610)의 네 번째 라인은 우안 시점 영상 프레임의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(610)의 다섯 번째 라인은 좌안 시점 영상 프레임의 다섯 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(610)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(610)의 홀수 라인에는 좌안 시점 영상 프레임의 각 홀수 라인의 화소 데이터가 포함되고, 영상 프레임(610)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 홀수 라인의 화소 데이터가 포함된다.The second line of the image frame 610 includes the pixel data R1 of the first line of the right eye view image frame and the third line of the image frame 510 includes the pixel data of the third line of the left eye view image frame L3 The fourth line of the image frame 610 includes the pixel data R3 of the third line of the right eye view image frame and the fifth line of the image frame 610 includes the fifth pixel of the left eye view image frame And pixel data L5 of the line. That is, the left eye view image data is included in the odd lines of the image frame 610, and the right eye view image data is included in the even lines. The odd lines of the image frame 610 include pixel data of odd lines of the left eye view image frame and the odd lines of the image frame 610 include pixel data of odd lines of the right eye view image frame.

영상 프레임(620)의 두 번째 라인은 우안 시점 영상 프레임의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(620)의 세 번째 라인은 좌안 시점 영상 프레임의 네 번째 라인의 화소 데이터(L4)를 포함하며, 영상 프레임(620)의 네 번째 라인은 우안 시점 영상 프레임의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(620)의 다섯 번째 라인은 좌안 시점 영상 프레임의 여섯 번째 라인의 화소 데이터(L6)를 포함한다. 즉 영상 프레임(620)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(620)의 각 홀수 라인에는 좌안 시점 영상 프레임의 각 짝수 라인 화소 데이터가 포함되고 영상 프레임(520)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 짝수 라인의 화소 데이터가 포함된다.The second line of the image frame 620 includes the pixel data R2 of the second line of the right eye view image frame and the third line of the image frame 620 includes the pixel data of the fourth line of the left eye view image frame The fourth line of the image frame 620 includes the pixel data R4 of the fourth line of the right eye view image frame and the fifth line of the image frame 620 includes six pixels of the left eye view image frame Th line of pixel data L6. That is, the left eye view image data is included in the odd lines of the image frame 620, and the right eye view image data is included in the even lines. Each odd line of the image frame 620 includes pixel data of each even line of the left eye view image frame and each even line of the image frame 520 includes pixel data of each even line of the right eye view image frame.

도 7은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제3 실시예가 도시된 도면이다.7 is a diagram illustrating a third embodiment of the pixel data structure of the first image frame and the second image frame generated by the electronic device according to the present invention.

도 7을 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(710)을 생성하고, 제2 영상 프레임으로 영상 프레임(720)을 생성할 수 있다. 여기서 영상 프레임(710)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(710)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고 영상 프레임(710)은 도 5에 도시된 영상 프레임(510)과 대응하는 구성을 갖는다. 또한 영상 프레임(720)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(720)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고, 영상 프레임(720)은 도 5에 도시된 영상 프레임(520)과 대응하는 구성을 갖는다. 이하 영상 프레임(710) 및 영상 프레임(720)에 대한 설명은 생략한다.Referring to FIG. 7, the formatter 460 may generate an image frame 710 with a first image frame and an image frame 720 with a second image frame. 5, except that right eye view image data is included in the odd lines of the image frame 710 and left eye view image data is included in the even lines of the image frame 710, (510). 5, except that right eye view image data is included in the odd lines of the image frame 720 and left eye view image data is included in the even lines of the image frame 720, And has a configuration corresponding to the frame 520. Hereinafter, the description of the image frame 710 and the image frame 720 will be omitted.

도 8은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제4 실시예가 도시된 도면이다.8 is a view showing a fourth embodiment of the pixel data structure of the first image frame and the second image frame generated by the electronic device according to the present invention.

도 8을 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(810)을 생성하고, 제2 영상 프레임으로 영상 프레임(820)을 생성할 수 있다. 여기서 영상 프레임(810)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(810)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고 영상 프레임(810)은 도 6에 도시된 영상 프레임(610)과 대응하는 구성을 갖는다. 또한 영상 프레임(820)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(820)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고, 영상 프레임(820)는 도 6에 도시된 영상 프레임(620)과 대응하는 구성을 갖는다. 이하 영상 프레임(810) 및 영상 프레임(820)에 대한 설명은 생략한다.Referring to FIG. 8, the formatter 460 may generate an image frame 810 with a first image frame and an image frame 820 with a second image frame. 6 except that the right eye view image data is included in the odd lines of the image frame 810 and the left eye view image data is included in the even lines of the image frame 810. [ (610). 6, except that the right eye view image data is included in the odd lines of the image frame 820 and the left eye view image data is included in the even lines of the image frame 820, And has a configuration corresponding to the frame 620. Hereinafter, the description of the image frame 810 and the image frame 820 will be omitted.

포맷터(460)는 생성한 제1 영상 프레임 및 제2 영상 프레임을 영상 인터페이스부(470)로 출력할 수 있다. 여기서 포맷터(460)는 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 스캔되도록 제1 영상 프레임 및 제2 영상 프레임을 출력할 수 있다. 일예로 포맷터(460)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 프로그레시브 해상도인 경우에는, 수신된 영상 데이터의 프레임 레이트의 2배로 제1 영상 프레임 및 제2 영상 프레임이 스캔되도록 출력할 수 있다.The formatter 460 may output the generated first and second image frames to the image interface unit 470. The formatter 460 may output the first image frame and the second image frame to be scanned at a frame rate corresponding to twice the frame rate of the received image data. For example, if the resolution of the left eye view image frame and the right eye view image frame is progressive resolution, the formatter 460 can output the first image frame and the second image frame to be scanned at twice the frame rate of the received image data have.

또한 포맷터(460)는 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 제1 영상 프레임 및 제2 영상 프레임을 출력할 수 있다. 일예로 포맷터(460)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 인터레이스 해상도인 경우에는, 수신된 영상 데이터의 수직주사주파수로 제1 영상 프레임 및 제2 영상 프레임이 스캔되도록 출력할 수 있다.The formatter 460 may output the first image frame and the second image frame at a vertical scanning frequency corresponding to the vertical scan frequency of the received image data. For example, when the resolution of the left eye view image frame and the right eye view image frame is the interlace resolution, the formatter 460 may output the first image frame and the second image frame to be scanned at the vertical scanning frequency of the received image data .

포맷터(460)는 스케일러(440) 또는 믹서(450)가 출력한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성할 수 있다. 여기서, 좌안 시점 영상 프레임 및 우안 시점 영상 프레임은 스케일러(440)가 디인터레이스를 수행한 것일 수 있다. 또한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도는 1920x540p일 수 있고, 상기 생성된 제3 영상 프레임의 해상도는 1920x1080p일 수 있다.The formatter 460 may generate a third image frame based on the left eye view image frame and the right eye view image frame output from the scaler 440 or the mixer 450. [ Here, the left eye view image frame and the right eye view image frame may be those in which the scaler 440 performs deinterlacing. Also, the resolution of the left eye view image frame and the right eye view image frame may be 1920x540p, and the resolution of the generated third image frame may be 1920x1080p.

영상 인터페이스부(470)는 포맷터(460)가 출력한 제1 영상 프레임 및 제2 영상 프레임을 디스플레이(150)로 출력한다. 여기서 영상 인터페이스부(470)는 LVDS 출력부(Low Voltage Differential Signaling Tx)일 수 있다.The image interface unit 470 outputs the first image frame and the second image frame output by the formatter 460 to the display 150. Here, the image interface unit 470 may be an LVDS output unit (Low Voltage Differential Signaling Tx).

또한 영상 인터페이스부(470)는 포맷터(460)가 출력한 제3 영상 프레임을 출력할 수 있다.The image interface unit 470 may output the third image frame output by the formatter 460.

도 9a 및 도 9b는 인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면이다.9A and 9B are views for explaining a stereoscopic image reproducing method in an interlace mode.

도 9a 및 도 9b를 참조하면, 입체영상 재생 모드가 인터레이스 모드인 경우에는, 스케일러(440)는 비디오 디코더(430)로부터 수신된 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스를 수행하지 않고, 믹서(450) 또는 포맷터(460)로 출력할 수 있다.9A and 9B, when the stereoscopic image playback mode is the interlace mode, the scaler 440 deinterlaces the left eye view image frame and the right eye view image frame included in the image data received from the video decoder 430 And output it to the mixer 450 or the formatter 460 without performing the operation.

포맷터(460)는 스케일러(440) 또는 믹서(450)로부터 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 수신하고, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 생성할 수 있다. 여기서 제1 영상 프레임(910) 및 제2 영상 프레임(920)은 각각 도 5에 도시된 영상 프레임(510) 및 영상 프레임(520)일 수 있고, 도 6에 도시된 영상 프레임(610) 및 영상 프레임(620)일 수 있으며, 도 7에 도시된 영상 프레임(710) 및 영상 프레임(720)일 수 있고, 도 8에 도시된 영상 프레임(810) 및 영상 프레임(820)일 수 있다.The formatter 460 receives the left eye view image frame and the right eye view image frame from the scaler 440 or the mixer 450 and generates a first image frame 910 based on the left eye view image frame and the right eye view image frame And a second image frame 920, as shown in FIG. Here, the first image frame 910 and the second image frame 920 may be the image frame 510 and the image frame 520 shown in FIG. 5, respectively, and the image frame 610 and the image Frame 620 and may be the image frame 710 and the image frame 720 shown in FIG. 7 and may be the image frame 810 and the image frame 820 shown in FIG.

LVDS Tx(901)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 디스플레이(930)로 출력할 수 있다.The LVDS Tx 901 may output the first image frame 910 and the second image frame 920 to the display 930.

디스플레이(150)는 LVDS Tx(901)로부터 수신한 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 그리고 스캔된 제1 영상 프레임(910) 및 제2 영상 프레임(920)은 시청자에게 하나의 입체영상 이미지로 인식될 수 있다. The display 150 may scan the first image frame 910 and the second image frame 920 received from the LVDS Tx 901. The scanned first image frame 910 and the second image frame 920 may be recognized as one stereoscopic image by the viewer.

디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 원래의 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 스캔할 수 있다. 일예로 디스플레이(150)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 프로그레시브 해상도인 경우에는, 원래의 영상 데이터의 프레임 레이트의 2배로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 원래의 영상 데이터의 프레임 레이트가 60HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 120HZ로 스캔할 수 있다. 또한 원래의 영상 데이터의 프레임 레이트가 120HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 240HZ로 스캔할 수 있다.The display 150 may scan the first image frame 910 and the second image frame 920 at a frame rate corresponding to twice the frame rate of the original image data. For example, when the resolution of the left eye view image frame and the right eye view image frame is progressive resolution, the display 150 displays the first image frame 910 and the second image frame 920 at twice the frame rate of the original image data, Can be scanned. If the frame rate of the original image data is 60HZ, the display 150 can scan the first image frame 910 and the second image frame 920 at 120HZ. Also, if the frame rate of the original image data is 120HZ, the display 150 can scan the first image frame 910 and the second image frame 920 at 240HZ.

또한 디스플레이(150)는 원래의 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 일예로 디스플레이(150)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 인터레이스 해상도인 경우에는, 원래의 영상 데이터의 수직주사주파수로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 원래의 영상 데이터의 수직주사주파수가 120HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 120HZ로 스캔할 수 있다. 또한 원래의 영상 데이터의 수직주사주파수가 240HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 240HZ로 스캔할 수 있다.Also, the display 150 may scan the first image frame 910 and the second image frame 920 with a vertical scanning frequency corresponding to a vertical scan frequency of the original image data. For example, when the resolution of the left eye view image frame and the right eye view image frame is the interlace resolution, the display 150 displays the first image frame 910 and the second image frame 920 at the vertical scanning frequency of the original image data Can be scanned. If the vertical scanning frequency of the original image data is 120HZ, the display 150 can scan the first image frame 910 and the second image frame 920 at 120HZ. If the vertical scanning frequency of the original image data is 240 Hz, the display 150 can scan the first image frame 910 and the second image frame 920 at 240 Hz.

화면(930)은 제1 영상 프레임(910)이 영상 프레임(510)인 경우에, 제1 영상 프레임(910)이 스캔된 화면이다. 제1 영상 프레임(910)의 각 라인(L1, R1, L2, R3 내지 L1078, R1079)은 각각 화면(930)의 해당 스캔라인에 스캔된다. 여기서 디스플레이(150)는 제1 영상 프레임(910)을 순차주사(Progressive Scan) 방식으로 스캔할 수 있다.The screen 930 is a screen in which the first image frame 910 is scanned when the first image frame 910 is the image frame 510. Each of the lines L1, R1, L2, R3 through L1078, and R1079 of the first image frame 910 is scanned on the corresponding scan line of the screen 930, respectively. Here, the display 150 may scan the first image frame 910 in a progressive scan manner.

화면(940)은 제2 영상 프레임(920)이 영상 프레임(510)인 경우에, 제2 영상 프레임(920)이 스캔된 화면이다. 제2 영상 프레임(920)의 각 라인(L1, R2, L3, R4 내지 L1079, R1080)은 각각 화면(940)의 해당 스캔라인에 스캔된다. 여기서 디스플레이(150)는 제2 영상 프레임(920)을 순차주사(Progressive Scan) 방식으로 스캔할 수 있다.The screen 940 is a screen on which the second image frame 920 is scanned when the second image frame 920 is the image frame 510. [ Each of the lines L1, R2, L3, R4 through L1079, and R1080 of the second image frame 920 is scanned on the corresponding scan line of the screen 940, respectively. Here, the display 150 may scan the second image frame 920 in a progressive scan manner.

도 10은 디인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining a stereoscopic image reproducing method in a deinterlaced mode. FIG.

도 10을 참조하면, 입체영상 재생 모드가 디인터레이스 모드인 경우에는, 스케일러(440)는 수신부(1010로부터 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 그리고, 스케일러(440)는 디인터레이스한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 믹서(450) 또는 포맷터(460)로 출력할 수 있다.10, when the stereoscopic image playback mode is the deinterlaced mode, the scaler 440 can deinterlace the left eye view image frame and the right eye view image frame included in the image data received from the receiver 1010. Then, The scaler 440 may output the deinterlaced left eye view image frame and the right eye view image frame to the mixer 450 or the formatter 460.

포맷터(460)는 스케일러(440) 또는 믹서(450)로부터 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 수신하고, 수신한 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임(1010)을 생성할 수 있다.The formatter 460 receives the deinterlaced left eye view image frame and the deinterlaced right eye view image frame from the scaler 440 or the mixer 450 and receives the deinterlaced left eye view image frame and the deinterlaced right eye view image frame The third image frame 1010 can be generated based on the frame.

LVDS Tx(1020)는 생성된 제3 영상 프레임(1020)을 디스플레이(150)로 출력할 수 있다.The LVDS Tx 1020 may output the generated third image frame 1020 to the display 150.

디스플레이(150)는 LVDS Tx(1020)로부터 제3 영상 프레임(1020)을 수신하고, 수신한 제3 영상 프레임(1020)을 스캔할 수 있다. 일예로 디스플레이(150)는 화면(1030)과 같이 제3 영상 프레임(1020)을 스캔할 수 있다. 화면(1030)은 좌안 시점 영상 프레임(1011)의 라인과 우안 시점 영상 프레임(1012)의 라인이 교대로 스캔라인에 스캔된 화면이다. 여기서 디스플레이(150)는 제3 영상 프레임(1010)을 순차주사(Progressive Scan) 방식으로 스캔할 수 있다.The display 150 may receive the third image frame 1020 from the LVDS Tx 1020 and may scan the received third image frame 1020. For example, the display 150 may scan a third image frame 1020, such as a screen 1030. The screen 1030 is a screen in which the lines of the left eye view image frame 1011 and the lines of the right eye view image frame 1012 are alternately scanned on the scan lines. Here, the display 150 may scan the third image frame 1010 in a progressive scan manner.

도 11은 입체영상 재생 모드를 설정하기 위한 화면의 일실시예가 도시된 도면이다.FIG. 11 is a diagram illustrating an example of a screen for setting a stereoscopic image playback mode.

도 11을 참조하면, 디스플레이(150)는 화면(1100)을 디스플레이할 수 있다.Referring to FIG. 11, the display 150 may display a screen 1100.

화면(1100)은 입체영상 재생 모드 정보를 설정하기 위한 GUI(1110), 영상 데이터가 디스플레이되는 영역(1120) 및 영역(1120)에 디스플레이되는 영상의 장르를 지시하는 표시(1130)를 포함한다. 여기서 표시(1130)는 야구를 지시하고 있고, 영역(1120)은 야구 경기의 영상을 디스플레이한다. The screen 1100 includes a GUI 1110 for setting stereoscopic image playback mode information, an area 1120 where image data is displayed, and a display 1130 indicating a genre of an image displayed in the area 1120. Here, the indication 1130 indicates a baseball, and the area 1120 displays an image of a baseball game.

GUI(1110)는 인터페이스 모드를 선택하기 위한 옵션 버튼(1111) 및 디인터레이스 모드를 선택하기 위한 옵션 버튼(1112)을 포함할 수 있다. GUI(1110)에서 선택된 모드에 따라 영상(1120)에 대한 입체영상 재생 방법이 변경된다. 화면(1100)에서 인터레이스 모드(1111)가 선택되어 있고, 이에 따라 영상(1120)은 인터레이스 모드 방식으로 재생된다.The GUI 1110 may include an option button 1111 for selecting an interface mode and an option button 1112 for selecting a deinterlacing mode. The stereoscopic image reproducing method for the image 1120 is changed according to the mode selected in the GUI 1110. [ The interlaced mode 1111 is selected on the screen 1100, so that the image 1120 is reproduced in the interlaced mode.

사용자는 입체영상 재생 모드 정보를 설정하기 위한 GUI를 요청하는 사용자 조치를 행할 수 있다. 제어부(190)는 사용자 조치의 감지에 응답하여, 화면(1100)이 디스플레이되도록 제어할 수 있다.The user can perform a user action requesting a GUI for setting the stereoscopic image playback mode information. In response to the detection of the user action, the control unit 190 can control the display 1100 to be displayed.

제어부(190)는 GUI(1110)를 통해 설정된 입체영상 재생 모드에 따라 영상(1120)에 대한 입체영상 재생 모드이 변경되도록 제어할 수 있다. 이에 따라 사용자는 변경된 입체영상 재생 모드에 따라 재생된 영상을 확인하면, 입체영상 재생 모드를 설정할 수 있다.The control unit 190 may control the stereoscopic image reproduction mode of the image 1120 to be changed according to the stereoscopic image reproduction mode set through the GUI 1110. [ Accordingly, the user can set the stereoscopic image reproduction mode when the user views the reproduced image according to the changed stereoscopic image reproduction mode.

도 12는 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 일실시예의 수행과정을 도시한 흐름도이다.12 is a flowchart illustrating a method of performing a stereoscopic image reproducing method according to an exemplary embodiment of the present invention.

도 12를 참조하면, 수신부(101)는 제1 해상도를 갖는 좌안 시점 영상 프레임 및 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신한다(S100). 여기서 수신부(101)는 입체영상 재생 모드 정보를 더 수신할 수 있다.Referring to FIG. 12, the receiving unit 101 receives image data including a left-eye view image frame having a first resolution and a right-eye view image frame having a first resolution (S100). Here, the receiving unit 101 can further receive the stereoscopic image reproduction mode information.

제어부(190)는 입체영상 재생 모드를 확인 또는 결정한다(S105). 제어부(190)는 수신된 입체영상 재생 모드 정보 및 저장된 입체영상 재생 모드 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인 또는 결정할 수 있다. 여기서 입체영상 재생 모드는 인터레이스 모드 및 디인터레이스 모드 중 하나일 수 있다.The control unit 190 confirms or determines the stereoscopic image reproduction mode (S105). The control unit 190 can confirm or determine the stereoscopic image playback mode based on at least one of the received stereoscopic image playback mode information and the stored stereoscopic image playback mode information. Here, the stereoscopic image reproduction mode may be one of an interlace mode and a deinterlaced mode.

입체영상 재생 모드가 인터레이스 모드인 경우에는, 신호처리부(140)는 수신부(101)가 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성한다(S110). 여기서 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 좌안 시점 영상 프레임의 제1 해상도 또는 좌안 시점 영상 프레임의 제1 해상도와 대응하는 프로그레시브 해상도를 가질 수 있다. 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 도 5 내지 도 8에 도시된 영상 프레임일 수 있다.When the stereoscopic image reproduction mode is the interlace mode, the signal processing unit 140 generates a first image frame and a second image frame based on the left eye view image frame and the right eye view image frame included in the image data received by the receiver 101, (S110). Wherein the first image frame and the second image frame include pixel data of one of the left eye view image frame and the right eye view image frame on an odd line and one pixel data of an even eye line, And may have a first resolution of the video frame or a progressive resolution corresponding to the first resolution of the left eye view video frame. The first image frame and the second image frame may be the image frames shown in FIGS.

디스플레이(150)는 제1 영상 프레임 및 제2 영상 프레임을 스캔한다(S115). 여기서 디스플레이(150)는 제1 영상 프레임을 도 9a에 도시된 화면(930)과 같이 스캔할 수 있고, 제2 영상 프레임을 도 9b에 도시된 화면(940)과 같이 스캔할 수 있다.The display 150 scans the first image frame and the second image frame (S115). Here, the display 150 can scan the first image frame with the screen 930 shown in FIG. 9A, and scan the second image frame with the screen 940 shown in FIG. 9B.

입체영상 재생 모드가 디인터레이스 모드인 경우에는, 신호처리부(140)는 수신부(101)가 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스한다(S120).When the stereoscopic image playback mode is the deinterlaced mode, the signal processing unit 140 deinterlaces the left eye view image frame and the right eye view image frame included in the image data received by the receiver 101 (S120).

신호처리부(140)는 디인터레이스한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성한다(S125).The signal processing unit 140 generates a third image frame based on the deinterlaced left eye view image frame and the right eye view image frame (S125).

디스플레이(150)는 생성한 제3 영상 프레임을 스캔한다(S130). 여기서 디스프레이(150)는 제3 영상 프레임을 도 10에 도시된 화면(1030)과 같이 스캔할 수 있다.The display 150 scans the generated third image frame (S130). Here, the display 150 may scan the third image frame as the screen 1030 shown in FIG.

제어부(190)는 입체영상 재생 모드 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지한다(S135).The controller 190 detects a user action requesting a graphical user interface (GUI) for setting the stereoscopic image playback mode information (S135).

사용자 조치의 감지에 응답하여, 제어부(190)는 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면이 디스플레이되도록 제어한다(S140). 여기서 디스플레이(150)는 도 11에 도시된 화면(1100)을 디스플레이할 수 있다. 또한 상기 영상 데이터는 저장부(180)에 저장된 입체영상 데이터일 수 있다.In response to the detection of the user action, the control unit 190 controls to display a screen including the area where the GUI and the image data are displayed (S140). Here, the display 150 can display the screen 1100 shown in FIG. The image data may be stereoscopic image data stored in the storage unit 180.

제어부(190)는 입체영상 재생 모드 정보를 설정하기 위한 사용자 조치를 감지한다(S145).The controller 190 detects a user action for setting the stereoscopic image playback mode information (S145).

사용자 조치의 감지에 응답하여, 제어부(190)는 입체영상 재생 모드 정보를 설정한다(S150).In response to the detection of the user action, the control unit 190 sets the stereoscopic image playback mode information (S150).

신호 처리부(140)는 설정된 입체영상 재생 모드 정보가 지시하는 입체영상 재생 모드에 따라 영상 데이터를 처리한다(S155). 여기서, 상기 입체영상 재생 모드 정보가 인터레이스 모드를 지시하는 경우에는, 신호 처리부(140)는 상기 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 제1 영상 프레임 및 제2 영상 프레임을 도 5 내지 도 8에 도시된 영상 프레임일 수 있다.The signal processing unit 140 processes the image data according to the stereoscopic image reproduction mode indicated by the stereoscopic image reproduction mode information (S155). When the stereoscopic image playback mode information indicates the interlace mode, the signal processor 140 generates a first image frame and a second image frame based on the left eye view image frame and the right eye view image frame included in the image data, Can be generated. The first image frame and the second image frame may be image frames shown in Figs. 5 to 8.

상기 입체영상 재생 모드 정보가 디인터레이스 모드를 지시하는 경우에는, 신호 처리부(140)는 상기 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 그리고 신호 처리부(140)는 디인터레이스된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성할 수 있다.When the stereoscopic image playback mode information indicates the deinterlaced mode, the signal processing unit 140 may deinterlace the left eye view image frame and the right eye view image frame included in the image data. The signal processing unit 140 may generate a third image frame based on the deinterlaced left eye view image frame and the right eye view image frame.

디스플레이부(150)는 신호 처리부(140)가 처리한 영상 데이터를 설정된 입체영상 재생 모드 정보가 지시하는 입체영상 재생 모드에 따라 스캔한다(S160). 여기서, 상기 입체영상 재생 모드 정보가 인터레이스 모드를 지시하는 경우에는, 디스플레이부(150)는 상기 영상 데이터를 도 9a에 도시된 화면(930) 및 도 9b에 도시된 화면(940)과 같이 스캔할 수 있다. 또한 상기 입체영상 재생 모드 정보가 디인터레이스 모드를 지시하는 경우에는, 디스플레이(150)는 상기 영상 데이터를 도 10에 도시된 화면(1030)과 같이 스캔할 수 있다.The display unit 150 scans the image data processed by the signal processing unit 140 according to the stereoscopic image playback mode indicated by the stereoscopic image playback mode information (S160). Here, if the stereoscopic image reproduction mode information indicates the interlaced mode, the display unit 150 scans the image data as shown in the screen 930 shown in FIG. 9A and the screen 940 shown in FIG. 9B . In addition, when the stereoscopic image reproduction mode information indicates the deinterlaced mode, the display 150 can scan the image data as shown in the screen 1030 shown in FIG.

제어부(190)는 입체영상 재생 모드 정보의 설정 완료를 지시하는 사용자 조치를 감지한다(S165).The controller 190 detects a user action instructing completion of the setting of the stereoscopic image playback mode information (S165).

사용자 조치의 감지에 응답하여, 제어부(190)는 설정된 입체영상 재생 모드 정보를 저장부(180)에 저장한다(S170).In response to the detection of the user action, the control unit 190 stores the set stereoscopic image playback mode information in the storage unit 180 (S170).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer apparatus is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

Claims (20)

제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 단계;
상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하는 단계, 여기서 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖고; 및
상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함하고,
상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것을 특징으로 하는 입체영상 재생 방법.
Receiving image data including a left eye view image frame having a first resolution and a right eye view image frame having the first resolution;
Generating a first image frame and a second image frame based on the left eye view image frame and the right eye view image frame, wherein the first image frame and the second image frame include the left eye view image frame and the left eye view image frame on an odd line, Wherein the right eye view image frame includes pixel data of one of the right eye view image frames and another pixel data of the right eye view image frame and has a progressive resolution corresponding to the first resolution or the first resolution; And
And scanning the first image frame and the second image frame,
Wherein the pixel data included in the first line of the first image frame is the same as the pixel data included in the first line of the second image frame.
제 1항에 있어서,
상기 스캔하는 단계는,
상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Wherein the step of scanning comprises:
And scanning the first image frame and the second image frame at a frame rate corresponding to twice the frame rate of the received image data.
제 1항에 있어서,
상기 스캔하는 단계는,
상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Wherein the step of scanning comprises:
And scanning the first image frame and the second image frame at a vertical scanning frequency corresponding to a vertical scan frequency of the received image data.
제 1항에 있어서,
상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Wherein the first image frame and the second image frame form one stereoscopic image.
삭제delete 제 1항에 있어서,
상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터인 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Pixel data included in a second odd-numbered line of the first image frame is pixel data of a second line, and pixel data included in a second odd-numbered line of the second image frame is pixel data of a third line. Dimensional image.
제 1항에 있어서,
상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Wherein the first line of the second image frame includes pixel data of the next line of pixel data included in the first line of the first image frame.
제 1항에 있어서,
상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p인 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Wherein the first resolution is one of 1920 × 1080i and 1920 × 1080p, and the resolution of the first image frame and the second image frame is 1920 × 1080p.
제 1항에 있어서,
수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 단계;
상기 입체영상 재생 모드가 디인터레이스 모드인 경우에는, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 디인터레이스하는 단계;
상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하는 단계; 및
상기 생성된 제3 영상 프레임을 스캔하는 단계를 더 포함하고,
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 생성하는 단계는 상기 입체영상 재생 모드가 인터레이스 모드인 경우에 수행되는 것을 특징으로 하는 입체영상 재생 방법.
The method according to claim 1,
Confirming a stereoscopic image playback mode based on at least one of received broadcast information and stored setting information;
Deinterlacing the left eye view image frame and the right eye view image frame when the stereoscopic image playback mode is the deinterlaced mode;
Generating a third image frame based on the deinterlaced left eye view image frame and the deinterlaced right eye view image frame; And
And scanning the generated third image frame,
Wherein the generating of the first image frame and the second image frame is performed when the stereoscopic image reproduction mode is the interlace mode.
제 9항에 있어서,
상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 단계; 및
상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
10. The method of claim 9,
Detecting a user action requesting a graphical user interface (GUI) for setting the setting information; And
And displaying a screen including an area in which the GUI and the image data are displayed, in response to the detection of the user action.
제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 수신부;
홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖는 제1 영상 프레임 및 제2 영상 프레임을 생성하는 포맷터; 및
상기 생성된 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 디스플레이를 포함하고,
상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것을 특징으로 하는 전자 장치.
A receiving unit for receiving image data including a left eye view image frame having a first resolution and a right eye view image frame having the first resolution;
Wherein the pixel data includes one pixel data of the left eye view image frame and the right eye view image frame on an odd line and includes one pixel data on an even line and a progressive resolution corresponding to the first resolution or the first resolution A formatter for generating a first image frame and a second image frame; And
And a display for scanning the generated first and second image frames,
Wherein the pixel data included in the first line of the first image frame is the same as the pixel data included in the first line of the second image frame.
제 11항에 있어서,
상기 디스플레이는,
상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the display comprises:
Wherein the first image frame and the second image frame are scanned at a frame rate corresponding to twice the frame rate of the received image data.
제 11항에 있어서,
상기 디스플레이는,
상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the display comprises:
Wherein the controller scans the first image frame and the second image frame at a vertical scanning frequency corresponding to a vertical scan frequency of the received image data.
제 11항에 있어서,
상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the first image frame and the second image frame form one stereoscopic image.
삭제delete 제 11항에 있어서,
상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Pixel data included in a second odd-numbered line of the first image frame is pixel data of a second line, and pixel data included in a second odd-numbered line of the second image frame is pixel data of a third line. Lt; / RTI >
제 11항에 있어서,
상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the first line of the second video frame includes pixel data of the next line of pixel data included in the first line of the first video frame.
제 11항에 있어서,
상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 생성된 영상 프레임의 해상도는 1920×1080p인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the first resolution is one of 1920 x 1080i and 1920 x 1080p, and the resolution of the generated image frame is 1920 x 1080p.
제 11항에 있어서,
수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 제어부; 및
상기 확인 결과에 따라 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임에 디인터레이스를 더 수행하는 스케일러를 더 포함하고,
상기 포맷터는, 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하고,
상기 디스플레이는, 상기 제3 영상 프레임을 스캔하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
A controller for confirming a stereoscopic image reproduction mode based on at least one of received broadcast information and stored setting information; And
Further comprising a scaler for performing deinterlacing on the left eye view image frame and the right eye view image frame according to the result of the check,
The formatter generates a third image frame based on the deinterlaced left eye view image frame and the deinterlaced right eye view image frame,
Wherein the display scans the third image frame.
제 19항에 있어서,
상기 제어부는,
상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하고, 상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면이 디스플레이되도록 제어하는 것을 특징으로 하는 전자 장치.
20. The method of claim 19,
Wherein,
A user action for requesting a graphical user interface (GUI) for setting the setting information is detected, and in response to the detection of the user action, the GUI and the image data are displayed Is displayed on the display unit.
KR1020100124522A 2010-12-07 2010-12-07 Electronic device and method for displying stereo-view or multiview sequence image Active KR101781850B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100124522A KR101781850B1 (en) 2010-12-07 2010-12-07 Electronic device and method for displying stereo-view or multiview sequence image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100124522A KR101781850B1 (en) 2010-12-07 2010-12-07 Electronic device and method for displying stereo-view or multiview sequence image

Publications (2)

Publication Number Publication Date
KR20120063388A KR20120063388A (en) 2012-06-15
KR101781850B1 true KR101781850B1 (en) 2017-09-26

Family

ID=46683899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100124522A Active KR101781850B1 (en) 2010-12-07 2010-12-07 Electronic device and method for displying stereo-view or multiview sequence image

Country Status (1)

Country Link
KR (1) KR101781850B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341751B2 (en) * 2004-02-17 2009-10-07 誠次郎 富田 3D image recording / reproducing method and 3D image display apparatus for displaying the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341751B2 (en) * 2004-02-17 2009-10-07 誠次郎 富田 3D image recording / reproducing method and 3D image display apparatus for displaying the same

Also Published As

Publication number Publication date
KR20120063388A (en) 2012-06-15

Similar Documents

Publication Publication Date Title
US9392253B2 (en) Electronic device and method for displaying stereo-view or multiview sequence image
US20110254837A1 (en) Image display apparatus and method for controlling the same
US8988498B2 (en) Method for controlling operations of image display apparatus and shutter glasses used for the image display apparatus
US9024875B2 (en) Image display apparatus and method for operating the same
US20180048846A1 (en) Image display apparatus
KR101661956B1 (en) Image Display Device and Operating Method for the Same
US9392250B2 (en) Imaging apparatus and control method therefor
CN113689810A (en) Image display apparatus and method thereof
KR101801141B1 (en) Apparatus for displaying image and method for operating the same
KR101783608B1 (en) Electronic device and method for dynamically controlling depth in stereo-view or multiview sequence image
KR101626310B1 (en) Image Display Device and Operating Method for the Same
KR101781850B1 (en) Electronic device and method for displying stereo-view or multiview sequence image
EP2574068A2 (en) Image display apparatus and method for operating the same
KR101804912B1 (en) An apparatus for displaying a 3-dimensional image and a method for displaying subtitles of a 3-dimensional image
KR101638536B1 (en) Image Display Device and Controlling Method for the Same
KR20110114994A (en) 2D / 3D convertible video display device and its operation control method
KR101657560B1 (en) Image Display Device and Operating Method for the Same
KR20250040660A (en) Wireless communication device and video display device equipped therewith
KR101878808B1 (en) Image display apparatus and method for operating the same
KR101626304B1 (en) Image Display Device and Controlling Method for the Same
KR20120140425A (en) Apparatus and method for processing three-dimensional image
KR101716171B1 (en) Image Display Device and Operating Method for the Same
KR101737367B1 (en) Image display apparatus and method for operating the same
KR20130011384A (en) Apparatus for processing 3-dimensional image and method for adjusting setting value of the apparatus
KR20140055124A (en) Image display apparatus, and method for operating the same

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20101207

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20151204

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20101207

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20161215

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170623

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170920

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170921

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20200824

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210823

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20220822

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20230822

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20240822

Start annual number: 8

End annual number: 8