[go: up one dir, main page]

KR102706803B1 - Virtual reality device - Google Patents

Virtual reality device Download PDF

Info

Publication number
KR102706803B1
KR102706803B1 KR1020160182788A KR20160182788A KR102706803B1 KR 102706803 B1 KR102706803 B1 KR 102706803B1 KR 1020160182788 A KR1020160182788 A KR 1020160182788A KR 20160182788 A KR20160182788 A KR 20160182788A KR 102706803 B1 KR102706803 B1 KR 102706803B1
Authority
KR
South Korea
Prior art keywords
user
interest
data
region
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020160182788A
Other languages
Korean (ko)
Other versions
KR20180078431A (en
Inventor
황정섭
김승현
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020160182788A priority Critical patent/KR102706803B1/en
Publication of KR20180078431A publication Critical patent/KR20180078431A/en
Application granted granted Critical
Publication of KR102706803B1 publication Critical patent/KR102706803B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 가상 현실 장치에 관한 것으로, 사용자가 정지 상태일 때 미리 설정된 관심 영역의 보간 프레임 데이터를 생성하고, 상기 사용자가 움직일 때 상기 사용자 움직임을 반영하여 상기 관심 영역을 실시간 가변하며, 상기 실시간 가변된 관심 영역의 보간 프레임 데이터를 생성한다. 이 가상 현실 장치는 상기 사용자가 정지 상태일 때 상기 미리 설정된 관심 영역의 보간 프레임 데이터와 현재 프레임 데이터의 비관심 영역 데이터를 조합하여 제1 및 제2 화면들 각각에서 화면 전체의 보간 프레임 데이터를 출력하고, 상기 사용자가 움직일 때 실시간 가변하는 관심 영역의 보간 프레임 데이터와 상기 현재 프레임 데이터의 비관심 영역 데이터를 조합하여 제1 및 제2 화면들 각각에서 화면 전체의 보간 프레임 데이터를 출력한다. The present invention relates to a virtual reality device, which generates interpolation frame data of a preset region of interest when a user is stationary, varies the region of interest in real time to reflect the user movement when the user moves, and generates interpolation frame data of the real-time varied region of interest. The virtual reality device combines the interpolation frame data of the preset region of interest with non-interest region data of current frame data when the user is stationary, and outputs interpolation frame data of the entire screen on each of first and second screens, and combines the interpolation frame data of the region of interest that varies in real time with non-interest region data of the current frame data when the user moves, and outputs interpolation frame data of the entire screen on each of the first and second screens.

Description

가상 현실 장치{VIRTUAL REALITY DEVICE}{VIRTUAL REALITY DEVICE}

본 발명은 가상 현실을 구현하는 가상 현실 장치에 관한 것이다.The present invention relates to a virtual reality device that implements virtual reality.

가상 현실 기술은 국방, 건축, 관광, 영화, 멀티미디어, 게임 분야 등에 적용되고 있다. 가상 현실은 입체 영상 기술을 이용하여 실제 환경과 유사하게 느껴지는 특정한 환경, 상황을 의미한다. Virtual reality technology is being applied in the fields of national defense, architecture, tourism, movies, multimedia, and games. Virtual reality refers to a specific environment or situation that feels similar to the real environment by using stereoscopic image technology.

가상 현실의 몰입감을 극대하기 위하여, 개인 몰입형 장치에 가상 현실 기술이 적용되고 있다. HMD(Head Mounted Display), FMD(Face Mounted Display), EGD(Eye Glasses-type Display) 등이 대표적인 개인 몰입형 장치이다. To maximize the immersion of virtual reality, virtual reality technology is being applied to personal immersive devices. Representative personal immersive devices include HMD (Head Mounted Display), FMD (Face Mounted Display), and EGD (Eye Glasses-type Display).

개인 몰입형 장치는 불편한 외형 디자인과 입체 영상의 입체감, 몰입감, 피로도 등에서 기대 만큼 성능이 개선되지 않고 있다. 최근에는 스마트폰(smart phone)의 표시장치에서 가상 현실을 구현하기 위하여 입체 영상을 표시하고, 그 스마트폰을 사용자가 착용한 HMD 기구에 착용하는 가상 현실 기기가 시판되고 있다. Personal immersive devices have not improved as much as expected in terms of inconvenient external design, stereoscopic effect of stereoscopic images, immersion, fatigue, etc. Recently, virtual reality devices that display stereoscopic images on the display device of a smartphone and wear the smartphone on the HMD device worn by the user have been commercialized.

가상 현실 장치는 사용자의 눈과 디스플레이 소자의 화면이 가깝고 어안 렌즈를 이용하여 시야각이 넓다. 가상 현실 장치에서 사용자의 움직임에 따라 화면이 이동될 때 화면 끌림, 저더(judder) 현상 등이 보일 수 있다.The virtual reality device has a screen that is close to the user's eyes and a wide field of view using a fish-eye lens. When the screen moves according to the user's movement in the virtual reality device, screen dragging and judder phenomena may occur.

본 발명은 화면이 움직일 때 사용자가 저더(judder)를 느끼지 않도록 한 가상 현실 장치를 제공한다.The present invention provides a virtual reality device that allows a user to experience no judder when the screen moves.

본 발명의 가상 현실 장치는 관심 영역과 비 관심 영역으로 나뉘어진 제1 및 제2 화면, 사용자의 움직임을 감지하는 센서 모듈, 상기 사용자가 정지 상태일 때 미리 설정된 관심 영역의 보간 프레임 데이터를 생성하는 제1 프레임 레이트 변환부, 상기 사용자가 움직일 때 상기 사용자 움직임을 반영하여 상기 관심 영역을 실시간 가변하는 관심 영역 결정부, 상기 관심 영역 결정부에 의해 가변된 관심 영역의 보간 프레임 데이터를 생성하는 제2 프레임 레이트 변환부, 상기 제1 프레임 레이트 변환부 또는 상기 제2 프레임 레이트 변환부로부터 수신된 관심 영역의 보간 프레임 데이터와 상기 현재 프레임 데이터의 비관심 영역 데이터를 조합하여 화면 전체의 보간 프레임 데이터를 출력하는 데이터 합성부, 및 상기 데이터 합성부로부터 출력된 데이터를 상기 제1 및 제2 화면의 픽셀들에 기입하는 디스플레이 구동부를 구비한다. The virtual reality device of the present invention comprises first and second screens divided into a region of interest and a region of no interest, a sensor module detecting movement of a user, a first frame rate converter generating interpolated frame data of a preset region of interest when the user is stationary, a region of interest determination unit varying the region of interest in real time by reflecting the movement of the user when the user moves, a second frame rate converter generating interpolated frame data of the region of interest varied by the region of interest determination unit, a data synthesis unit combining the interpolated frame data of the region of interest received from the first frame rate conversion unit or the second frame rate conversion unit with non-interest region data of the current frame data to output interpolated frame data of the entire screen, and a display driver writing data output from the data synthesis unit to pixels of the first and second screens.

상기 제1 프레임 레이트 변환부는 입력 영상의 객체 움직임을 바탕으로 제1 모션 벡터를 산출하고, 상기 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성한다. The above first frame rate converter calculates a first motion vector based on the object movement of the input image, and generates interpolated frame data of the region of interest using the motion vector.

상기 제1 프레임 레이트 변환부는 상기 사용자가 움직일 때 대기 상태로 전환된다. The above first frame rate converter switches to a standby state when the user moves.

상기 제2 프레임 레이트 변환부는 상기 사용자의 움직임 방향과 속도를 반영한 제2 모션 벡터를 산출하고, 상기 제2 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성한다. The second frame rate converter calculates a second motion vector reflecting the direction and speed of the user's movement, and generates interpolated frame data of the region of interest using the second motion vector.

상기 제2 프레임 레이트 변환부는 상기 사용자가 정지 상태일 때 대기 상태로 전환된다. The above second frame rate converter switches to a standby state when the user is at a standby state.

상기 제1 및 제2 화면에 표시되는 영상 데이터는 상기 사용자의 움직임 방향에 대하여 반대 방향으로 이동된다. 상기 관심 영역 결정부에 의해 가변되는 상기 관심 영역은 상기 사용자의 움직임 방향과 같은 방향으로 이동된다. 상기 제2 모션 벡터는 상기 사용자의 움직임 방향과 반대 방향을 향한다. The image data displayed on the first and second screens moves in the opposite direction to the user's movement direction. The region of interest, which is variable by the region of interest determination unit, moves in the same direction as the user's movement direction. The second motion vector faces the opposite direction to the user's movement direction.

본 발명의 가상 현실 장치는 관심 영역과 비 관심 영역으로 나뉘어진 제1 및 제2 화면, 사용자의 움직임을 감지하는 사용자 움직임 감지부, 입력 영상의 현재 프레임 데이터에서 미리 설정된 관심 영역 내의 데이터를 추출하는 제1 관심 영역 추출부, 상기 사용자 움직임 감지부의 출력 신호에 응답하여 상기 사용자가 정지 상태일 때 상기 제1 관심 영역 추출부로부터 수신된 데이터를 이용하여 보간 프레임의 관심 영역 데이터를 생성하는 제1 프레임 레이트 변환부, 상기 사용자 움직임 감지부의 출력 신호에 응답하여 상기 사용자가 움직일 때 상기 사용자 움직임을 추종하는 관심 영역을 결정하는 관심 영역 결정부, 상기 관심 영역 결정부에 의해 결정된 관심 영역 내의 데이터를 추출하는 제2 관심 영역 추출부, 상기 사용자 움직임 감지부의 출력 신호에 응답하여 상기 사용자가 움직일 때 상기 제2 관심 영역 추출부로부터 수신된 데이터를 이용하여 보간 프레임의 관심 영역 데이터를 생성하는 제2 프레임 레이트 변환부, 상기 제1 프레임 레이트 변환부 또는 상기 제2 프레임 레이트 변환부로부터 수신된 관심 영역의 보간 프레임 데이터와 상기 현재 프레임 데이터의 비관심 영역의 데이터를 조합하여 보간 프레임 데이터를 출력하는 데이터 합성부, 및 상기 데이터 합성부로부터 출력된 데이터를 상기 제1 및 제2 화면의 픽셀들에 기입하는 디스플레이 구동부를 구비한다. The virtual reality device of the present invention comprises: first and second screens divided into a region of interest and a region of no interest, a user movement detection unit for detecting the movement of the user, a first region of interest extraction unit for extracting data within a preset region of interest from current frame data of an input image, a first frame rate conversion unit for generating region of interest data of an interpolated frame using data received from the first region of interest extraction unit when the user is stationary in response to an output signal of the user movement detection unit, a region of interest determination unit for determining a region of interest that follows the movement of the user when the user moves in response to an output signal of the user movement detection unit, a second region of interest extraction unit for extracting data within the region of interest determined by the region of interest determination unit, a second frame rate conversion unit for generating region of interest data of an interpolated frame using data received from the second region of interest extraction unit when the user moves in response to an output signal of the user movement detection unit, a data synthesis unit for combining interpolated frame data of a region of interest received from the first frame rate conversion unit or the second frame rate conversion unit and data of a non-interest region of the current frame data to output interpolated frame data, and a data synthesis unit for outputting interpolated frame data from the data synthesis unit. It has a display driver that writes data into pixels of the first and second screens.

상기 가상 현실 장치의 구동 방법은 사용자의 움직임을 감지하는 단계, 상기 사용자가 정지 상태일 때 미리 설정된 관심 영역의 보간 프레임 데이터를 생성하는 단계, 상기 사용자가 움직일 때 상기 사용자 움직임을 반영하여 상기 관심 영역을 실시간 가변하는 단계, 상기 실시간 가변된 관심 영역의 보간 프레임 데이터를 생성하는 단계, 상기 사용자가 정지 상태일 때 상기 미리 설정된 관심 영역의 보간 프레임 데이터와 현재 프레임 데이터의 비관심 영역 데이터를 조합하여 제1 및 제2 화면들 각각에서 화면 전체의 보간 프레임 데이터를 출력하는 단계, 상기 사용자가 움직일 때 실시간 가변하는 관심 영역의 보간 프레임 데이터와 상기 현재 프레임 데이터의 비관심 영역 데이터를 조합하여 제1 및 제2 화면들 각각에서 화면 전체의 보간 프레임 데이터를 출력하는 단계, 및 상기 화면 전체의 보간 프레임 데이터를 상기 제1 및 제2 화면의 픽셀들에 기입하는 단계를 포함한다.The method for driving the virtual reality device includes the steps of detecting a user's movement, generating interpolated frame data of a preset region of interest when the user is stationary, varying the region of interest in real time to reflect the user's movement when the user moves, generating interpolated frame data of the region of interest varied in real time, combining the interpolated frame data of the preset region of interest and non-interest region data of current frame data when the user is stationary to output interpolated frame data of the entire screen on each of the first and second screens, combining the interpolated frame data of the region of interest varied in real time when the user moves and non-interest region data of the current frame data to output interpolated frame data of the entire screen on each of the first and second screens, and writing the interpolated frame data of the entire screen into pixels of the first and second screens.

본 발명은 사용자 움직임에 따라 관심 영역(ROI 영역)을 가변하고 그 ROI 영역 내에서만 보간 프레임 데이터를 생성하여 프레임 레이트를 높임으로써 사용자가 화면 끌림, 모션 블러, 저더 등을 인지하지 않는 가상 현실 화면을 구현할 수 있다. The present invention can implement a virtual reality screen in which the user does not perceive screen dragging, motion blur, judder, etc. by varying the region of interest (ROI) according to the user's movement and generating interpolated frame data only within the ROI region to increase the frame rate.

도 1은 본 발명의 실시예에 따른 가상 현실 장치를 보여 주는 분해 사시도이다.
도 2는 도 1에 도시된 가상 현실 장치에서 디스플레이 관련 회로를 보여 주는 블록도이다.
도 3 및 도 4는 MEMC 알고리즘을 이용한 프레임 레이트 업 컨버젼의 일 예를 보여 주는 도면들이다.
도 5는 도 2에 도시된 MEMC 처리부를 상세히 보여 주는 블록도이다.
도 6은 사용자의 움직임이 없을 때의 ROI 영역을 예시한 도면이다.
도 7 및 도 8은 사용자가 움직일 때의 ROI 영역을 예시한 도면들이다.
도 9는 시간 축 상에서 제1 및 제2 프레임 레이트 변환부의 구동 상태가 사용자 움직임에 따라 변화되는 예를 보여 주는 도면이다.
도 10은 사용자가 움직일 때 관심 영역(ROI)가 실시간 변하는 예를 보여 주는 도면이다.
도 11은 사용자 움직임과 제2 모션 벡터를 보여 주는 도면이다.
도 12는 영상의 객체 이동 방향과 제2 모션 벡터의 방향이 반대 방향일 때 역방향 저더가 발생되는 예를 보여 주는 도면이다.
FIG. 1 is an exploded perspective view showing a virtual reality device according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a display-related circuit in the virtual reality device illustrated in FIG. 1.
Figures 3 and 4 are drawings showing an example of frame rate up-conversion using the MEMC algorithm.
Figure 5 is a block diagram showing in detail the MEMC processing unit illustrated in Figure 2.
Figure 6 is a diagram illustrating an ROI area when there is no user movement.
Figures 7 and 8 are diagrams illustrating ROI areas when a user moves.
Figure 9 is a drawing showing an example in which the driving status of the first and second frame rate converters on the time axis changes according to the user's movement.
Figure 10 is a diagram showing an example of a region of interest (ROI) changing in real time as a user moves.
Figure 11 is a diagram showing the user's movement and the second motion vector.
Figure 12 is a drawing showing an example in which reverse judder occurs when the direction of movement of an object in an image and the direction of a second motion vector are opposite.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention, and the method for achieving them, will become clear with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and these embodiments are provided only to make the disclosure of the present invention complete and to fully inform a person having ordinary skill in the art to which the present invention belongs of the scope of the invention, and the present invention is defined only by the scope of the claims.

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 ' ~ 만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다. The shapes, sizes, ratios, angles, numbers, etc. disclosed in the drawings for explaining embodiments of the present invention are exemplary, and therefore the present invention is not limited to the matters illustrated. Like reference numerals refer to like elements throughout the specification. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. When the terms “includes,” “has,” “consists of,” etc. are used in this specification, other parts may be added unless “only” is used. When a component is expressed in the singular, it includes a case where the plural is included unless there is a specifically explicit description.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.When interpreting a component, it is interpreted as including the error range even if there is no separate explicit description.

위치 관계에 대한 설명일 경우, 예를 들어, ' ~ 상에', ' ~ 상부에', ' ~ 하부에', ' ~ 옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다. When describing a positional relationship, for example, when the positional relationship between two parts is described as 'on ~', 'above ~', 'below ~', 'next to ~', there may be one or more other parts located between the two parts, unless 'right' or 'directly' is used.

제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용될 수 있으나, 이 구성요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although the terms first, second, etc. may be used to describe various components, these components are not limited by these terms. These terms are only used to distinguish one component from another. Accordingly, a first component referred to below may also be a second component within the technical concept of the present invention.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.The individual features of the various embodiments of the present invention may be partially or wholly combined or combined with each other, and various technical connections and operations may be possible, and the individual embodiments may be implemented independently of each other or may be implemented together in a related relationship.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. Throughout the specification, the same reference numerals refer to substantially the same components. In the following description, if it is judged that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

도 1은 HMD(head mounted display) 구조의 개인 몰입형 장치의 일 예를 보여 주지만, 본 발명의 개인 몰입형 장치의 구조는 다양한 변형이 가능하므로 이에 한정되지 않는다. 도 2는 도 1에 도시된 가상 현실 장치에서 디스플레이 관련 회로를 보여 주는 블록도이다.FIG. 1 shows an example of a personal immersive device having a head mounted display (HMD) structure, but the structure of the personal immersive device of the present invention is not limited thereto since various modifications are possible. FIG. 2 is a block diagram showing a display-related circuit in the virtual reality device illustrated in FIG. 1.

도 1 및 도 2를 참조하면, 본 발명의 개인 몰입형 장치는 렌즈 모듈(12), 디스플레이 모듈(13), 메인 보드(14), 헤드 기어(11), 사이드 프레임(side frame)(15), 프론트 커버(front cover)(16) 등을 포함한다. Referring to FIGS. 1 and 2, the personal immersive device of the present invention includes a lens module (12), a display module (13), a main board (14), a head gear (11), a side frame (15), a front cover (16), etc.

디스플레이 모듈(13)은 두 개의 화면들을 구동하기 위한 디스플레이 구동부(22)를 포함하여 메인 보드(14)로부터 수신된 입력 영상을 표시한다. 두 개의 화면은 하나의 표시소자(20) 상에서 구현되거나 두 개의 표시소자(20)로 구현될 수 있다. 제1 화면은 사용자의 좌안으로 보이는 영상을 표시하고, 제2 화면은 사용자의 우안으로 보이는 영상을 표시한다. 도 6 내지 도 8에서, 도면 부호 “20L”은 제1 화면이고, “20R”은 제2 화면을 나타낸다. 디스플레이 모듈(13)은 메인 보드(14)로부터 입력되는 영상 데이터를 표시패널의 화면들에 표시한다. 화면들 상에 표시되는 영상은 사용자의 움직임에 따라 이동한다. 예컨대, 사용자의 움직임 방향에 대하여 반대로 영상이 이동된다. 화면들 상에 표시되는 영상 데이터는 가상 현실(Virtual Reality. VR)의 비디오 이미지를 구현하는 2D/3D 영상 데이터일 수 있다. 디스플레이 모듈(13)은 메인 보드로부터 입력되는 각종 정보를 텍스트, 기호 등의 형태로 표시할 수 있다. The display module (13) displays an input image received from the main board (14) including a display driver (22) for driving two screens. The two screens may be implemented on one display element (20) or implemented with two display elements (20). The first screen displays an image seen by the user's left eye, and the second screen displays an image seen by the user's right eye. In FIGS. 6 to 8, reference numeral "20L" denotes the first screen, and "20R" denotes the second screen. The display module (13) displays image data input from the main board (14) on the screens of the display panel. The image displayed on the screens moves according to the user's movement. For example, the image moves in the opposite direction to the user's movement direction. The image data displayed on the screens may be 2D/3D image data implementing a video image of virtual reality (VR). The display module (13) may display various information input from the main board in the form of text, symbols, etc.

표시소자(20)는 액정표시장치(Liquid Crystal Display, LCD), 유기발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치의 표시패널로 구현될 수 있다. 표시패널은 데이터 전압이 인가되는 데이터 라인들, 게이트 펄스(또는 스캔 펄스)가 인가되는 게이트 라인들(또는 스캔 라인들), 및 데이터 라인들과 게이트 라인들의 직교 구조에 의해 매트릭스 형태로 배열되어 데이터 라인들과 게이트 라인들에 전기적으로 연결된 픽셀들을 포함한다. 픽셀들 각각은 컬러 구현을 위하여 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀로 나뉘어진다. 픽셀들 각각은 백색 서브 픽셀을 더 포함할 수 있다. 서브 픽셀들 각각은 하나 이상의 TFT(Thin Film Transistor)를 포함할 수 있다. The display element (20) may be implemented as a display panel of a flat panel display device such as a liquid crystal display (LCD) or an organic light emitting diode display (OLED). The display panel includes data lines to which a data voltage is applied, gate lines (or scan lines) to which a gate pulse (or scan pulse) is applied, and pixels that are arranged in a matrix form by an orthogonal structure of the data lines and the gate lines and are electrically connected to the data lines and the gate lines. Each of the pixels is divided into a red sub-pixel, a green sub-pixel, and a blue sub-pixel for color implementation. Each of the pixels may further include a white sub-pixel. Each of the sub-pixels may include one or more TFTs (Thin Film Transistors).

디스플레이 구동부(22)는 표시소자(20)를 구동하여 메인 보드(14)의 MEMC(Motion Estimation Motion Compensation) 처리부(24)로부터 수신된 영상 데이터를 표시소자의 픽셀들에 기입한다. 디스플레이 구동부(22)는 데이터 구동부, 게이트 구동부, 및 타이밍 콘트롤러(timing controller) 등을 구비한다. 데이터 구동부는 입력 영상의 데이터를 감마보상전압으로 변환하여 데이터전압을 발생하고, 그 데이터 전압을 데이터 라인들로 출력한다. 게이트 구동부는 데이터 전압에 동기되는 게이트 펄스를 게이트 라인들에 순차적으로 출력한다. 타이밍 콘트롤러는 MEMC 처리부(24)로부터 수신된 입력 영상의 데이터를 데이터 구동부로 전송한다. 타이밍 콘트롤러는 입력 영상 데이터와 동기되도록 데이터 구동부와 게이트 구동부의 구동 타이밍을 제어한다. The display driver (22) drives the display element (20) and writes image data received from the MEMC (Motion Estimation Motion Compensation) processing unit (24) of the main board (14) into the pixels of the display element. The display driver (22) includes a data driver, a gate driver, and a timing controller. The data driver converts data of an input image into a gamma compensation voltage to generate a data voltage and outputs the data voltage to data lines. The gate driver sequentially outputs a gate pulse synchronized with the data voltage to the gate lines. The timing controller transmits data of an input image received from the MEMC processing unit (24) to the data driver. The timing controller controls the driving timing of the data driver and the gate driver so as to be synchronized with the input image data.

렌즈 모듈(12)은 사용자의 좌우안 화각을 넓히기 위한 초광각 렌즈 즉, 한 쌍의 어안 렌즈(Fisheye Lens)를 포함한다. 한 쌍의 어안 렌즈는 제1 화면 앞에 배치된 좌안 렌즈와, 제2 화면 앞에 배치된 우안 렌즈를 포함한다.The lens module (12) includes a pair of ultra-wide-angle lenses, i.e., fisheye lenses, for widening the angle of view of the user's left and right eyes. The pair of fisheye lenses includes a left-eye lens positioned in front of the first screen and a right-eye lens positioned in front of the second screen.

헤드 기어(11)는 어안 렌즈들을 노출하는 백 커버(back cover), 백 커버에 연결된 밴드(band)를 포함한다. 헤드 기어(11)의 백 커버, 사이드 프레임(15) 및 프론트 커버(16)는 조립되어 개인 몰입형 장치의 구성 요소들이 배치되는 내부 공간을 확보하고 그 구성 요소들을 보호한다. 구성 요소들은 렌즈 모듈(12), 디스플레이 모듈(13), 및 메인 보드(14)을 포함한다. 밴드는 백 커버에 연결된다. 사용자는 밴드로 자신의 머리에 개인 몰입형 장치를 착용한다. 사용자가 개인 몰입형 장치를 자신의 머리에 쓰면, 어안 렌즈들을 통해 좌안과 우안으로 서로 다른 표시패널을 바라 보게 된다. The headgear (11) includes a back cover exposing fish-eye lenses, and a band connected to the back cover. The back cover, side frame (15), and front cover (16) of the headgear (11) are assembled to secure an internal space in which components of the personal immersive device are arranged and to protect the components. The components include a lens module (12), a display module (13), and a main board (14). The band is connected to the back cover. A user wears the personal immersive device on his or her head with the band. When the user wears the personal immersive device on his or her head, he or she views different display panels with his or her left and right eyes through the fish-eye lenses.

사이드 프레임(15)은 헤드 기어(11)와 프론트 커버(16) 사이에 고정되어 렌즈 모듈(12), 디스플레이 모듈(13), 메인 보드(14)가 배치된 내부 공간의 갭(gap)을 확보한다. 프론트 커버(16)는 개인 몰입형 장치의 전면에 배치된다.The side frame (15) is fixed between the head gear (11) and the front cover (16) to secure a gap in the internal space where the lens module (12), display module (13), and main board (14) are placed. The front cover (16) is placed on the front of the personal immersive device.

메인 보드(14)는 가상 현실 소프트웨어를 실행하고 좌안 영상과 우안 영상을 디스플레이 모듈(13)에 공급하는 이미지 프로세서를 포함한다. 메인 보드(14)는 외부 기기와 연결되는 인터페이스 모듈, 센서 모듈(26) 등을 더 포함한다. 인터페이스 모듈은 Universal serial bus(USB), High definition multimedia interface (HDMI) 등의 인터페이스를 통해 외부 기기와 연결된다. 센서 모듈(26)은 자이로 센서, 3축 가속도 센서 등 다양한 센서를 포함한다. The main board (14) includes an image processor that runs virtual reality software and supplies left-eye images and right-eye images to the display module (13). The main board (14) further includes an interface module connected to an external device, a sensor module (26), etc. The interface module is connected to an external device through an interface such as a Universal serial bus (USB), a High definition multimedia interface (HDMI), etc. The sensor module (26) includes various sensors such as a gyro sensor and a 3-axis acceleration sensor.

메인 보드(14)는 도시하지 않은 인터페이스 모듈을 통해 외부로부터 입력 영상 데이터를 수신할 수 있다. 메인 보드(14)의 이미지 프로세서는 센서 모듈(26)의 출력 신호에 응답하여 좌안 및 우안 영상 데이터를 보정함으로써 사용자 머리의 움직임에 따라 화면들에 표시되는 영상을 이동시킨다. 입력 영상의 프레임 데이터는 이미지 프로세서에 의해 사용자의 머리 이동 방향과 반대 방향으로 움직인다. 이미지 프로세서는 2D 영상의 뎁쓰(depth) 정보 분석 결과를 바탕으로 표시패널의 해상도에 맞는 좌안 영상과 우안 영상을 생성하여 디스플레이 모듈(13)로 전송할 수 있다. The main board (14) can receive input image data from the outside through an interface module that is not shown. The image processor of the main board (14) moves the images displayed on the screens according to the movement of the user's head by correcting the left and right eye image data in response to the output signal of the sensor module (26). The frame data of the input image is moved in the opposite direction to the direction of the user's head movement by the image processor. The image processor can generate left and right eye images that match the resolution of the display panel based on the analysis result of the depth information of the 2D image and transmit them to the display module (13).

메인 보드(14)의 이미지 프로세서는 MEMC(Motion Estimation Motion Compensation) 처리부(24)를 포함한다. MEMC 처리부(24)는 센서 모듈(26)의 출력 신호를 분석하여 사용자 머리나 몸의 움직임(이하, “사용자 움직임”이라 함)을 판단할 수 있다. MEMC 처리부(24)는 사용자 머리의 움직임에 연동하여 화면 상의 영상이 이동할 때 저더(judder)를 방지하기 위하여 MEMC 알고리즘을 실행하여 프레임 레이트(frame rate)를 높인다. MEMC 알고리즘은 원본 영상의 프레임 데이터들을 비교 분석하여 모션 벡터를 추출하고 그 모션 벡터를 바탕으로 원본 영상의 프레임 데이터들 사이에 삽입될 새로운 보간 프레임 데이터를 생성한다. 입력 영상 데이터의 프레임 레이트를 높이면 화면 상에 표시되는 객체의 움직임을 반영한 새로운 보간 프레임 데이터가 추가되기 때문에 저더를 방지할 수 있다. The image processor of the main board (14) includes a MEMC (Motion Estimation Motion Compensation) processing unit (24). The MEMC processing unit (24) can analyze the output signal of the sensor module (26) to determine the movement of the user's head or body (hereinafter, referred to as "user movement"). The MEMC processing unit (24) executes a MEMC algorithm to increase the frame rate in order to prevent judder when an image on the screen moves in conjunction with the movement of the user's head. The MEMC algorithm compares and analyzes frame data of the original image to extract a motion vector and generates new interpolation frame data to be inserted between the frame data of the original image based on the motion vector. Increasing the frame rate of the input image data can prevent judder because new interpolation frame data reflecting the movement of an object displayed on the screen is added.

일반적인 MEMC 알고리즘은 사용자 움직임과 무관하고 입력 영상의 객체 움직임에 종속적인 화면 전체의 영상 데이터를 대상으로 연산하기 때문에 데이터 연산 처리에 필요한 대기 시간(Latency)을 초래하여 사용자의 움직임과 그에 따른 영상의 반응 속도를 낮춘다. 그 결과, 일반적인 MEMC 알고리즘이 적용되면, 데이터 연산 처리 시간이 적지 않기 때문에 프레임 레이트를 높이더라도 화면 끌림이나 모션 블러(Motion blur)가 인지될 수 있다. 입체 영상으로 재현된 가상 현실 이미지에서 화면 끌림이나 모션 블러는 영상 품질을 떨어뜨릴 뿐 아니라 사용자의 피로감을 증가시킨다. The general MEMC algorithm operates on the image data of the entire screen, which is independent of the user's movement and dependent on the object movement of the input image. Therefore, it causes the latency required for data operation processing, which reduces the user's movement and the corresponding image response speed. As a result, when the general MEMC algorithm is applied, the data operation processing time is not small, so screen dragging or motion blur may be perceived even if the frame rate is increased. In virtual reality images reproduced as stereoscopic images, screen dragging or motion blur not only reduces the image quality but also increases user fatigue.

MEMC 처리부(24)는 사용자 움직임을 반영한 MEMC 알고리즘을 이용하여 화면 내의 국부 영역으로 관심 영역(Region Of Interest, 이하 “ROI 영역”이라 함)를 선정하여 ROI 영역 내에서만 보간 프레임 데이터를 생성함으로써 MEME 알고리점의 데이터 연산 시간을 줄여 사용자 움직임에 따른 영상의 반응 속도를 높인다. 비 ROI 영역(이하, “Non-ROI 영역”)의 데이터는 원본 영상의 현재 프레임 데이터에서 Non-ROI 영역의 데이터로 복사된다. 따라서, 본 발명은 사용자 움직임에 따라 ROI 영역을 가변하고 그 ROI 영역 내에서만 보간 프레임 데이터를 생성함으로써 사용자가 화면 끌림과 같은 저더나 모션 블러를 인지할 수 없는 가상 현실 화면을 구현할 수 있다. The MEMC processing unit (24) selects a region of interest (hereinafter referred to as “ROI region”) as a local area within the screen using a MEMC algorithm that reflects the user’s movement, and generates interpolated frame data only within the ROI region, thereby reducing the data calculation time of the MEME algorithm and increasing the response speed of the image according to the user’s movement. The data of the non-ROI region (hereinafter referred to as “Non-ROI region”) is copied from the current frame data of the original image to the data of the Non-ROI region. Therefore, the present invention can implement a virtual reality screen in which the user cannot perceive judder or motion blur, such as screen dragging, by varying the ROI region according to the user’s movement and generating interpolated frame data only within the ROI region.

도 3 및 도 4는 MEMC 알고리즘을 이용한 프레임 레이트 업 컨버젼의 일 예를 보여 주는 도면들이다. Figures 3 and 4 are drawings showing an example of frame rate up-conversion using the MEMC algorithm.

도 3 및 도 4를 참조하면, 프레임 레이트 업 컨버젼(Frame rate up conversion)은 크게 모션 판단(Motion estimation, ME)과 모션 보상 보간(motion compensated interpolation, MCI)으로 나누어질 수 있다. 모션 판단(ME)은 연속되는 프레임 데이터들 사이에 객체의 움직임(motion)을 계산하여 움직임의 변화에 해당되는 모션 벡터(motion vector, MV1)를 산출하는 과정이다. 모션 보상 보간(MCI)은 모션 판단(ME)을 통해서 얻은 모션 벡터(MV1)를 이용한 보간(interpolation) 방법으로 새로운 보간 프레임 데이터를 생성하는 과정이다. Referring to FIGS. 3 and 4, frame rate up conversion can be largely divided into motion estimation (ME) and motion compensated interpolation (MCI). Motion estimation (ME) is a process of calculating the motion of an object between consecutive frame data and producing a motion vector (MV1) corresponding to a change in motion. Motion compensated interpolation (MCI) is a process of generating new interpolated frame data by an interpolation method using a motion vector (MV1) obtained through motion estimation (ME).

모션 판단(ME)은 다양한 알고리즘이 알려져 있지만, 구현의 편리성 때문에 도 3과 같이 블럭 매칭 알고리즘(Block matching algorithm, BMA)이 많이 사용되고 있다.There are various known algorithms for motion judgment (ME), but the block matching algorithm (BMA) as shown in Fig. 3 is widely used due to its ease of implementation.

블럭 매칭 알고리즘(BMA)은 도 3에 도시된 바와 같이 현재 프레임 데이터(Fn)를 M×N(M 및 N은 양의 정수, 일반적으로 M=N) 사이즈 블록(size block)으로 나누고, 각 블록마다 이전 프레임 데이터(Fn-1)에서 소정 크기의 탐색 범위(Search Range, SR) 안에 있는 블록들과 비교하여 가장 유사도가 높은 블록을 가리키는 모션 벡터(MV)를 찾는다. 도 3에서, Bi,j는 현재 프레임 데이터(Fn)에서 i 번째 행(row), j번째 열(column)에 존재하는 블럭이다. 탐색 범위(SR)는 현재 프레임 데이터(Fn)에 매칭된 블록 혹은, 픽셀들이 1 프레임 기간 동안 움직일 수 있는 최대 거리로 정의된다. 탐색 범위(SR)는 현재 프레임 데이터(Fn)에 존재하는 블록이 이전 프레임(Fn-1)에 존재할 수 있는 최대 거리로써 모션 판단과정에서 계산 및 하드웨어의 복잡도(Complexity) 문제를 고려하여 정해진다. The block matching algorithm (BMA), as illustrated in FIG. 3, divides the current frame data (Fn) into M×N (M and N are positive integers, generally M=N) sized blocks, and for each block, compares it with blocks within a search range (SR) of a predetermined size in the previous frame data (Fn-1) to find a motion vector (MV) that indicates the block with the highest similarity. In FIG. 3, Bi,j is a block existing in the i-th row and j-th column in the current frame data (Fn). The search range (SR) is defined as the maximum distance that blocks or pixels matching the current frame data (Fn) can move during one frame period. The search range (SR) is the maximum distance that a block existing in the current frame data (Fn) can exist in the previous frame (Fn-1), and is determined by considering the computational and hardware complexity issues in the motion judgment process.

블럭 매칭 알고리즘(BMA)의 매칭기준(Matching Criterion)은 현재 프레임 데이터(Fn)의 블록(Bi,j)을 기준으로 하여 이전 프레임 데이터(Fn-1)의 블록을 한 픽셀씩 이동해 가며 유사도를 절대차 합(Sum of Absolute Difference, SAD)으로 구하고, 그 절대차 합(SAD)에 기초하여 모션 벡터(MV1)를 산출한다.The matching criterion of the block matching algorithm (BMA) is to move the block of the previous frame data (Fn-1) by one pixel based on the block (Bi,j) of the current frame data (Fn) and calculate the similarity as the sum of absolute differences (SAD), and then calculate the motion vector (MV1) based on the sum of absolute differences (SAD).

블럭 매칭 알고리즘(BMA)을 사용한 모션 보상 프레임 레이트 업 컨버젼은 미리 설정된 블록 단위로 현재 프레임 데이터(Fn)와 이전 프레임 데이터(Fn-1) 사이에서 객체의 움직임 방향 및 속도를 지시하는 모션 벡터(MV)를 계산한다. Motion compensated frame rate up conversion using block matching algorithm (BMA) calculates motion vectors (MV), which indicate the direction and speed of movement of an object, between the current frame data (Fn) and the previous frame data (Fn-1) in preset block units.

양방향 모션 판단 방법(Bilateral ME, BME)은 도 4에 도시된 바와 같이 블럭 매칭 알고리즘(BMA)과는 달리 보간 프레임을 기준으로 하여 모션 벡터(MV1)를 직접 추정한다. Unlike the block matching algorithm (BMA), the bilateral motion estimation method (Bilateral ME, BME) directly estimates the motion vector (MV1) based on the interpolated frame, as illustrated in Fig. 4.

도 4에 도시된 바와 같이 블록 또는 픽셀이 1 프레임 기간 동안 일정한 속도로 움직인다고 가정하고, 보간 프레임 데이터(Fn-1/2)의 해당 블록(Bi,j)을 지나가는 블록을 찾는다고 할 때, 이전 프레임(Fn-1)과 현재 프레임 데이터(Fn)에서 서로 매칭되는 블록들은 해당 블록(Bi,j)을 기준으로 대칭이 된다. 양방향 모션 판단 방법(BME)은 보간 프레임 데이터(Fn-1/2)을 기준으로 하여 이전 프레임 데이터(Fn-1)와 현재 프레임 데이터(Fn)의 대칭성을 이용해서 모션 벡터(MV1)를 결정한다. As shown in Fig. 4, assuming that a block or pixel moves at a constant speed during one frame period, and when finding a block passing through the corresponding block (Bi,j) of interpolated frame data (Fn-1/2), the blocks that match each other in the previous frame (Fn-1) and the current frame data (Fn) are symmetrical with respect to the corresponding block (Bi,j). The bidirectional motion determination method (BME) determines a motion vector (MV1) by utilizing the symmetry of the previous frame data (Fn-1) and the current frame data (Fn) based on the interpolated frame data (Fn-1/2).

본 발명의 MEMC 알고리즘은 도 3 및 도 4에 한정되지 않는다. 예컨대, 본 발명은 공지된 MEMC 알고리즘을 이용하되 사용자 움직임을 고려하여 ROI 영역을 실기간으로 선택하여 사용자가 움직일 때 ROI 영역을 실시간 가변하고 그 ROI 영역 내에서만 프레임 레이트를 높인다. 또한, 본 발명의 알고리즘을 사용자 움직임과 반대 방향으로 모션 벡터(MV2)를 생성하여 사용자가 움직일 때 생성된 모션 벡터(MV2)를 이용하여 ROI 영역 내의 보간 프레임 데이터를 생성한다. The MEMC algorithm of the present invention is not limited to FIGS. 3 and 4. For example, the present invention utilizes a known MEMC algorithm, but selects a ROI region in real time by considering the user's movement, and varies the ROI region in real time when the user moves, and increases the frame rate only within the ROI region. In addition, the algorithm of the present invention generates a motion vector (MV2) in the opposite direction to the user's movement, and generates interpolated frame data within the ROI region by using the motion vector (MV2) generated when the user moves.

도 5는 MEMC 처리부(24)를 상세히 보여 주는 블록도이다. 도 6은 사용자 움직임이 없을 때의 ROI 영역(60)을 예시한 도면이다. 도 7 및 도 8은 사용자가 움직일 때의 ROI 영역(60)을 예시한 도면들이다. Fig. 5 is a block diagram showing the MEMC processing unit (24) in detail. Fig. 6 is a drawing showing an ROI area (60) when there is no user movement. Figs. 7 and 8 are drawings showing an ROI area (60) when the user moves.

도 5 내지 도 8를 참조하면, MEMC 처리부(24)는 제1 ROI 추출부(31), 제1 프레임 레이트 변환부(32), 사용자 움직임 감지부(33), ROI 결정부(34), 제2 ROI 추출부(35), 제2 프레임 레이트 변환부(36), 및 데이터 합성부(40)를 구비한다. Referring to FIGS. 5 to 8, the MEMC processing unit (24) includes a first ROI extraction unit (31), a first frame rate conversion unit (32), a user movement detection unit (33), an ROI determination unit (34), a second ROI extraction unit (35), a second frame rate conversion unit (36), and a data synthesis unit (40).

제1 ROI 추출부(31)는 입력 영상의 현재 프레임 데이터(Fn)를 수신하여 미리 설정된 ROI 영역 내의 픽셀 데이터를 추출하여 제1 프레임 레이트 변환부(32)로 전송한다. 제1 ROI 추출부(31)에서 설정된 ROI 영역(60)은 사용자가 움직이지 않을 때의 ROI 영역으로 지정된다. The first ROI extraction unit (31) receives the current frame data (Fn) of the input image, extracts pixel data within a preset ROI area, and transmits the extracted pixel data to the first frame rate conversion unit (32). The ROI area (60) set by the first ROI extraction unit (31) is designated as the ROI area when the user does not move.

사용자는 화면 중앙부에서 화면 변화를 민감하게 반응하는 반면 화면 가장자리의 변화에 둔감하다. 제1 ROI 추출부(31)의 ROI 영역(60)은 사용자가 화면 중앙부를 중심으로 보기 때문에 도 6에 도시된 바와 같이 제1 및 제2 화면들(20L, 20R) 각각에서 가장자리를 제외한 중앙부로 설정될 수 있다. 이 ROI 영역(60)은 전체 화면 대비 대략 50% 크기의 화면 중앙부로 지정될 수 있으나 이에 한정되지 않는다. Users are sensitive to changes in the center of the screen, but are insensitive to changes in the edges of the screen. The ROI area (60) of the first ROI extraction unit (31) can be set to the center of each of the first and second screens (20L, 20R) excluding the edges, as shown in Fig. 6, because the user views the center of the screen as the center. This ROI area (60) can be designated as the center of the screen of approximately 50% of the entire screen, but is not limited thereto.

제1 프레임 레이트 변환부(32)는 사용자 움직임 감지부(33)로부터의 플래그(flag) 신호가 수신될 때 제1 ROI 추출부(31)로부터 입력된 ROI 영역(60) 내의 픽셀 데이터들에 대하여 MEMC 알고리즘을 실행한다. 플래그 신호는 그 논리값에 따라 사용자 움직임 여부를 지시할 수 있다. 예를 들어, 사용자가 정지 상태일 때 플래그 신호가 0(=low)으로 발생되고, 사용자가 움직이면 플래그 신호가 1(=high)로 발생될 수 있다. 제1 프레임 레이트 변환부(32)는 사용자 움직임이 없을 때 활성화되어 MEMC 알고리즘을 실행한다. 제1 프레임 레이트 변환부(32)는 사용자 움직임과 무관하게 ROI 영역(60) 내의 영상 데이터에서 객체 움직임 기반 모션 벡터(MV1, 이하 “제1 모션 벡터”라 함)를 계산하고 그 제1 모션 벡터(MV1)를 이용하여 이전 프레임 데이터(Fn-1)와 현재 프레임 데이터(Fn) 사이의 보간 프레임 데이터(Fn-1/2)의 ROI 영역 데이터를 생성하여 프레임 레이트를 높인다. 이전 프레임 데이터(Fn-1)와 현재 프레임 데이터(Fn)은 입력 영상에서 실제하는 프레임 데이터이고, 보간 프레임 데이터는 입력 영상의 프레임 데이터들 간의 비교를 통해 객체의 움직임 기반으로 계산된 제1 모션 벡터(MV1)를 이용하여 생성된 데이터이다. 제1 프레임 레이트 변환부(32)는 사용자 움직임 감지부(33)에 의해 사용자가 움직일 때 대기 모드로 전환되어 동작하지 않는다. The first frame rate conversion unit (32) executes the MEMC algorithm on pixel data within the ROI region (60) input from the first ROI extraction unit (31) when a flag signal from the user movement detection unit (33) is received. The flag signal can indicate whether the user moves or not according to its logic value. For example, when the user is stationary, the flag signal can be generated as 0 (=low), and when the user moves, the flag signal can be generated as 1 (=high). The first frame rate conversion unit (32) is activated when there is no user movement and executes the MEMC algorithm. The first frame rate conversion unit (32) calculates an object movement-based motion vector (MV1, hereinafter referred to as “first motion vector”) from image data within the ROI region (60) regardless of the user’s movement, and uses the first motion vector (MV1) to generate ROI region data of interpolated frame data (Fn-1/2) between the previous frame data (Fn-1) and the current frame data (Fn), thereby increasing the frame rate. The previous frame data (Fn-1) and the current frame data (Fn) are actual frame data in the input image, and the interpolated frame data is data generated using the first motion vector (MV1) calculated based on the object’s movement through a comparison between the frame data of the input image. The first frame rate conversion unit (32) switches to a standby mode and does not operate when the user moves by the user movement detection unit (33).

사용자 움직임 감지부(33)는 자이로 센서, 3축 가속도 센서, 자려계, IR 카메라 등의 센서를 이용하여 사용자의 움직임을 감지한다. 사용자가 움직이지 않으면, 사용자 움직인 감지부(33)는 제1 프레임 레이트 변환부(32)를 활성화하기 위한 플래그 신호를 발생한다. 반면에, 사용자 움직인 감지부(33)는 사용자가 움직이면 제1 프레임 레이트 변환부(32)를 대기 모드로 제어하고 사용자 움직임에 따른 움직임 방향 및 속도를 지시하는 정보를 ROI 결정부(34)로 전송한다. The user movement detection unit (33) detects the user's movement using sensors such as a gyro sensor, a 3-axis acceleration sensor, a magnetometer, and an IR camera. If the user does not move, the user movement detection unit (33) generates a flag signal to activate the first frame rate conversion unit (32). On the other hand, if the user moves, the user movement detection unit (33) controls the first frame rate conversion unit (32) to a standby mode and transmits information indicating the direction and speed of movement according to the user's movement to the ROI determination unit (34).

입력 영상의 프레임 데이터는 사용자 움직임 방향과 반대 방향으로 이동한다. 사용자가 화면의 중심을 주로 보기 때문에 ROI 영역이 사용자의 움직임 방향을 따라 이동한다. ROI 결정부(34)는 사용자 움직임을 고려하여 ROI 영역을 재설정하여 사용자 움직임에 연동하여 ROI 영역을 실시간 가변한다. ROI 결정부(34)에 의해 결정된 ROI 영역(60)은 사용자 움직임을 추종한다. ROI 결정부(34)는 도 7 및 도 8에 도시된 바와 같이 사용자 움직임 방향과 같은 방향을 향하고, 사용자 움직임 속도로 ROI 영역(60)을 이동시킨다. The frame data of the input image moves in the opposite direction to the user's movement direction. Since the user mainly looks at the center of the screen, the ROI area moves along the user's movement direction. The ROI determination unit (34) resets the ROI area in consideration of the user's movement and changes the ROI area in real time in conjunction with the user's movement. The ROI area (60) determined by the ROI determination unit (34) follows the user's movement. The ROI determination unit (34) faces the same direction as the user's movement direction as shown in FIG. 7 and FIG. 8 and moves the ROI area (60) at the user's movement speed.

제2 ROI 추출부(34)는 입력 영상의 현재 프레임 데이터(Fn)를 수신하여 ROI 영역 결정부(34)에 의해 결정된 ROI 영역(60) 내의 픽셀 데이터를 추출하여 제2 프레임 레이트 변환부(36)로 전송한다. The second ROI extraction unit (34) receives the current frame data (Fn) of the input image, extracts pixel data within the ROI area (60) determined by the ROI area determination unit (34), and transmits the data to the second frame rate conversion unit (36).

제2 프레임 레이트 변환부(36)는 사용자 움직임 감지부(33)로부터의 플래그 신호가 수신될 때 제2 ROI 추출부(35)로부터 입력된 ROI 영역(60) 내의 픽셀 데이터들에 대하여 MEMC 알고리즘을 실행한다. 제2 프레임 레이트 변환부(36)는 사용자가 움직일 때 활성화되어 MEMC 알고리즘을 실행한다. 제2 프레임 레이트 변환부(36)는 ROI 영역(60) 내의 영상 데이터에서 제1 모션 벡터(MV1)를 계산하고 제1 모션 벡터(MV1)에 사용자 움직임 방향 및 속도를 반영하여 도 7 및 도 8과 같이 사용자 움직임을 따르는 사용자 움직임 기반 모션 벡터(MV2, 이하 “제2 모션 벡터”라 함)를 생성한다. 제2 모션 벡터(MV2)는 도 7 및 도 8에 도시된 바와 같이 사용자 움직임 방향에 대하여 반대 방향을 향하고 사용자 움직임 속도에 비례하는 크기를 갖는다. 그리고 제2 프레임 레이트 변환부(36)는 제2 모션 벡터(MV2)를 이용하여 이전 프레임 데이터(Fn-1)와 현재 프레임 데이터(Fn) 사이의 보간 프레임 데이터(Fn-1/2)의 ROI 영역 데이터를 생성하여 프레임 레이트를 높인다. 제2 프레임 레이트 변환부(36)는 사용자 움직임 감지부(33)에 의해 사용자가 정지 상태일 때 대기 모드로 전환되어 동작하지 않는다.The second frame rate conversion unit (36) executes the MEMC algorithm on pixel data within the ROI region (60) input from the second ROI extraction unit (35) when a flag signal from the user movement detection unit (33) is received. The second frame rate conversion unit (36) is activated when the user moves and executes the MEMC algorithm. The second frame rate conversion unit (36) calculates a first motion vector (MV1) from the image data within the ROI region (60) and reflects the user movement direction and speed to the first motion vector (MV1) to generate a user movement-based motion vector (MV2, hereinafter referred to as “second motion vector”) that follows the user movement as shown in FIGS. 7 and 8. The second motion vector (MV2) faces the opposite direction to the user movement direction and has a size proportional to the user movement speed as shown in FIGS. 7 and 8. And the second frame rate conversion unit (36) increases the frame rate by generating ROI area data of interpolation frame data (Fn-1/2) between the previous frame data (Fn-1) and the current frame data (Fn) using the second motion vector (MV2). The second frame rate conversion unit (36) is switched to standby mode and does not operate when the user is stationary by the user motion detection unit (33).

데이터 합성부(40)는 사용자 움직임 감지부(33)로부터의 플래그 신호에 따라 사용자 움직임 여부를 판단할 수 있다. 데이터 합성부(40)는 사용자 정지 상태일 때 제1 프레임 레이트 변환부(32)에 의해 생성된 ROI 영역 데이터와 현재 프레임 데이터(Fn)의 Non-ROI 영역 데이터를 한 프레임 데이터로 조합하여 제1 및 제2 화면(20L, 20R) 각각에서 화면 전체의 보간 프레임 데이터(Fn-1/2)를 생성한다. 데이터 합성부(40)는 이전 프레임 데이터(Fn-1), 보간 프레임 데이터(Fn-1/2), 그리고 현재 프레임 데이터(Fn) 순으로 영상 데이터를 출력한다. 데이터 합성부(40)로부터 출력된 영상 데이터는 디스플레이 구동부(22)로 전송된다. The data synthesis unit (40) can determine whether the user is moving based on a flag signal from the user movement detection unit (33). When the user is stationary, the data synthesis unit (40) combines the ROI area data generated by the first frame rate conversion unit (32) and the Non-ROI area data of the current frame data (Fn) into one frame data to generate interpolation frame data (Fn-1/2) of the entire screen in each of the first and second screens (20L, 20R). The data synthesis unit (40) outputs image data in the order of the previous frame data (Fn-1), the interpolation frame data (Fn-1/2), and the current frame data (Fn). The image data output from the data synthesis unit (40) is transmitted to the display driving unit (22).

도 9는 시간 축 상에서 제1 및 제2 프레임 레이트 변환부의 구동 상태가 사용자 움직임에 따라 변화되는 예를 보여 주는 도면이다. 도 5에서 “MEMC”는 사용자가 정지 상태일 때 활성화되는 제1 프레임 레이트 변환부(32)에 의해 실행되는 MEMC 알고리즘을 나타낸다. “M-MEMC”는 사용자 움직일 때 활성화되는 제2 프레임 레이트 변환부(36)에 의해 실행되는 MEMC 알고리즘을 나타낸다. FIG. 9 is a diagram showing an example in which the driving states of the first and second frame rate converters on the time axis change according to the user's movement. In FIG. 5, “MEMC” represents a MEMC algorithm executed by the first frame rate converter (32) that is activated when the user is stationary. “M-MEMC” represents a MEMC algorithm executed by the second frame rate converter (36) that is activated when the user moves.

도 9를 참조하면, 사용자가 정지하고 있으면 제1 프레임 레이트 변환부(32)이 동작하여 입력 영상의 객체 움직임을 바탕으로 미리 설정된 ROI 영역의 보간 프레임 데이터가 생성된다. 이 때, 제2 프레임 레이트 변환부(32)는 동작하지 않고 대기 모드로 전환된다. Referring to Fig. 9, when the user is stationary, the first frame rate conversion unit (32) operates to generate interpolated frame data of a preset ROI area based on the object movement of the input image. At this time, the second frame rate conversion unit (32) does not operate and switches to standby mode.

사용자가 움직이면, 제2 프레임 레이트 변환부(36)가 동작하여 입력 영상의 객체 움직임과 사용자 움직임을 바탕으로 실시간 가변되는 ROI 영역의 보간 프레임 데이터가 생성된다. 이 때, 제1 프레임 레이트 변환부(32)는 동작하지 않고 대기 모드로 전환된다. When the user moves, the second frame rate conversion unit (36) operates to generate interpolated frame data of the ROI area that changes in real time based on the object movement of the input image and the user movement. At this time, the first frame rate conversion unit (32) does not operate and switches to standby mode.

도 10은 사용자가 움직일 때 관심 영역(ROI)가 실시간 변하는 예를 보여 주는 도면이다. 본 발명은 사용자가 움직일 때 사용자 움직임 방향과 그 움직임 속도를 따라 ROI 영역이 실시간 변할 수 있다. Figure 10 is a diagram showing an example of a region of interest (ROI) changing in real time when a user moves. According to the present invention, when a user moves, the ROI area can change in real time according to the direction and speed of the user's movement.

본 발명은 ROI 영역과 Non-ROI 영역으로 나뉘어진 화면 내에서 ROI 영역 내에서만 MEMC 알고리즘을 실행하여 보간 프레임 데이터를 생성한다. 그 결과, 본 발명은 MEMC 알고리즘의 데이터 연산에 따른 대기 시간(latency)를 최소화하고 프레임 레이트를 높임으로써 사용자가 화면 끌림과 같은 저더나 모션 블러를 인지할 수 없는 가상 현실 화면을 구현할 수 있다.The present invention generates interpolated frame data by executing the MEMC algorithm only within the ROI region within a screen divided into an ROI region and a non-ROI region. As a result, the present invention can implement a virtual reality screen in which the user cannot perceive judder or motion blur, such as screen dragging, by minimizing the latency according to the data operation of the MEMC algorithm and increasing the frame rate.

사용자 움직임 방향의 반대 방향으로 화면(20L, 20R)에 표시되는 영상이 이동한다. 이를 고려하여 제2 모션 벡터는 사용자 움직임의 반대 방향을 따라 사용자 움직임 방향으로 결정될 수 있다. 그런데 입력 영상의 객체가 제2 모션 벡터(MV2)의 방향에 대하여 반대 방향으로 이동하면 제2 모션 벡터의 방향과 실제 영상의 객체 이동 방향이 상충되어 도 12의 예와 같이 역 방향 저더(judder)가 보일 수 있다. The image displayed on the screen (20L, 20R) moves in the opposite direction of the user's movement. Considering this, the second motion vector can be determined in the user's movement direction along the opposite direction of the user's movement. However, if the object of the input image moves in the opposite direction to the direction of the second motion vector (MV2), the direction of the second motion vector and the object movement direction of the actual image may conflict, resulting in reverse judder as in the example of Fig. 12.

도 11은 사용자 움직임과 제2 모션 벡터를 보여 주는 도면이다. 도 11에서 “OBJ”는 화면(20L, 20R) 상에 표시되는 영상의 움직임 객체를 나타낸다. “USER”는 가상 현실 장치를 착용한 사용자이고, “m”은 사용자(USER)의 모션 벡터이다. 도 12는 영상의 객체 이동 방향과 제2 모션 벡터의 방향이 반대 방향일 때 역방향 저더가 발생되는 예를 보여 주는 도면이다. Fig. 11 is a drawing showing a user movement and a second motion vector. In Fig. 11, “OBJ” represents a moving object of an image displayed on a screen (20L, 20R). “USER” represents a user wearing a virtual reality device, and “m” represents a motion vector of the user (USER). Fig. 12 is a drawing showing an example in which reverse judder occurs when the direction of movement of an object of an image and the direction of the second motion vector are opposite.

화면(20L, 20R) 상에 표시되는 객체(OBJ)가 제2 모션 벡터(MV2)에 대하여 반대 방향으로 이동되면, 보간 프레임의 ROI 영역에서 생성되는 객체 이미지가 객체의 실제 움직임 방향과 반대 방향으로 생성되기 때문에 도 12에 도시된 바와 같이 역방향 저더(RJD)가 보일 수 있다. When an object (OBJ) displayed on the screen (20L, 20R) moves in the opposite direction with respect to the second motion vector (MV2), reverse judder (RJD) may be observed as illustrated in FIG. 12 because the object image generated in the ROI area of the interpolation frame is generated in the opposite direction to the actual movement direction of the object.

본 발명은 이러한 역방향 저더(RJD)를 고려하여 아래의 수학식 1에 도시된 바와 같이 영상의 움직임 객체(OBJ)를 고려하여 제2 모션 벡터(MV2)에 곱해지는 가중치(α)를 조정함으로써 역방향 저더(RJD)를 방지할 수 있다. The present invention can prevent reverse judder (RJD) by adjusting the weight (α) multiplied to the second motion vector (MV2) by considering the moving object (OBJ) of the image as shown in the following mathematical expression 1, taking into account the reverse judder (RJD).

여기서, m은 사용자 움직임에 따른 모션 벡터이고 x는 제2 모션 벡터(MV2)를 나타낸다. 가중치(α)는 사용자의 움직임 속도와 영상의 움직임 객체의 방향에 따라 0과 1 사이의 값으로 결정된다. Here, m is a motion vector according to the user's movement and x represents the second motion vector (MV2). The weight (α) is determined as a value between 0 and 1 depending on the user's movement speed and the direction of the moving object in the image.

< Case 1 >< Case 1 >

영상의 객체(0BJ)의 움직임에 관계없이 사용자(USER)의 모션 벡터(m) 반대 방향으로 제2 모션 벡터(MV2)가 결정된다. 사용자(OBJ)의 머리나 시선이 이동하는 시간이 빠르면 빠를수록 제2 모션 벡터(MV2)가 커지고 영상에서 객체(OBJ)의 움직임은 상대적으로 작게 느껴진다. 이 경우, 영상의 객체 움직임은 상대적으로 작게 껴질 것이므로 객체의 움직임은 고려하지 않는다. 따라서, 사용자 움직임 속도가 소정의 기준값 이상으로 빠르다면 수학식 1에서 가중치(α)는 1로 결정되어 사용자의 움직임 방향의 반대 방향으로 결정된다. Regardless of the movement of the object (0BJ) in the image, the second motion vector (MV2) is determined in the opposite direction of the motion vector (m) of the user (USER). The faster the time at which the head or gaze of the user (OBJ) moves, the larger the second motion vector (MV2) becomes, and the movement of the object (OBJ) in the image feels relatively small. In this case, since the movement of the object in the image will be relatively small, the movement of the object is not considered. Therefore, if the user's movement speed is faster than a predetermined reference value, the weight (α) in mathematical expression 1 is determined as 1, and is determined in the opposite direction of the user's movement direction.

< Case 2 >< Case 2 >

보간 프레임과 실제로 존재하는 그 다음 프레임(현재 프레임)을 비교하여 영상의 움직임 객체(OBJ)의 이동 방향에 대하여 역방향으로 제2 모션 벡터(MV)가 발생되는 영역에서 가중치(α)를 1 보다 작은 값으로 조정하여 역 방향 저더(RJD)를 최소화한다. By comparing the interpolated frame with the next frame (current frame) that actually exists, the weight (α) is adjusted to a value less than 1 in the area where the second motion vector (MV) occurs in the reverse direction with respect to the movement direction of the moving object (OBJ) in the image, thereby minimizing reverse judder (RJD).

< Case 3 >< Case 3 >

보간 프레임과 그 다음 프레임을 비교 하여 영상의 거의 모든 부분에서 대략 50% 이상에서 객체(OBJ)의 움직임이 제2 모션 벡터(MV2)에 대하여 역방향이면 제2 모션 벡터(MV2)를 적용하지 않고 제1 모션 벡터(MV)로 보간 프레임의 ROI 영역 데이터를 생성한다. 이 경우, 수학식 1에서 가중치(α)는 0(zero)으로 조정된다. By comparing the interpolated frame with the next frame, if the movement of the object (OBJ) is in the reverse direction with respect to the second motion vector (MV2) in approximately 50% or more of almost all parts of the image, the ROI region data of the interpolated frame is generated with the first motion vector (MV) without applying the second motion vector (MV2). In this case, the weight (α) in mathematical expression 1 is adjusted to 0 (zero).

이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Through the above explanation, those skilled in the art will be able to see that various changes and modifications are possible without departing from the technical idea of the present invention. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be determined by the scope of the patent claims.

20, 20L, 20R : 표시소자 22: 디스플레이 구동부
24 : MEMC 처리부 26 : 센서 모듈
31 : 제1 ROI 추출부 32 : 제1 프레임 레이트 변환부
33 : 사용자 움직임 감지부 34 : ROI 결정부
35 : 제2 ROI 추출부 36 : 제2 프레임 레이트 변환부
40 : 데이터 합성부
20, 20L, 20R: Display element 22: Display driver
24: MEMC processing unit 26: Sensor module
31: 1st ROI extraction unit 32: 1st frame rate conversion unit
33: User movement detection unit 34: ROI determination unit
35: 2nd ROI extraction unit 36: 2nd frame rate conversion unit
40: Data synthesis section

Claims (15)

관심 영역과 비 관심 영역으로 나뉘어진 제1 및 제2 화면;
사용자의 움직임을 감지하는 센서 모듈;
상기 사용자가 정지 상태일 때 미리 설정된 관심 영역의 보간 프레임 데이터를 생성하는 제1 프레임 레이트 변환부;
상기 사용자가 움직일 때 상기 사용자 움직임을 반영하여 상기 관심 영역을 실시간 가변하는 관심 영역 결정부;
상기 관심 영역 결정부에 의해 가변된 관심 영역의 보간 프레임 데이터를 생성하는 제2 프레임 레이트 변환부;
상기 제1 프레임 레이트 변환부 또는 상기 제2 프레임 레이트 변환부로부터 수신된 관심 영역의 보간 프레임 데이터와 현재 프레임 데이터의 비관심 영역 데이터를 조합하여 화면 전체의 보간 프레임 데이터를 출력하는 데이터 합성부; 및
상기 데이터 합성부로부터 출력된 데이터를 상기 제1 및 제2 화면의 픽셀들에 기입하는 디스플레이 구동부를 구비하고,
상기 제1 프레임 레이트 변환부는 상기 사용자가 움직일 때 대기 상태로 전환되는 가상 현실 장치.
First and second screens divided into areas of interest and areas of no interest;
A sensor module that detects the user's movements;
A first frame rate converter for generating interpolated frame data of a preset region of interest when the user is stationary;
A region of interest determination unit that changes the region of interest in real time to reflect the movement of the user when the user moves;
A second frame rate converter unit that generates interpolated frame data of a region of interest varied by the region of interest determining unit;
A data synthesis unit that combines interpolated frame data of an area of interest received from the first frame rate conversion unit or the second frame rate conversion unit and non-interested area data of the current frame data to output interpolated frame data of the entire screen; and
A display driving unit is provided that writes data output from the data synthesis unit into pixels of the first and second screens,
A virtual reality device in which the first frame rate converter is switched to a standby state when the user moves.
제 1 항에 있어서,
상기 제1 프레임 레이트 변환부는 입력 영상의 객체 움직임을 바탕으로 제1 모션 벡터를 산출하고, 상기 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성하는 가상 현실 장치.
In the first paragraph,
A virtual reality device in which the first frame rate converter calculates a first motion vector based on the object movement of the input image and generates interpolated frame data of the region of interest using the motion vector.
삭제delete 제 1 항에 있어서,
상기 제2 프레임 레이트 변환부는 상기 사용자의 움직임 방향과 속도를 반영한 제2 모션 벡터를 산출하고, 상기 제2 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성하는 가상 현실 장치.
In the first paragraph,
A virtual reality device in which the second frame rate converter calculates a second motion vector reflecting the direction and speed of the user's movement, and generates interpolated frame data of the region of interest using the second motion vector.
제 4 항에 있어서,
상기 제2 프레임 레이트 변환부는 상기 사용자가 정지 상태일 때 대기 상태로 전환되는 가상 현실 장치.
In paragraph 4,
A virtual reality device in which the second frame rate converter is switched to a standby state when the user is stationary.
제 4 항에 있어서,
상기 제1 프레임 레이트 변환부는 입력 영상의 객체 움직임을 바탕으로 제1 모션 벡터를 산출하고, 상기 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성하고,
상기 제2 프레임 레이트 변환부는 상기 사용자의 움직임 방향과 속도를 반영한 제2 모션 벡터를 산출하고, 상기 제2 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성하며,
상기 제1 프레임 레이트 변환부는 상기 사용자가 움직일 때 대기 상태로 전환되고,
상기 제2 프레임 레이트 변환부는 상기 사용자가 정지 상태일 때 대기 상태로 전환되는 가상 현실 장치.
In paragraph 4,
The above first frame rate converter calculates a first motion vector based on the object movement of the input image, and generates interpolated frame data of the region of interest using the motion vector.
The second frame rate converter calculates a second motion vector reflecting the user's movement direction and speed, and generates interpolated frame data of the region of interest using the second motion vector.
The above first frame rate converter switches to a standby state when the user moves,
A virtual reality device in which the second frame rate converter is switched to a standby state when the user is stationary.
제 5 항 또는 제 6 항에 있어서,
상기 제1 및 제2 화면에 표시되는 영상 데이터는 상기 사용자의 움직임 방향에 대하여 반대 방향으로 이동되고,
상기 관심 영역 결정부에 의해 가변되는 상기 관심 영역은 상기 사용자의 움직임 방향과 같은 방향으로 이동되며,
상기 제2 모션 벡터는 상기 사용자의 움직임 방향과 반대 방향을 향하는 가상 현실 장치.
In clause 5 or 6,
The image data displayed on the first and second screens moves in the opposite direction to the user's movement direction,
The region of interest, which is variable by the region of interest determining unit, moves in the same direction as the user's movement direction.
A virtual reality device wherein the second motion vector points in the opposite direction to the user's movement direction.
관심 영역과 비 관심 영역으로 나뉘어진 제1 및 제2 화면;
사용자의 움직임을 감지하는 사용자 움직임 감지부;
입력 영상의 현재 프레임 데이터에서 미리 설정된 관심 영역 내의 데이터를 추출하는 제1 관심 영역 추출부;
상기 사용자 움직임 감지부의 출력 신호에 응답하여 상기 사용자가 정지 상태일 때 상기 제1 관심 영역 추출부로부터 수신된 데이터를 이용하여 보간 프레임의 관심 영역 데이터를 생성하는 제1 프레임 레이트 변환부;
상기 사용자 움직임 감지부의 출력 신호에 응답하여 상기 사용자가 움직일 때 상기 사용자 움직임을 추종하는 관심 영역을 결정하는 관심 영역 결정부;
상기 관심 영역 결정부에 의해 결정된 관심 영역 내의 데이터를 추출하는 제2 관심 영역 추출부;
상기 사용자 움직임 감지부의 출력 신호에 응답하여 상기 사용자가 움직일 때 상기 제2 관심 영역 추출부로부터 수신된 데이터를 이용하여 보간 프레임의 관심 영역 데이터를 생성하는 제2 프레임 레이트 변환부;
상기 제1 프레임 레이트 변환부 또는 상기 제2 프레임 레이트 변환부로부터 수신된 관심 영역의 보간 프레임 데이터와 상기 현재 프레임 데이터의 비관심 영역의 데이터를 조합하여 보간 프레임 데이터를 출력하는 데이터 합성부; 및
상기 데이터 합성부로부터 출력된 데이터를 상기 제1 및 제2 화면의 픽셀들에 기입하는 디스플레이 구동부를 구비하고,
상기 제1 프레임 레이트 변환부는 상기 사용자가 움직일 때 대기 상태로 전환되는 가상 현실 장치.
First and second screens divided into areas of interest and areas of no interest;
A user motion detection unit that detects the user's movement;
A first region of interest extraction unit for extracting data within a preset region of interest from current frame data of an input image;
A first frame rate converter for generating region of interest data of an interpolated frame using data received from the first region of interest extraction unit when the user is stationary in response to an output signal of the user motion detection unit;
A region of interest determination unit that determines a region of interest that follows the user's movement when the user moves in response to an output signal of the user's movement detection unit;
A second region of interest extraction unit for extracting data within a region of interest determined by the region of interest determination unit;
A second frame rate converter for generating region of interest data of an interpolated frame using data received from the second region of interest extraction unit in response to an output signal of the user movement detection unit when the user moves;
A data synthesis unit that combines interpolated frame data of an area of interest received from the first frame rate conversion unit or the second frame rate conversion unit and data of an area of no interest of the current frame data to output interpolated frame data; and
A display driving unit is provided that writes data output from the data synthesis unit into pixels of the first and second screens,
A virtual reality device in which the first frame rate converter is switched to a standby state when the user moves.
제 8 항에 있어서,
상기 제1 프레임 레이트 변환부는 입력 영상의 객체 움직임을 바탕으로 제1 모션 벡터를 산출하고, 상기 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성하는 가상 현실 장치.
In Article 8,
A virtual reality device in which the first frame rate converter calculates a first motion vector based on the object movement of the input image and generates interpolated frame data of the region of interest using the motion vector.
삭제delete 제 8 항에 있어서,
상기 제2 프레임 레이트 변환부는 상기 사용자의 움직임 방향과 속도를 반영한 제2 모션 벡터를 산출하고, 상기 제2 모션 벡터를 이용하여 상기 관심 영역의 보간 프레임 데이터를 생성하는 가상 현실 장치.
In Article 8,
A virtual reality device in which the second frame rate converter calculates a second motion vector reflecting the direction and speed of the user's movement, and generates interpolated frame data of the region of interest using the second motion vector.
제 11 항에 있어서,
상기 제2 프레임 레이트 변환부는 상기 사용자가 정지 상태일 때 대기 상태로 전환되는 가상 현실 장치.
In Article 11,
A virtual reality device in which the second frame rate converter is switched to a standby state when the user is stationary.
제 12 항에 있어서,
상기 제1 및 제2 화면에 표시되는 영상 데이터는 상기 사용자의 움직임 방향에 대하여 반대 방향으로 이동되고,
상기 관심 영역 결정부에 의해 가변되는 상기 관심 영역은 상기 사용자의 움직임 방향과 같은 방향으로 이동되며,
상기 제2 모션 벡터는 상기 사용자의 움직임 방향과 반대 방향을 향하는 가상 현실 장치.
In Article 12,
The image data displayed on the first and second screens moves in the opposite direction to the user's movement direction,
The region of interest, which is variable by the region of interest determining unit, moves in the same direction as the user's movement direction.
A virtual reality device wherein the second motion vector points in the opposite direction to the user's movement direction.
삭제delete 삭제delete
KR1020160182788A 2016-12-29 2016-12-29 Virtual reality device Active KR102706803B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160182788A KR102706803B1 (en) 2016-12-29 2016-12-29 Virtual reality device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160182788A KR102706803B1 (en) 2016-12-29 2016-12-29 Virtual reality device

Publications (2)

Publication Number Publication Date
KR20180078431A KR20180078431A (en) 2018-07-10
KR102706803B1 true KR102706803B1 (en) 2024-09-13

Family

ID=62916103

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160182788A Active KR102706803B1 (en) 2016-12-29 2016-12-29 Virtual reality device

Country Status (1)

Country Link
KR (1) KR102706803B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110913199B (en) * 2018-09-14 2021-06-11 东方梦幻虚拟现实科技有限公司 VR image transmission method
US11481026B2 (en) 2019-08-22 2022-10-25 Samsung Electronics Co., Ltd. Immersive device and method for streaming of immersive media
KR102822862B1 (en) * 2020-08-25 2025-06-19 삼성전자주식회사 Method and apparatus for video quality improvement
CN115463409B (en) * 2022-09-30 2025-12-19 小派科技(杭州)有限公司 Frame supplementing method for picture information of handheld device and handheld device
WO2025155038A1 (en) * 2024-01-15 2025-07-24 삼성전자 주식회사 Method for displaying three-dimensional image, storage medium supporting same, and electronic device supporting same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524062B1 (en) * 2008-07-30 2015-06-01 삼성전자주식회사 Video signal processing apparatus and method thereof
KR101690254B1 (en) * 2009-12-14 2016-12-27 삼성전자주식회사 Method and apparatus for processing user interface in image processor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105432078B (en) * 2013-02-19 2017-09-22 瑞尔D股份有限公司 Binocular gaze imaging method and device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524062B1 (en) * 2008-07-30 2015-06-01 삼성전자주식회사 Video signal processing apparatus and method thereof
KR101690254B1 (en) * 2009-12-14 2016-12-27 삼성전자주식회사 Method and apparatus for processing user interface in image processor

Also Published As

Publication number Publication date
KR20180078431A (en) 2018-07-10

Similar Documents

Publication Publication Date Title
US9554126B2 (en) Non-linear navigation of a three dimensional stereoscopic display
US11024082B2 (en) Pass-through display of captured imagery
US10026212B2 (en) Electronic display stabilization using pixel velocities
US11244496B2 (en) Information processing device and information processing method
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
US9652893B2 (en) Stabilization plane determination based on gaze location
US10398976B2 (en) Display controller, electronic device, and virtual reality device
KR102706803B1 (en) Virtual reality device
US12423841B2 (en) Scene camera retargeting
US9766458B2 (en) Image generating system, image generating method, and information storage medium
US20100182409A1 (en) Signal processing device, image display device, signal processing method, and computer program
JP2015114757A (en) Information processing apparatus, information processing method, and program
KR20190022099A (en) Image generation method and display device using the same
US20200168001A1 (en) Display unit for ar/vr/mr systems
CN110709920B (en) Image processing apparatus and control method thereof
US20240404179A1 (en) Method and Device for Refining a Depth Map
US12518417B2 (en) Method and device for generating metadata estimations based on metadata subdivisions
US20240202866A1 (en) Warped Perspective Correction
KR102629441B1 (en) Image generation method and display device using the same
Yang et al. Study of a viewer tracking system with multiview 3D display

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20161229

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20211124

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20161229

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240312

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240909

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240910

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240910

End annual number: 3

Start annual number: 1

PG1601 Publication of registration