KR102167836B1 - Method and system for omnidirectional environmental projection with Single Projector and Single Spherical Mirror - Google Patents
Method and system for omnidirectional environmental projection with Single Projector and Single Spherical Mirror Download PDFInfo
- Publication number
- KR102167836B1 KR102167836B1 KR1020150128471A KR20150128471A KR102167836B1 KR 102167836 B1 KR102167836 B1 KR 102167836B1 KR 1020150128471 A KR1020150128471 A KR 1020150128471A KR 20150128471 A KR20150128471 A KR 20150128471A KR 102167836 B1 KR102167836 B1 KR 102167836B1
- Authority
- KR
- South Korea
- Prior art keywords
- projection
- image
- projector
- guide
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
본 발명은 일반적인 내부환경에서 프로젝터와 거울의 정확한 정렬없이 간단한 사용자 입력만을 이용하여 캘리브레이션을 수행할 수 있도록 하는 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법 및 시스템에 관한 것으로,
상기 방법은 사용자에 의해 지정된 환경기하정보를 기반으로 투사공간의 기하좌표와 프로젝터이미지의 픽셀 좌표간 관계와 상기 투사공간의 기하좌표와 입력이미지 픽셀 좌표간 관계를 파악한 후, 상기 프로젝터이미지와 상기 입력이미지간 픽셀 좌표 관계를 정의하여 캘리브레이션 정보를 생성하는 전방향 캘리브레이션 단계; 및 상기 캘리브레이션 정보를 기반으로 상기 입력이미지를 변형하여 상기 투사공간에 전방향 투사되는 투사이미지를 제작하는 투사이미지 제작 단계를 포함할 수 있다.The present invention relates to an omni-directional projection method and system based on a single projector and a spherical mirror that enables calibration using only a simple user input without accurate alignment of the projector and mirror in a general internal environment,
The method includes determining the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image, and the relationship between the geometric coordinates of the projection space and the pixel coordinates of the input image based on environmental geometric information specified by the user, and then the projector image and the input. An omnidirectional calibration step of defining a pixel coordinate relationship between images to generate calibration information; And producing a projection image that is projected omnidirectionally onto the projection space by transforming the input image based on the calibration information.
Description
본 발명은 전방향 프로젝션 방법 및 시스템에 관한 것으로, 특히 단일 프로젝터와 단일 구형 반사경만을 활용하여 임의의 공간에서 보다 쉽고 편리한 파노라마 디스플레이 시스템을 만들 수 있도록 하는 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법 및 시스템에 관한 것이다. The present invention relates to an omni-directional projection method and system, and in particular, a single projector and a spherical mirror-based omni-directional projection method to make a panoramic display system easier and more convenient in an arbitrary space using only a single projector and a single spherical reflector, and It's about the system.
지난 수십년 동안, 컴퓨터 그래픽스와 가상현실 커뮤니티의 연구자들은 관중에게 보다 현실감있는 경험을 제공하기 위해 노력해왔다. 그 중 몰입 형 가상환경 시스템(Immersive environment system)은 환경에 직접 이미지를 투사해 디스플레이 공간을 만드는 방식으로 연구되어 왔으며 그 시작은 Communications of the ACM(vol. 35, no. 6, pp. 64-72, 1992)에 개시된 CAVE(audio visual experience automatic virtual environment) 기술이다. 그리고 이러한 몰입 형 가상환경 시스템은 인간의 시각 환경에 최적화되면서 발전되어왔다. For decades, researchers in the computer graphics and virtual reality communities have been trying to provide a more realistic experience to the audience. Among them, the immersive environment system has been studied by projecting an image directly onto the environment to create a display space, and its beginning was Communications of the ACM (vol. 35, no. 6, pp. 64-72). , 1992) is a CAVE (audio visual experience automatic virtual environment) technology. And this immersive virtual environment system has been developed while being optimized for the human visual environment.
다중 투사 기술(Multi-projection technique)은 몰입형 가상공간을 만들기 위한 하나의 방법으로써, 다수의 프로젝터를 활용하여 넓은 시야각을 채우는 방식이다. 이는 이미지나 동영상을 다양한 환경에서도 디스플레이할 수 있게 해주는 장점을 가지고 있지만, 다수의 프로젝터와 이를 관리하기 위한 서버들을 사용하면서 발생되는 몇 가지 문제점을 지니고 있다.The multi-projection technique is a method for creating an immersive virtual space, and is a method of filling a wide viewing angle using multiple projectors. This has the advantage of allowing an image or video to be displayed in various environments, but has some problems that occur when using multiple projectors and servers for managing them.
첫째로, 프로젝터와 서버를 설치하기 위한 추가적인 공간이 필요하다는 점이다. 두 번째는, 장비들의 비용과 설치가 비싸다는 점이다. 세 번째로는 다수의 장비들을 유지하기 위한 파워시스템, 온도 관리와 잦은 램프 교환과 같은 유지 관리 시스템이 필요하다는 점이다. 이러한 문제점들 때문에, 다중 투사 시스템을 구축하는 것은 쉽지 않고 시간 소모적인일이다.First, it requires additional space to install the projector and server. Second, the equipment is expensive and expensive to install. Third, it requires a power system to maintain multiple equipment, a maintenance system such as temperature management and frequent lamp replacement. Because of these problems, it is not easy and time consuming to build a multiple projection system.
반면, 거울 투사 기술은 기존의 프로젝터에 추가적인 거울이 부착되는 간단한 형태이다. 일반적으로 구형 타입의 거울은 전방향 이미지 데이터 획득에 많이 사용되어 왔다( Robotic and Sensor Environments, 2005. International Workshop on. IEEE(2005, pp. 8-13)에 개시된 "A practical spherical mirror omnidirectional camera" 참고). 같은 원리로, 구형 거울은 투사 시스템에서 프로젝터의 빛을 퍼뜨려주는 역할을 할 수 있다. On the other hand, the mirror projection technology is a simple form in which an additional mirror is attached to the existing projector. In general, a spherical type mirror has been widely used to acquire omnidirectional image data (see “A practical spherical mirror omnidirectional camera” disclosed in Robotic and Sensor Environments, 2005. International Workshop on. IEEE (2005, pp. 8-13)). ). In the same principle, a spherical mirror can serve to diffuse the projector's light in the projection system.
따라서 하나의 프로젝터로도 구형 거울을 활용하면, 넓은 화각(FOV)을 커버할 수 있는 형태가 된다. 그러나, 구형 거울은 방사형태(Radial distortion)의 이미지 변형을 일으키는 문제를 발생시켜 기존의 연구들에서는 프로젝터와 거울을 정확히 정렬하고, 반사곡률을 계산하는 형태로 캘리브레이션을 수행하여 왔다. 그러나 일반적인 환경에서 거울과 프로젝터의 중심선을 정확히 정렬하는 일은 쉽지 않은 일이다.Therefore, if a single projector uses a spherical mirror, it becomes a form that can cover a wide field of view (FOV). However, since spherical mirrors cause a problem of causing image deformation of radial distortion, conventional studies have performed calibration in the form of accurately aligning the projector and the mirror and calculating the reflection curvature. However, it is difficult to accurately align the centerline of the mirror and the projector in a general environment.
이에 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명은 일반적인 내부환경에서 프로젝터와 거울의 정확한 정렬없이 간단한 사용자 입력만을 이용하여 캘리브레이션을 수행할 수 있도록 하는 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법 및 시스템을 제공하고자 한다. Accordingly, as to solve the above problems, the present invention is a single projector and spherical mirror-based omnidirectional projection method that enables calibration using only a simple user input without accurate alignment of the projector and mirror in a general internal environment, and We want to provide a system.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 사용자에 의해 지정된 환경기하정보를 기반으로 투사공간의 기하좌표와 프로젝터이미지의 픽셀 좌표간 관계와 상기 투사공간의 기하좌표와 입력이미지 픽셀 좌표간 관계를 파악한 후, 상기 프로젝터이미지와 상기 입력이미지간 픽셀 좌표 관계를 정의하여 캘리브레이션 정보를 생성하는 전방향 캘리브레이션 단계; 및 상기 캘리브레이션 정보를 기반으로 상기 입력이미지를 변형하여 상기 투사공간에 전방향 투사되는 투사이미지를 제작하는 투사이미지 제작 단계를 포함하는 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법을 제공한다. As a means for solving the above problem, according to an embodiment of the present invention, the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image and the geometric coordinates and input of the projection space based on the environmental geometric information specified by the user An omnidirectional calibration step of generating calibration information by determining a relationship between image pixel coordinates and defining a pixel coordinate relationship between the projector image and the input image; And a projection image production step of producing a projection image that is omnidirectionally projected onto the projection space by modifying the input image based on the calibration information.
상기 전방향 캘리브레이션 단계는 상기 프로젝터이미지의 픽셀 좌표에 상기 환경기하정보를 지정하여, 상기 투사공간의 기하좌표와 상기 프로젝터이미지의 픽셀 좌표 사이의 관계를 결정하는 단계; 상기 환경기하정보를 통해 상기 입력이미지의 영역 비율을 조절함으로써, 상기 투사공간의 기하좌표와 상기 입력이미지 픽셀 좌표 사이의 관계를 결정하는 단계; 및 상기 투사공간의 기하좌표를 매개로 하여 상기 프로젝터이미지의 픽셀 좌표와 상기 입력이미지 픽셀 좌표 사이의 관계를 파악 및 정의함으로써, 캘리브레이션 정보를 생성하는 단계를 포함하는 것을 특징으로 한다. The omnidirectional calibration step may include determining a relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image by designating the environmental geometric information to pixel coordinates of the projector image; Determining a relationship between the geometric coordinates of the projection space and the pixel coordinates of the input image by adjusting the area ratio of the input image through the environmental geometric information; And generating calibration information by grasping and defining a relationship between the pixel coordinates of the projector image and the pixel coordinates of the input image through the geometric coordinates of the projection space.
상기 환경기하정보는 투사 환경에 대응되는 직육면체의 8개의 모서리점 지정자와 12개의 모서리선 지정자 각각의 위치를 통해 조정 가능한 것을 특징으로 한다. The environmental geometric information is adjustable through positions of eight corner point designators and 12 corner line designators of a rectangular parallelepiped corresponding to a projection environment.
상기 투사공간의 기하좌표와 상기 프로젝터이미지의 픽셀 좌표 사이의 관계를 결정하는 단계는 ""의 식에 따라 샘플링된 가이드점()들을 계산한 후, 상기 샘플링된 가이드점()들을 통해 상기 투사공간의 기하좌표와 상기 프로젝터이미지의 픽셀 좌표 사이의 관계를 구체화하는 것을 특징으로 하며, 상기 ci는 상기 직육면체의 모서리점 지정자, 상기 bk는 상기 직육면체의 모서리선 지정자, 상기 gk는 서로 다른 두 개의 모서리점 지정자와 상기 서로 다른 두 개의 모서리점 지정자를 연결하는 모서리선 지정자로 구성된 제1 가이드 곡선, 상기 t는 샘플링 단계인 것을 특징으로 한다. The step of determining the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image is " Guide points sampled according to the equation ( ) After calculating, the sampled guide point ( ) To specify the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image, wherein c i is a corner point designator of the rectangular parallelepiped, and b k is an edge designator of the rectangular parallelepiped, the g k is a first guide curve composed of two different corner point designators and an edge designator connecting the two different corner point designators, and t is a sampling step.
상기 투사공간의 기하좌표와 상기 입력이미지 픽셀 좌표 사이의 관계를 결정하는 단계는 베지어 커스 수식에 따라 샘플링된 가이드점()들을 계산한 후, 상기 샘플링된 가이드점()들을 통해 투사공간의 기하좌표와 프로젝터이미지의 픽셀 좌표 사이의 관계를 구체화하는 것을 특징으로 하며, 상기 di는 상기 직육면체의 모서리점 지정자, 상기 vk는 상기 직육면체의 모서리선 지정자, 상기 qk는 서로 다른 두 개의 모서리점 지정자와 상기 서로 다른 두 개의 모서리점 지정자를 연결하는 모서리선 지정자로 구성된 제2 가이드 곡선, 상기 t는 샘플링 단계인 것을 특징으로 한다. The determining of the relationship between the geometric coordinates of the projection space and the pixel coordinates of the input image includes a guide point sampled according to the Bezier cursor equation ( ) After calculating, the sampled guide point ( ) To specify the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image, wherein d i is a corner point designator of the rectangular parallelepiped, v k is an edge designator of the rectangular parallelepiped, and q k Is a second guide curve composed of two different corner point designators and an edge designator connecting the two different corner point designators, and t is a sampling step.
상기 투사이미지 제작 단계는 상기 제1 및 제2 가이드 곡선을 기반으로 변위맵을 작성한 후, 상기 변위맵을 투사 영역 전체에 걸쳐 확산시키는 단계; 및 상기 확산된 변위맵을 바탕으로 상기 입력이미지를 변형하여 상기 투사이미지를 획득하는 단계를 포함하는 것을 특징으로 한다. The step of producing the projection image may include creating a displacement map based on the first and second guide curves, and then spreading the displacement map over the entire projection area; And obtaining the projection image by transforming the input image based on the diffused displacement map.
그리고 상기 투사이미지 제작 단계는 후방 워핑을 통해 상기 파노라믹 이미지를 변형하는 것을 특징으로 한다. In addition, in the step of producing the projection image, the panoramic image is transformed through rear warping.
또한 상기 투사이미지 제작 단계는 상기 캘리브레이션 정보를 기반으로 선명화 효과를 이용한 초점 조정 동작을 수행하는 단계를 더 포함하는 것을 특징으로 한다. In addition, the step of producing the projection image may further include performing a focus adjustment operation using a sharpening effect based on the calibration information.
상기 과제를 해결하기 위한 수단으로서, 본 발명의 다른 실시 형태에 따르면, 투사공간의 천장에 설치된 단일 구형 거울; 투사공간의 바닥에 설치되어, 상기 단일 구형 거울쪽으로 이미지를 투사하는 단일 프로젝터; 및 사용자에 의해 지정된 환경기하정보를 기반으로 투사공간의 기하좌표와 프로젝터이미지의 픽셀 좌표간 관계와 상기 투사공간의 기하좌표와 입력이미지 픽셀 좌표간 관계를 파악한 후, 상기 프로젝터이미지와 상기 입력이미지간 픽셀 좌표 관계를 정의하여 캘리브레이션 정보를 생성하고, 상기 캘리브레이션 정보를 기반으로 상기 입력이미지를 변형하여 상기 투사공간에 전방향 투사되는 투사이미지를 제작한 후 상기 단일 프로젝터에 제공하는 프로세서를 포함하는 전방향 프로젝션 시스템을 제공한다. As a means for solving the above problem, according to another embodiment of the present invention, a single spherical mirror installed on the ceiling of the projection space; A single projector installed on the floor of the projection space and projecting an image toward the single spherical mirror; And the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image and the relationship between the geometric coordinates of the projection space and the pixel coordinates of the input image based on the environmental geometric information specified by the user, and then between the projector image and the input image. Omnidirectional including a processor that defines a pixel coordinate relationship to generate calibration information, generates a projection image to be projected omnidirectionally onto the projection space by transforming the input image based on the calibration information, and provides it to the single projector Provides a projection system.
본 발명은 임의의 투사공간에서 보다 쉽고 편리한 파노라마 디스플레이 시스템을 만들 수 있도록 단일 프로젝터와 단일 구형 반사경을 활용한 전방향 환경 거울 투사 시스템을 제안하였다. 즉, 보다 빠르고 쉬운 캘리브레이션 과정을 위해 사용자에게 직관적이고 최적화된 캘리브레이션 시스템을 제공하여 시스템 설치과정의 효율성을 높였다. 또한, 캘리브레이션 정보를 바탕으로 이미지를 워핑하고 보정하여 투사 환경에 최적화된 이미지를 만드는 제작 방법을 제시하도록 한다. The present invention proposes an omni-directional environmental mirror projection system using a single projector and a single spherical reflector to make a panoramic display system easier and more convenient in an arbitrary projection space. In other words, for a quicker and easier calibration process, an intuitive and optimized calibration system was provided to the user to increase the efficiency of the system installation process. In addition, a method of warping and correcting the image based on the calibration information to create an image optimized for the projection environment is suggested.
이에 본 발명에 따르면, 전방향 환경 투사 시스템을 보다 손쉽고 신속하게 구축할 수 있음을 알 수 있다. 또한 투사 환경에 최적화된 이미지 제작 방법을 제안하여, 해상도 손실 없이 이미지 제작할 수도 있도록 한다. Accordingly, it can be seen that according to the present invention, it is possible to more easily and quickly construct an omnidirectional environment projection system. In addition, by proposing an image production method optimized for the projection environment, it is possible to produce an image without loss of resolution.
도1은 본 발명의 일 실시예에 따른 파노라믹 콘텐츠를 활용하여 전방향 투사 환경을 구축하고자 하는 본 발명의 목표를 도시한 도면이다.
도2는 본 발명의 일 실시예에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 시스템을 설명하기 위한 도면이다.
도3은 본 발명의 일 실시예에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법을 설명하기 위한 도면이다.
도4는 본 발명의 일 실시예에 따른 전방향 캘리브레이션 단계에 대해 보다 상세히 설명하기 위한 도면이다.
도5는 본 발명의 일 실시예에 따른 전방향 캘리브레이션 단계의 환경기하정보 지정 단계를 보다 상세히 설명하기 위한 도면이다.
도6은 본 발명의 일 실시예에 따른 전방향 캘리브레이션 단계의 이미지등록 단계를 보다 상세히 설명하기 위한 도면이다.
도7은 본 발명의 일 실시예에 따른 투사 이미지 제작 단계에 대해 보다 상세히 설명하기 위한 도면이다.
도8은 본 발명의 일 실시예에 따른 변위맵 확산 단계를 보다 상세히 설명하기 위한 도면이다.
도9는 본 발명의 일 실시예에 따른 초점 조정이미지 워핑 과정을 설명하기 위한 도면이다.
도10은 본 발명의 일 실시예에 따른 초점 흐림 현상의 일예를 도시한 도면이다.
도11은 본 발명의 일 실시예에 따른 초점 조정 결과를 나타낸 도면이다.
도12는 본 발명의 일 실시예에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법에 따른 설치 효율을 설명하기 위한 도면이다. 1 is a view showing the object of the present invention to build an omni-directional projection environment using panoramic content according to an embodiment of the present invention.
2 is a view for explaining an omni-directional projection system based on a single projector and a spherical mirror according to an embodiment of the present invention.
3 is a diagram for explaining an omni-directional projection method based on a single projector and a spherical mirror according to an embodiment of the present invention.
4 is a diagram for explaining in more detail an omnidirectional calibration step according to an embodiment of the present invention.
5 is a view for explaining in more detail a step of specifying environmental geometric information in an omnidirectional calibration step according to an embodiment of the present invention.
6 is a diagram for explaining in more detail an image registration step in an omnidirectional calibration step according to an embodiment of the present invention.
7 is a view for explaining in more detail a projection image production step according to an embodiment of the present invention.
8 is a view for explaining in more detail a displacement map diffusion step according to an embodiment of the present invention.
9 is a view for explaining a focus adjustment image warping process according to an embodiment of the present invention.
10 is a diagram showing an example of a defocus phenomenon according to an embodiment of the present invention.
11 is a diagram showing a focus adjustment result according to an embodiment of the present invention.
12 is a diagram for explaining installation efficiency according to an omni-directional projection method based on a single projector and a spherical mirror according to an embodiment of the present invention.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Objects and effects of the present invention, and technical configurations for achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. In describing the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.
그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of users or operators.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present invention is not limited to the embodiments disclosed below, and may be implemented in various different forms. These embodiments are provided only to make the disclosure of the present invention complete, and to fully inform the scope of the invention to those skilled in the art to which the present invention pertains, and the present invention is defined by the scope of the claims. It just becomes. Therefore, the definition should be made based on the contents throughout this specification.
본 발명을 설명하기에 앞서, 본 발명의 이해를 돕기 위해 전방향 환경거울투사 시스템 설치와 작동 과정에 대해 설명하면 다음과 같다. Prior to describing the present invention, an omni-directional environmental mirror projection system installation and operation process will be described below to aid in understanding the present invention.
도1은 본 발명의 일 실시예에 따른 파노라믹 콘텐츠를 활용하여 전방향 투사 환경을 구축하고자 하는 본 발명의 목표를 도시한 도면이다. 1 is a view showing the object of the present invention to build an omni-directional projection environment using panoramic content according to an embodiment of the present invention.
도1의 (a)에 도시된 바와 같이, 본 발명에서의 입력은 전방향 공간을 원통도법(Cylindrical Projection)을 이용하여 수평으로 0°에서 360°까지를 커버하고, 수직으로 -90°에서 90°까지를 투사시킨 형태의 표준 입력이미지이다.As shown in (a) of FIG. 1, the input in the present invention covers the omnidirectional space from 0° to 360° horizontally using Cylindrical Projection, and from -90° to 90° vertically. This is a standard input image in the form of projecting up to °.
이에 대한 결과물로는, 도1의 (b)에 도시된 바와 같이, 전방향 환경의 면들에 이미지가 투사된 형태가 된다. As a result of this, as shown in (b) of FIG. 1, an image is projected on the surfaces of the omnidirectional environment.
본 발명에서는 환경 공간의 형태를 직육면체로 정하였다. 이러한 선택들은 가장 일반적인 타입들을 선택하여, 본 발명이 적용되는 시스템의 범용성을 높이기 위함이다. 결론적으로, 본 발명은 표준 파노라마 이미지를 직육면체 형태의 내부 공간에 전방향 투사를 가능하게 해준다.In the present invention, the shape of the environmental space was determined as a rectangular parallelepiped. These selections are to select the most common types and increase the versatility of the system to which the present invention is applied. In conclusion, the present invention enables omnidirectional projection of a standard panoramic image onto an interior space in the form of a rectangular parallelepiped.
도2는 본 발명의 일 실시예에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 시스템을 설명하기 위한 도면이다. 2 is a view for explaining an omni-directional projection system based on a single projector and a spherical mirror according to an embodiment of the present invention.
도2에 도시된 바와 같이, 본 발명의 전방향 프로젝션 시스템은 투사공간의 천장에 설치된 단일 구형 거울(10), 투사공간의 바닥에 설치된 단일 구형 거울(10)로 이미지를 투사하는 단일 프로젝터(20), 및 사용자에 의해 지정된 환경기하정보를 기반으로 투사공간의 기하좌표와 프로젝터이미지의 픽셀 좌표간 관계(E⇔P)와 투사공간의 기하좌표와 입력이미지 픽셀 좌표간 관계(E⇔I)를 파악한 후 프로젝터이미지의 픽셀 좌표와 입력이미지의 픽셀 좌표간 관계(I⇔E⇔P)를 정의하여 캘리브레이션 정보를 생성한 후, 캘리브레이션 정보를 기반으로 입력이미지를 변형하여 투사공간에 전방향 투사되는 이미지를 제작하여 단일 프로젝터(20)에 제공하는 프로세서(30) 등을 포함할 수 있다. As shown in Fig. 2, the omnidirectional projection system of the present invention is a
단일 구형 거울(10)과 단일 프로젝터(20)의 투사공간내 배치 위치는 다양하게 변화될 수 있으나, 앞서 설명된 CAVE 기술에 따른 배치 형태와 유사하게 바닥 면과 옆 벽면들을 채우는 형태를 가지는 것이 가장 바람직할 것이다. The arrangement position of the single
이에 본 발명에서는 단일 구형 거울(10)은 투사 공간의 천장에, 단일 프로젝터(20)은 투사 공간의 바닥에 서로 마주보도록 위치시킨 후, 단일 프로젝터(20)가 단일 구형 거울(10)을 향하게 영상을 투사하여 천장을 제외한 270° 전방향 공간에 이미지가 투사되도록 한다. Accordingly, in the present invention, after placing the single
다만, 이전의 거울 투사에 관한 연구들은 프로젝터와 거울이 정확하게 축이 정렬된 형태에서 캘리브레이션이 진행되도록 하나, 본 발명에서는 하드웨어 기기간의 정렬 과정을 별도로 수행할 필요없이 캘리브레이션 과정에서 이러한 문제를 함께 해결하도록 한다. However, previous studies on mirror projection allow calibration to proceed in a form in which the axes of the projector and the mirror are accurately aligned, but in the present invention, this problem is solved together in the calibration process without having to separately perform an alignment process between hardware devices. do.
도3은 본 발명의 일 실시예에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법을 설명하기 위한 도면이다. 3 is a diagram for explaining an omni-directional projection method based on a single projector and a spherical mirror according to an embodiment of the present invention.
도3을 참고하면, 본 발명의 전방향 프로젝션 방법은 크게 전방향 캘리브레이션(Omnidirectional Calibration) 단계(S10)와, 투사 이미지 제작 단계(S20)를 포함할 수 있다. Referring to FIG. 3, the omnidirectional projection method of the present invention may largely include an omnidirectional calibration step (S10) and a projection image production step (S20).
일반적인 환경투사시스템은 투사환경정보를 구체화하는 캘리브레이션 과정과그에 맞는 이미지 변형 과정을 필요로 하며, 본 발명 또한 일반적인 환경투사시스템과 유사하게 전방향 캘리브레이션 단계(S10)와 투사 이미지 제작 단계(S20)를 포함하여 구성되도록 한다. A general environmental projection system requires a calibration process to specify the projection environment information and an image transformation process corresponding thereto, and the present invention also performs an omnidirectional calibration step (S10) and a projection image production step (S20) similar to the general environmental projection system. To be included.
먼저, 단계 S10에서는 입력 이미지의 픽셀좌표와 투사공간의 기하좌표, 그리고 프로젝터의 픽셀좌표와의 관계를 찾은 후, 이를 기반으로 입력 이미지와 프로젝터간의 픽셀좌표 관계를 정의하는 캘리브레이션 정보를 생성하도록 한다. 이는 프로젝터이미지의 픽셀좌표와 투사공간의 기하좌표와의 관계를 찾는 환경기하정보 지정(Environment geometry assignment) 과정, 입력이미지의 픽셀좌표와 투사공간의 기하좌표와의 관계를 찾는 이미지 등록(Image registration) 과정,, 그리고 투사공간의 기하좌표를 매개로 하여 프로젝터이미지의 픽셀 좌표와 상기 입력이미지 픽셀 좌표 사이의 관계를 파악 및 정의함으로써 캘리브레이션 정보를 생성하는 캘리브레이션 정보 과정으로 이루어진다. First, in step S10, after finding the relationship between the pixel coordinates of the input image, the geometric coordinates of the projection space, and the pixel coordinates of the projector, based on this, calibration information defining the pixel coordinate relationship between the input image and the projector is generated. This is the process of environment geometry assignment to find the relationship between the pixel coordinates of the projector image and the geometric coordinates of the projection space, and Image registration to find the relationship between the pixel coordinates of the input image and the geometric coordinates of the projection space. It consists of a process, and a calibration information process of generating calibration information by identifying and defining the relationship between the pixel coordinates of the projector image and the pixel coordinates of the input image through the geometric coordinates of the projection space.
그리고 단계 S20에서는, 입력 파노라믹 이미지에서 앞선 캘리브레이션 정보를 바탕으로 투사 환경에 최적화된 이미지를 제작한다. 이는 입력된 캘리브레이션 정보들을 전체 이미지 픽셀 좌표로 퍼뜨리는 변위맵 확산(Displacement diffusion) 과정과, 이 변위맵에 따른 이미지 워핑(Image warping) 과정, 그리고 초점거리의 불균형으로 발생되는 초점 흐림 현상 (Defocusing effect)을 해결하기 위한 초점정정(Focus correction) 과정으로 이루어진다.Then, in step S20, an image optimized for the projection environment is produced based on the previous calibration information from the input panoramic image. This is a displacement map diffusion process that spreads the input calibration information to the entire image pixel coordinates, an image warping process according to this displacement map, and a defocusing effect caused by an imbalance in focal length. It consists of a focus correction process to solve the problem.
도4는 본 발명의 일 실시예에 따른 전방향 캘리브레이션 단계에 대해 보다 상세히 설명하기 위한 도면이다. 4 is a diagram for explaining in more detail an omnidirectional calibration step according to an embodiment of the present invention.
도4을 참고하면, 본 발명의 전방향 캘리브레이션 단계는 투사환경에 대한 기하정보를 사용자로부터 입력받아 투사공간의 기하좌표(E)와 프로젝터이미지의 픽셀 좌표(P) 사이의 관계를 지정하는 환경기하정보 지정 단계(S11)와, 투사환경과 입력이미지와의 관계, 즉 투사공간의 기하좌표(E)와 입력이미지의 픽셀 좌표(I) 사이의 관계를 지정하는 이미지등록 단계(S12), 및 투사공간의 기하좌표(E)를 매개로 하여 프로젝터이미지의 픽셀 좌표(P)와 입력이미지의 픽셀 좌표(I) 사이의 관계를 파악 및 정의하여 캘리브레이션 정보를 생성하는 캘리브레이션 정보 생성 단계(S13) 등을 포함할 수 있다. Referring to FIG. 4, the omnidirectional calibration step of the present invention receives geometric information on a projection environment from a user and designates the relationship between the geometric coordinates (E) of the projection space and the pixel coordinates (P) of the projector image. The information designation step (S11) and the image registration step (S12) of specifying the relationship between the projection environment and the input image, that is, the relationship between the geometric coordinates (E) of the projection space and the pixel coordinates (I) of the input image, and projection The calibration information generation step (S13) of generating calibration information by grasping and defining the relationship between the pixel coordinates (P) of the projector image and the pixel coordinates (I) of the input image through the geometric coordinates of space (E) as a medium. Can include.
이와 같이, 본 발명에서는 환경기하정보 지정 단계(S11)와 이미지등록 단계(S12)를 통해 입력이미지의 픽셀좌표와 프로젝터의 투사좌표간의 관계를 파악하고, 이를 기반으로 투사 환경에 최적화된 이미지 투사가 이루어지도록 한다(I⇔E⇔P).As described above, in the present invention, the relationship between the pixel coordinates of the input image and the projection coordinates of the projector is grasped through the environmental geometric information designation step (S11) and the image registration step (S12), and based on this, the image projection optimized for the projection environment is performed. Make it happen (I⇔E⇔P).
다시 말하면, 본 발명은 전방향 캘리브레이션 단계를 통해 입력이미지의 픽셀 좌표(I)와 프로젝터이미지의 픽셀 좌표(P) 사이의 관계를 구체화하도록 한다. 또한, 환경 투사 시스템은 환경을 통해 콘텐츠를 시각화하는 것임을 고려하여, 이 두 픽셀좌표(I, P) 사이에 투사공간의 기하좌표(E)를 추가적으로 구체화해야한다. 그리고 투사공간의 기하좌표(E)를 매개로 하여, 최종적으로 I와 P의 관계를 구체화하도록 한다. 그리고 각각의 픽셀좌표 I와 P에서 색상으로 표현된 가이드선들을 사용자에게 제공하여 구체화 과정을 진행할 수 있는 환경을 제공하도록 한다. In other words, according to the present invention, the relationship between the pixel coordinate I of the input image and the pixel coordinate P of the projector image is specified through the omnidirectional calibration step. In addition, considering that the environment projection system visualizes content through the environment, it is necessary to additionally specify the geometric coordinate (E) of the projection space between the two pixel coordinates (I, P). And finally, the relationship between I and P is concreted through the geometric coordinates (E) of the projection space. In addition, guide lines expressed in color at each pixel coordinate I and P are provided to the user to provide an environment in which the concrete process can be performed.
이하, 도5 및 도6을 참고하여 환경기하정보 지정 단계(S11)와 이미지등록 단계(S12)에 대해 보다 상세히 살펴보면 다음과 같다. Hereinafter, referring to FIGS. 5 and 6, the environmental geometric information designation step S11 and the image registration step S12 will be described in more detail.
환경기하정보 지정 단계(S11)에서는 프로젝터 이미지의 픽셀좌표에 환경기하정보를 지정하도록 한다. In the environmental geometric information designation step S11, the environmental geometric information is designated in the pixel coordinates of the projector image.
첫째로, 프로젝터 이미지 픽셀좌표(P)는 구형거울과 프로젝터 이미지 픽셀좌표의 형태 불일치로 인하여 투사영역과 비투사영역으로 구분된다. 도5의 (a)는 이러한 불일치와 투사영역의 형태를 보여준다. First, the projector image pixel coordinate (P) is divided into a projection area and a non-projection area due to a mismatch between the spherical mirror and the projector image pixel coordinates. Fig. 5(a) shows this discrepancy and the shape of the projection area.
둘째로, 투사영역은 환경공간의 각각의 면들로 구분된다. 도5의 (b)는 이러한 투사영역의 구분을 보여준다. 그러나 이러한 각각의 투사영역의 면을 구분하고 지정하는 과정은 구형거울로부터 발생되는 이미지 변형으로 인해 정확하게 지정하기가 쉽지가 않다. Second, the projection area is divided into individual faces of the environment space. Fig. 5(b) shows the division of the projection area. However, it is not easy to accurately designate the process of classifying and designating the surface of each projection area due to image deformation caused by the spherical mirror.
따라서 본 발명에서는 환경기하정보 지정 과정을 돕기 위해 도5의 (c)와 같은 지정자들을 사용자에게 제공한다. 예를 들어, 본 발명에서는 표준 파노라마 이미지를 8개의 점과 12개의 모서리선들로 이루어진 직육면체 형태의 내부 공간에 전방향 투사함을 고려하여, 빨간색의 8개의 모서리점 지정자(ci)들과 녹색의 12개의 모서리선 지정자(bk)들을 제공할 수 있다. 사용자는 지정자들의 위치를 통해, 환경기하정보를 입력하는 가이드 곡선(gk)들을 조절할 수 있게 된다. 이러한 가이드 곡선은 도5의 (d)에서 유색의 곡선으로 표현될 수 있다. Accordingly, in the present invention, designators as shown in FIG. 5C are provided to the user to assist in the process of designating environmental geometric information. For example, in the present invention, considering that a standard panoramic image is projected omnidirectionally into an interior space in the form of a rectangular parallelepiped consisting of 8 points and 12 corners, 8 corner point designators (c i ) in red and green It is possible to provide 12 edge designators (b k ). The user can adjust the guide curves g k for inputting environmental geometric information through the positions of the designators. This guide curve can be expressed as a colored curve in Fig. 5(d).
이 과정에서 본 발명은 지정자들로부터 가이드 곡선을 만들기 위해 2차 베지어 곡선을 사용하였다. 이는 구형거울로부터 발생되는 방사형 이미지 변형이 2차 곡선의 형태이기 때문이다. 2차 베지어 가이드곡선은 각각 시작점과 끝점인 모서리점 지정자와 하나의 모서리선 지정자들로 구성되어, 이하의 수학식1를 통해 가이드 곡선(gk)들의 샘플링된 가이드점()들이 계산된다.In this process, the present invention used a quadratic Bezier curve to make a guide curve from the designators. This is because the radial image deformation generated from the spherical mirror is in the form of a quadratic curve. The second order Bezier guide curve is composed of a corner point designator, which is a starting point and an end point, and one corner line designator, respectively, and sampled guide points (g k ) of the guide curves (g k ) through
[수학식 1][Equation 1]
결론적으로, 본 발명은 프로젝터이미지의 픽셀좌표(P)와 투사공간의 기하좌표(E)와의 관계를 가이드 곡선(gk)의 샘플링된 가이드점()들을 통해 구체화하였다In conclusion, in the present invention, the relationship between the pixel coordinate (P) of the projector image and the geometric coordinate (E) of the projection space is determined by the sampled guide point of the guide curve (g k ). ) Through
[수학식 2][Equation 2]
이미지등록 단계(S12)에서는, 입력이미지의 픽셀 좌표(P)와 투사공간의 기하좌표(E)와의 관계를 구체화하는 단계이다. In the image registration step S12, the relationship between the pixel coordinates P of the input image and the geometric coordinates E of the projection space is specified.
도6에 도시된 바와 같이, 입력 파노라믹 픽셀좌표(P)에서도 동일한 숫자의 8개의 모서리점 지정자들(di)와 12개의 모서리선 지정자들(vk)를 이용하도록 한다. 이러한 지정자들을 이용하여 수학식3의 2차 베이지 커스 수식에 따라(또는 (또는 수학식4의 n차 베지어 커브 수식에 따라) 샘플링된 가이드점들()을 조정한다. 각각의 투사환경의 크기와 비율이 가변적이기 때문에 이에 따라 사용자는 di와 vk를 조정하여 입력 이미지 영역의 비율을 조절해줘야 할 필요가 있다.As shown in FIG. 6, the input panoramic pixel coordinates (P) also use the same number of 8 corner point designators (d i ) and 12 corner line designators (v k ). Guide points sampled according to the quadratic Bezier curve equation of Equation 3 (or the nth Bezier curve equation of Equation 4) using these designators ( ) To adjust. Since the size and ratio of each projection environment are variable, the user needs to adjust the ratio of the input image area by adjusting d i and v k accordingly.
[수학식 3][Equation 3]
[수학식 4][Equation 4]
수학식4는 일반적인 n차의 베지어 곡선을 정의하는 수학식으로, n+1는 베지어 곡선의 조절점의 숫자를 나타낸다. 예를 들어 n=5 이면, ""와 같이 6개의 조절점들(P0~P5)로 계산되는 5차 베지어 곡선을 나타낸다. 그리고 이를 조절점의 최소화를 위한 2차 베지어 곡선의 형태로 표현하면, 상기 수학식 3과 같이 표현되게 된다. 즉, 본 발명은 작업 환경, 작업 부하등을 고려하여 베지어 곡선의 차수를 능동가변하면서 상기의 가이드 점 샘플링 동작을 수행하도록 한다.
더하여, 가이드점의 샘플링 방법은 베지어 곡선의 식에 따라 t의 값을 0부터 1까지 변화하여 포인트를 지정하게 된다. 따라서 변화량의 크기가 작으면 보다 조밀하게 점들을 획득할 수 있다. 여기서 가이드점의 샘플링을 위한 변화량의 값은 지정은 출력 이미지의 해상도를 고려하여 베지어 커브의 시작점과 끝점까지의 거리의 두 배까지로 지정하여 해상도 내에서 최대한 곡률을 확보 할 수 있도록 한다.In addition, the sampling method of the guide point designates a point by changing the value of t from 0 to 1 according to the Bezier curve equation. Therefore, if the size of the change amount is small, the points can be obtained more densely. Here, the value of the change amount for sampling of the guide point is designated up to twice the distance between the start and end points of the Bezier curve in consideration of the resolution of the output image, so that the maximum curvature can be secured within the resolution.
결론적으로, 본 발명은 수학식5에서와 같이, 입력이미지픽셀좌표(I)와 투사공간의 기하좌표(E)와의 관계를 가이드곡선 ()들의 샘플링된 가이드점()들에 따라 관계를 구체화하도록 한다. In conclusion, as in
[수학식 5][Equation 5]
도7은 본 발명의 일 실시예에 따른 투사 이미지 제작 단계에 대해 보다 상세히 설명하기 위한 도면이다. 7 is a view for explaining in more detail a projection image production step according to an embodiment of the present invention.
도7을 참고하면, 본 발명의 투사 이미지 제작 단계는 투사영역의 전체에 걸쳐서 변위맵을 부드럽게 확산시키는 변위맵 확산 단계(S21), 확산된 변위맵을 바탕으로 이미지 워핑을 통해 최적화된 이미지를 제작하는 이미지 워핑 단계(S22), 및 투사품질을 높이기 위한 초점 조정 동작을 수행하는 초점 조정 단계(S23) 등을 포함할 수 있다. Referring to FIG. 7, in the projected image production step of the present invention, the displacement map diffusion step (S21) of gently spreading the displacement map over the entire projection area, and an optimized image through image warping based on the diffused displacement map It may include an image warping step (S22), and a focus adjustment step (S23) of performing a focus adjustment operation to improve projection quality.
단계 S21의 변위맵 확산 단계에서는, 도8의 (a)에 도시된 바와 같이, 각 좌표계의 가이드곡선 (gk, qk)들을 통해 최초 변위맵을 제작하도록 한다. 가이드곡선들의 대응관계에 따라 앞서 t 단계로 샘플링되어 계산되는 가이드점들(, )의 대응관계 또한 구체화된다. 따라서 프로젝터 이미지픽셀좌표 P의 가이드 곡선((gk)들의 모든 샘플링된 점 들 중 각각의 픽셀 x들에 대하여 변위점 v(x)을 구체화 할 수 있다.In the displacement map diffusion step of step S21, as shown in Fig. 8A, an initial displacement map is produced through guide curves g k and q k of each coordinate system. Guide points that are sampled and calculated in step t in advance according to the correspondence of guide curves ( , The correspondence of) is also specified. Therefore, all sampled points of the guide curve ((g k ) of the projector image pixel coordinate P The displacement point v(x) can be specified for each of the pixels x.
다만, 도8의 (b)에서와 같이 변위점 v(x)는 가이드 곡선들() 위에만 희박하게 지정되므로, 도8의 (c)에서와 같이전체 변위맵 Ω에 걸쳐서 부드럽게 확산시켜주는 과정이 필요하다. 이에 부분적으로 존재한 정보를 디리클레(Dirichlet) 경계 조건으로, 본 발명에서는 x, y각각의 좌표계에 대해서 라플라시안(Laplace)을 이용하여 상기 문제를 해결하도록 한다. However, as shown in (b) of FIG. 8, the displacement point v(x) is the guide curves ( ), so it is sparsely designated over the entire displacement map Ω, as shown in Fig. 8(c). Accordingly, the partially existing information is used as a Dirichlet boundary condition, and in the present invention, the above problem is solved by using Laplace for each of the x and y coordinate systems.
[수학식 6][Equation 6]
단계 S22의 이미지 워핑 단계에서는, 도9의 (c)와 같은 입력이미지를 변형하여 전방향 환경투사시스템에 맞춰 도9의 (d)와 같은 투사 이미지를 만들어준다. In the image warping step of step S22, the input image as shown in (c) of FIG. 9 is transformed to create a projection image as shown in (d) of FIG. 9 in accordance with the omni-directional environmental projection system.
도9는 이미지 워핑과정의 결과를 보여준다. 본 발명에서는 픽셀단위로 계산된 촘촘한 변위맵 Ω를 바탕으로 후방(Backward) 워핑을 통해 이미지변형을 수행하도록 한다. 이렇게 제작된 투사 이미지는 입력이미지의 종류 중 스테레오그래픽 프로젝션(도9의 (a) 참고)의 결과인 '리틀 플래닛' (도9의 (b) 참고)과 비슷한 형태를 가지는 데, 이는 두 방법 모두 투사 방향이 극좌표계와 비슷한 방향을 가지고 있기 때문이다. 그러나 리틀플래닛의 형태는 균일한 투사 방향만을 유지할 수 있어서 투사영역의 분리와 비율을 고려할 수 없는 반면, 본 발명의 방법은 환경기하정보에 맞춰진 최적화 이미지를 제작하여 전방향 환경투사를 가능하도록 한다. 9 shows the result of the image warping process. In the present invention, image transformation is performed through backward warping based on the dense displacement map Ω calculated in units of pixels. The projected image produced in this way has a shape similar to the'Little Planet' (refer to Fig. 9(b)), which is the result of stereographic projection (refer to Fig. 9(a)) among the types of input images. This is because the projection direction has a direction similar to that of the polar coordinate system. However, the shape of the Little Planet can only maintain a uniform projection direction, so that the separation and ratio of the projection area cannot be considered, whereas the method of the present invention enables omnidirectional environmental projection by producing an optimized image tailored to the environmental geometric information.
다만, 도10의 (a)에 도시된 바와 같이, 본 발명의 전방향 환경거울투사시스템에 따르면 공간적으로 초점 흐림 현상이 발생될 수 있다(빨간색 선 방향). 이는 프로젝터의 각 픽셀 별 빛의 투사 거리가 일정하지 않기 때문이다. However, as shown in (a) of FIG. 10, according to the omnidirectional environmental mirror projection system of the present invention, a defocus phenomenon may occur spatially (in the direction of the red line). This is because the projection distance of light for each pixel of the projector is not constant.
이에 본 발명은 단계 S23의 초점 조정 단계를 추가 구비하고, 이를 통해 캘리브레이션 데이터를 바탕으로 선명화 효과를 적용하여 초점 조정을 수행하도록 한다. 이러한 선명화 효과를 이용한 초점 조정 방법은 프로젝터의 초점 흐림 현상을 해결하기 위해서 사용하는 일반적인 방법이다. 다만, 본 발명에서는 초점 조정시, 사용자가 측면 벽의 중간 정도(도10의 (a)에서 파란색 점에 대응)에 프로젝터의 초점을 유지한다고 가정하고, 이에 맞춰 도10의 (b)와 같은 선명화 조정맵을 제작하여 초점 조정을 진행하도록 한다. Accordingly, the present invention further includes a focus adjustment step of step S23, through which a sharpening effect is applied based on the calibration data to perform focus adjustment. The focus adjustment method using this sharpening effect is a general method used to solve the defocus phenomenon of the projector. However, in the present invention, when adjusting the focus, it is assumed that the user maintains the focus of the projector in the middle of the side wall (corresponding to the blue dot in Fig. 10(a)). Create a picture adjustment map and proceed with focus adjustment.
도11은 본 발명의 일 실시예에 따른 초점 조정 결과를 나타낸 도면으로, 도11의 (a)의 초점 조정 전 이미지에 비해, 도11의 (b)의 초점 조정 후 이미지가 보다 선명한 초점을 가짐을 알 수 있다. FIG. 11 is a view showing a focus adjustment result according to an embodiment of the present invention. Compared to the image before focus adjustment of FIG. 11 (a), the image after focus adjustment of FIG. 11 (b) has a sharper focus. Can be seen.
도12는 본 발명의 일 실시예에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법에 따른 설치 효율을 설명하기 위한 도면이다. 12 is a diagram for explaining installation efficiency according to an omni-directional projection method based on a single projector and a spherical mirror according to an embodiment of the present invention.
본 발명에서 제안한 시스템을 이용한 전방향 투사결과들과 사용자평가 결과를 보여준다. 모든 실험들은 동일한 전방향 거울 투사시스템 공간, 큐브룸에서 이루어졌으며, 이 큐브룸은 가로, 세로, 높이가 약 2.5m 길이인 직육면체의 공간이고, 크기는 최초의 몰입형 가상환경 시스템인 CAVE 기술을 참고하여 정해졌다. The omnidirectional projection results and user evaluation results using the system proposed in the present invention are shown. All experiments were conducted in the same omnidirectional mirror projection system space, cube room, which is a rectangular space with a length of about 2.5m in width, length, and height, and its size is CAVE technology, the first immersive virtual environment system. It was decided by reference.
실험 군은 본 발명의 시스템을 이용하는 초보사용자들과 기존의 툴들에 능통한 합성 전문가로 구분하였다. 초보사용자 실험 군은 일반 대학원생들로 이루어졌고, 이전에 본 발명의 시스템을 활용한 경험이 없는 사용자들로 구성됐다. 이들은 매뉴얼을 통해 간단히 시스템에 대한 사용법만을 숙지한 후, 시스템을 활용하여 전방향 투사 시스템을 설치하였다. 본 발명의 시스템의 모든 설정을 초기화 시켜둔 후 처음부터 시스템을 설치하는 이들의 시간을 측정하였다. The experimental group was divided into beginner users using the system of the present invention and synthesis experts who are familiar with existing tools. The beginner user experiment group consisted of general graduate students, and consisted of users who had not previously used the system of the present invention. After learning how to use the system simply through the manual, they installed the omni-directional projection system using the system. After initializing all the settings of the system of the present invention, the time of installing the system from the beginning was measured.
그 결과는 본 발명의 방법을 활용한 초보사용자 실험군들의 평균 설치시간은 캘리브레이션 과정은 평균 10.893분, 투사 이미지 계산 과정은 평균 5.203분으로 총 16.096분 소요되었다. As a result, the average installation time of the experimental groups of novice users using the method of the present invention took an average of 10.893 minutes for the calibration process and 5.203 minutes for the projected image calculation, a total of 16.096 minutes.
반대로, 합성전문가 실험 군은 시각효과산업에서 약 5년의 합성 전문 경력을 가진 전문가가 가장 널리 사용되고 있는 합성 툴인 The Foundary사의 Nuke 프로그램을 활용하여 진행하였다.On the contrary, the synthesis expert experiment group was conducted using The Foundary's Nuke program, which is the most widely used synthesis tool by experts with about 5 years of synthesis expertise in the visual effects industry.
전문가 또한 모든 시스켐설정을 초기화시킨 같은 상황에서 시작하여 시간을 측정하였다. 다섯 번의 시도를 진행한 뒤 평균을 낸 결과는 총 설치 시간이 약 1시간 20분이 소요됨을 알 수 있다. The expert also measured the time starting in the same situation where all syschem settings were initialized. After five trials, the average result shows that the total installation time takes about 1 hour and 20 minutes.
이상의 결과로부터 본 발명의 방법은 기존의 툴들을 이용한 방법 보다 효율적으로 설치 시간을 줄인다는 것을 알 수 있고, 전문 지식이 없는 초보 사용자들 또한 손쉽고 빠르게 전방향 환경투사시스템을 구축할 수 있음을 알 수 있다.From the above results, it can be seen that the method of the present invention reduces the installation time more efficiently than the method using the existing tools, and it can be seen that novice users without specialized knowledge can easily and quickly construct an omnidirectional environmental projection system. have.
[표1][Table 1]
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
또한, 본 발명에 따른 단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법 및 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치, 하드 디스크, 플래시 드라이브 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Further, the omnidirectional projection method and system based on a single projector and a spherical mirror according to the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of recording media include ROM, RAM, CD ROM, magnetic tapes, floppy disks, optical data storage devices, hard disks, and flash drives, and also implemented in the form of a carrier wave (for example, transmission through the Internet). Include. In addition, the computer-readable recording medium can be distributed over a computer system connected through a network to store and execute computer-readable codes in a distributed manner.
Claims (10)
상기 환경기하정보를 기반으로 상기 투사공간의 기하좌표와 입력이미지 픽셀 좌표간 관계를 지정하는 제2 가이드점을 획득하는 단계; 및
상기 제1 가이드점 및 상기 제2 가이드점을 포함하는 캘리브레이션 정보를 기반으로 상기 입력이미지를 변형하여 상기 투사공간에 전방향 투사되는 투사이미지를 제작하는 단계
를 포함하고,
상기 제1 가이드점을 획득하는 단계는
상기 투사공간의 모서리선에 대응하는 상기 프로젝터이미지의 픽셀 좌표 상의 지정자 및 상기 모서리선의 양 끝점에 대응하는 상기 프로젝터이미지의 픽셀 좌표 상의 지정자들을 조절점으로 하는 베지어 곡선(Bezier curve)에 기초하여, 제1 가이드곡선을 생성하는 단계; 및
상기 제1 가이드곡선에서 상기 제1 가이드점을 샘플링하는 단계
를 포함하고,
상기 제2 가이드점을 획득하는 단계는
상기 투사공간의 모서리선에 대응하는 상기 입력이미지의 픽셀 좌표 상의 지정자 및 상기 모서리선의 양 끝점에 대응하는 상기 입력이미지의 픽셀 좌표 상의 지정자들을 조절점으로 하는 베지어 곡선에 기초하여, 제2 가이드곡선을 생성하는 단계; 및
상기 제2 가이드곡선에서 상기 제2 가이드점을 샘플링하는 단계
를 포함하는
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
Obtaining a first guide point for designating a relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image based on the environmental geometric information specified by the user;
Obtaining a second guide point for designating a relationship between the geometric coordinates of the projection space and the pixel coordinates of the input image based on the environmental geometric information; And
Producing a projection image that is omnidirectionally projected onto the projection space by transforming the input image based on calibration information including the first guide point and the second guide point
Including,
The step of obtaining the first guide point
Based on a Bezier curve having a designator on pixel coordinates of the projector image corresponding to an edge of the projection space and a designator on pixel coordinates of the projector image corresponding to both end points of the edge line as control points, Generating a first guide curve; And
Sampling the first guide point from the first guide curve
Including,
The step of obtaining the second guide point
A second guide curve based on a Bezier curve having a designator on a pixel coordinate of the input image corresponding to an edge of the projection space and a designator on a pixel coordinate of the input image corresponding to both end points of the edge line as control points Generating; And
Sampling the second guide point from the second guide curve
Including
Single projector and spherical mirror based omni-directional projection method.
상기 투사공간의 기하 정보에 기초하여, 상기 투사공간의 모서리선에 대응하는 지정자 및 상기 모서리선의 끝점에 대응하는 지정자 각각의 위치를 통해 조정 가능한
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
The method of claim 1, wherein the environmental geometric information
Based on the geometric information of the projection space, adjustable through the positions of a designator corresponding to the edge of the projection space and a designator corresponding to the end point of the edge line
Single projector and spherical mirror based omni-directional projection method.
""의 식에 따라 샘플링된 제1 가이드점()들을 계산한 후, 상기 샘플링된 제1 가이드점()들을 통해 상기 투사공간의 기하좌표와 상기 프로젝터이미지의 픽셀 좌표 사이의 관계를 구체화하는 단계
를 포함하며,
상기 ci는 상기 모서리선의 끝점에 대응하는 모서리점 지정자, 상기 bk는 상기 모서리선에 대응하는 모서리선 지정자, 상기 gk는 서로 다른 두 개의 모서리점 지정자와 상기 서로 다른 두 개의 모서리점 지정자를 연결하는 모서리선 지정자로 구성된 제1 가이드 곡선, 상기 t는 샘플링 단계인 것을 특징으로 하는
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
The method of claim 1, wherein obtaining the first guide point
" "The first guide point sampled according to the equation ( ) After calculating, the sampled first guide point ( ) Specifying the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image
Including,
The c i is a corner point designator corresponding to the end point of the corner line, the b k is an corner line designator corresponding to the corner line, and g k is two different corner point designators and the two different corner point designators. A first guide curve consisting of connecting edge designators, wherein t is a sampling step.
Single projector and spherical mirror based omni-directional projection method.
상기 제2 가이드점을 획득하는 단계는
“”의 식에 따라 샘플링된 제2 가이드점()들을 계산한 후, 상기 샘플링된 제2 가이드점()들을 통해 투사공간의 기하좌표와 입력이미지의 픽셀 좌표 사이의 관계를 구체화하는 단계를 포함하며,
상기 di는 상기 모서리선의 끝점에 대응하는 모서리점 지정자, 상기 vk는 상기 모서리선에 대응하는 모서리선 지정자, 상기 qk는 서로 다른 두 개의 모서리점 지정자와 상기 서로 다른 두 개의 모서리점 지정자를 연결하는 모서리선 지정자로 구성된 제2 가이드 곡선, 상기 t는 샘플링 단계인 것을 특징으로 하는
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
The method of claim 1,
The step of obtaining the second guide point
“ The second guide point sampled according to the equation ( ) After calculating, the sampled second guide point ( ) Specifying the relationship between the geometric coordinates of the projection space and the pixel coordinates of the input image,
The d i is a corner point designator corresponding to the end point of the edge line, the v k is an edge line designator corresponding to the corner line, and q k is two different corner point designators and the two different corner point designators. A second guide curve consisting of connecting edge designators, wherein t is a sampling step.
Single projector and spherical mirror based omni-directional projection method.
상기 투사이미지를 제작하는 단계는
상기 제1 및 제2 가이드 곡선을 기반으로 변위맵을 작성한 후, 상기 변위맵을 투사 영역 전체에 걸쳐 확산시키는 단계; 및
상기 확산된 변위맵을 바탕으로 상기 입력이미지를 변형하여 상기 투사이미지를 획득하는 단계
를 포함하는
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
The method of claim 1,
The step of producing the projection image
Creating a displacement map based on the first and second guide curves and then spreading the displacement map over the entire projection area; And
Obtaining the projection image by transforming the input image based on the diffused displacement map
Including
Single projector and spherical mirror based omni-directional projection method.
상기 입력이미지를 변형하여 상기 투사이미지를 획득하는 단계는
후방 워핑을 통해 상기 입력이미지를 변형하는 단계
를 포함하는
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
The method of claim 6,
The step of obtaining the projection image by transforming the input image
Transforming the input image through rear warping
Including
Single projector and spherical mirror based omni-directional projection method.
상기 투사이미지를 제작하는 단계는
상기 캘리브레이션 정보를 기반으로 선명화 효과를 이용한 초점 조정 동작을 수행하는 단계
를 더 포함하는
단일 프로젝터와 구형 거울 기반의 전방향 프로젝션 방법.
The method of claim 1,
The step of producing the projection image
Performing a focus adjustment operation using a sharpening effect based on the calibration information
Further comprising
Single projector and spherical mirror based omni-directional projection method.
투사공간의 바닥에 설치되어, 상기 단일 구형 거울쪽으로 이미지를 투사하는 단일 프로젝터; 및
사용자에 의해 지정된 환경기하정보를 기반으로 투사공간의 기하좌표와 프로젝터이미지의 픽셀 좌표간 관계를 지정하는 제1 가이드점을 획득하고, 상기 환경기하정보를 기반으로 상기 투사공간의 기하좌표와 입력이미지 픽셀 좌표간 관계를 지정하는 제2 가이드점을 획득하고, 상기 제1 가이드점 및 상기 제2 가이드점을 포함하는 캘리브레이션 정보를 기반으로 상기 입력이미지를 변형하여 상기 투사공간에 전방향 투사되는 투사이미지를 제작한 후 상기 단일 프로젝터에 제공하는 프로세서를 포함하고,
상기 제1 가이드점은 상기 투사공간의 모서리선에 대응하는 상기 프로젝터이미지의 픽셀 좌표 상의 지정자 및 상기 모서리선의 양 끝점에 대응하는 상기 프로젝터이미지의 픽셀 좌표 상의 지정자들을 조절점으로 하는 베지어 곡선(Bezier curve)에 기초하여 생성된 제1 가이드곡선을 샘플링하여 계산되고,
상기 제2 가이드점은 상기 투사공간의 모서리선에 대응하는 상기 입력이미지의 픽셀 좌표 상의 지정자 및 상기 모서리선의 양 끝점에 대응하는 상기 입력이미지의 픽셀 좌표 상의 지정자들을 조절점으로 하는 베지어 곡선에 기초하여 생성된 제2 가이드곡선을 샘플링하여 계산된
전방향 프로젝션 시스템.
A single spherical mirror installed on the ceiling of the projection space;
A single projector installed on the floor of the projection space and projecting an image toward the single spherical mirror; And
Acquires a first guide point that specifies the relationship between the geometric coordinates of the projection space and the pixel coordinates of the projector image based on the environmental geometric information specified by the user, and based on the environmental geometric information, the geometric coordinates of the projection space and the input image A projected image that is projected omnidirectionally into the projection space by obtaining a second guide point specifying a relationship between pixel coordinates, transforming the input image based on calibration information including the first guide point and the second guide point And a processor provided to the single projector after manufacturing,
The first guide point is a Bezier curve in which a designator on pixel coordinates of the projector image corresponding to an edge of the projection space and a designator on pixel coordinates of the projector image corresponding to both end points of the edge line are used as control points. curve) generated by sampling the first guide curve,
The second guide point is based on a Bezier curve using a designator on the pixel coordinates of the input image corresponding to an edge of the projection space and a designator on the pixel coordinates of the input image corresponding to both end points of the edge line as control points. Calculated by sampling the generated second guide curve
Omnidirectional projection system.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150128471A KR102167836B1 (en) | 2015-09-10 | 2015-09-10 | Method and system for omnidirectional environmental projection with Single Projector and Single Spherical Mirror |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150128471A KR102167836B1 (en) | 2015-09-10 | 2015-09-10 | Method and system for omnidirectional environmental projection with Single Projector and Single Spherical Mirror |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20170030926A KR20170030926A (en) | 2017-03-20 |
| KR102167836B1 true KR102167836B1 (en) | 2020-10-20 |
Family
ID=58502749
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150128471A Active KR102167836B1 (en) | 2015-09-10 | 2015-09-10 | Method and system for omnidirectional environmental projection with Single Projector and Single Spherical Mirror |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102167836B1 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113112412B (en) * | 2020-01-13 | 2024-03-19 | 株式会社理光 | Method and device for generating vertical correction matrix and computer readable storage medium |
| WO2024058369A1 (en) * | 2022-09-15 | 2024-03-21 | 삼성전자 주식회사 | Projection apparatus and operating method thereof |
| CN121053276B (en) * | 2025-10-31 | 2026-01-02 | 浙江时光坐标科技股份有限公司 | Star generating method and system based on spherical display equipment |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005347813A (en) * | 2004-05-31 | 2005-12-15 | Olympus Corp | Video conversion method and image converter, and multi-projection system |
| KR101319777B1 (en) * | 2007-08-09 | 2013-10-17 | 유니베르시떼 클레몽 1 | Panoramic projection device and method implemented by said device |
-
2015
- 2015-09-10 KR KR1020150128471A patent/KR102167836B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005347813A (en) * | 2004-05-31 | 2005-12-15 | Olympus Corp | Video conversion method and image converter, and multi-projection system |
| KR101319777B1 (en) * | 2007-08-09 | 2013-10-17 | 유니베르시떼 클레몽 1 | Panoramic projection device and method implemented by said device |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20170030926A (en) | 2017-03-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10063822B2 (en) | Tri-surface image projection system and method | |
| CN107193372B (en) | Projection method from multiple rectangular planes at arbitrary positions to variable projection center | |
| US9671684B2 (en) | Theater parameter management apparatus and method | |
| US20180033209A1 (en) | Stereo image generation and interactive playback | |
| KR20180117717A (en) | System and method for calibrating a display system using manual and semi-automatic techniques | |
| US20170069056A1 (en) | Focal Length Warping | |
| MX2007012650A (en) | System and method for head size equalization in 360 degree panoramic images. | |
| CN104869376B (en) | Multi-image and multi-pixel level geometric correction method for video fusion | |
| EP3039860B1 (en) | Projector clustering method, and management device | |
| CN107206285A (en) | The system and method for immersing theater context with active screen | |
| CN104778694A (en) | Parameterized and automatic geometric correction method for multi-projector tiled display | |
| KR101793192B1 (en) | Apparatus for realizing augmented reality using multiple projector and method thereof | |
| US20200014896A1 (en) | Projecting images and videos onto engineered curved surfaces | |
| KR102167836B1 (en) | Method and system for omnidirectional environmental projection with Single Projector and Single Spherical Mirror | |
| EP3321884A1 (en) | System and method for advanced lens geometry fitting for imaging devices | |
| US20150229916A1 (en) | Method for automatically correcting a video projection with the aid of inverse telecine | |
| WO2018167918A1 (en) | Projector, method of creating data for mapping, program, and projection mapping system | |
| KR101886840B1 (en) | Method and apparatus for geometric correction based on user interface | |
| KR101668243B1 (en) | Multi-projection system and method | |
| JP2008113176A (en) | Image display system adjustment system | |
| Maniello | Improvements and implementations of the spatial augmented reality applied on scale models of cultural goods for visual and communicative purpose | |
| Yang et al. | Inter-reflection compensation for immersive projection display | |
| CN110418120A (en) | The system and method for stacking projector alignment | |
| US20200267375A1 (en) | Efficient image population from captured scene | |
| US11115632B2 (en) | Image processing device, image processing method, program, and projection system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| N231 | Notification of change of applicant | ||
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R15-X000 | Change to inventor requested |
St.27 status event code: A-3-3-R10-R15-oth-X000 |
|
| R16-X000 | Change to inventor recorded |
St.27 status event code: A-3-3-R10-R16-oth-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 6 |