KR101710521B1 - Apparatus and method of performing simulation for virtual fitting with computer-graphics representation of user body and computer program for the same - Google Patents
Apparatus and method of performing simulation for virtual fitting with computer-graphics representation of user body and computer program for the same Download PDFInfo
- Publication number
- KR101710521B1 KR101710521B1 KR1020150161797A KR20150161797A KR101710521B1 KR 101710521 B1 KR101710521 B1 KR 101710521B1 KR 1020150161797 A KR1020150161797 A KR 1020150161797A KR 20150161797 A KR20150161797 A KR 20150161797A KR 101710521 B1 KR101710521 B1 KR 101710521B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- dimensional model
- information
- virtual
- garment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/16—Cloth
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
가상 피팅(virtual fitting)을 위한 시뮬레이션 장치는, 용자의 영상으로부터 사용자의 신체 정보 및 움직임 정보를 검출하도록 구성된 검출부; 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자의 움직임에 대응하여 시뮬레이션되는 의상의 3차원 모델을 생성하도록 구성된 의상 시뮬레이션부; 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자 신체의 일 부분에 정합되며, 사용자의 움직임에 대응하여 시뮬레이션되는 가상신체의 3차원 모델을 생성하도록 구성된 가상신체 시뮬레이션부; 및 상기 의상의 3차원 모델 및 상기 가상신체의 3차원 모델을 상기 사용자의 영상 위에 오버레이 형태로 표시하도록 구성된 표시부를 포함할 수 있다. 상기 시뮬레이션 장치에 의하면, 의상뿐만 아니라 사용자의 신체 일부를 CG(Computer Graphics)로 표현함으로써 가상 피팅의 자연스러움이 개선된다. A simulation apparatus for virtual fitting includes: a detection unit configured to detect a user's body information and motion information from an image of a user; A garment simulation unit configured to generate a three-dimensional model of a garment to be simulated corresponding to a user's movement using the body information and the motion information; A virtual body simulation unit configured to generate a three-dimensional model of a virtual body, which is matched to a part of the user's body using the body information and the motion information, and is simulated corresponding to a movement of the user; And a display unit configured to display a three-dimensional model of the wardrobe and a three-dimensional model of the virtual body in an overlay form on the image of the user. According to the simulation apparatus, the naturalness of the virtual fitting is improved by expressing not only the costume but also the body part of the user in CG (Computer Graphics).
Description
실시예들은 가상 피팅(virtual fitting)을 위한 시뮬레이션 장치, 방법 및 이를 위한 컴퓨터 프로그램에 대한 것으로, 보다 구체적으로는 의상뿐만 아니라 사용자의 신체 일부를 CG(Computer Graphics)로 표현하여 가상 피팅의 자연스러움을 개선한 기술에 대한 것이다. Embodiments relate to a simulation apparatus and method for virtual fitting, and a computer program for the same. More specifically, the present invention relates to a computer program for virtual fitting, It is about improved technology.
최근 깊이 센서(depth sensor) 등 관련 기술이 발전하면서, 사용자가 직접 의상을 착용하지 않고도 자신의 아바타(avatar) 또는 3차원 인체 모델을 이용하여 가상으로 의상을 착용해보는 가상 피팅(virtual fitting) 서비스가 등장하였다. 가상 피팅 서비스를 위해서는, 깊이 센서를 이용하여 사용자의 외형을 스캔(scan)하는 방법 등에 의하여 사용자에 대응되는 3차원 모델을 생성하고, 이러한 사용자의 3차원 모델에 미리 준비된 의상의 3차원 모델을 정합시키는 과정이 요구된다. Recently, as a related technology such as a depth sensor has been developed, a virtual fitting service in which a virtual clothing is worn using an avatar or a three-dimensional human body model without a user wearing a costume directly . In order to provide a virtual fitting service, a three-dimensional model corresponding to a user is created by a method of scanning a contour of a user using a depth sensor, and a three-dimensional model of a costume prepared in advance is registered .
그러나, 현재까지 가상 피팅 서비스는 실험적인 수준의 응용예들에 적용되는데 그치고 있으며, 실제 의류 매장에 적용되어 의상에 대한 구매로까지 이어질 수 있는 기술에 대해서는 연구가 이루어지지 않고 있다. 특히, 종래의 가상 피팅 서비스에서는 단순히 사용자의 영상 위에 의상 이미지를 오버레이(overlay) 형태로 표시하는 데에 그치고 있는데, 이는 사용자가 가만히 서 있는 상태에서는 문제가 없으나, 사용자가 움직임에 따라 신체가 구부려지거나 중첩되는 경우에도 사용자의 영상이 의상 이미지에 의하여 가려지게 되어 부자연스럽게 표현되는 문제가 있다. However, until now, the virtual fitting service has only been applied to experimental applications, and research has not been conducted on techniques that can be applied to actual clothes shops and lead to purchase of clothes. Particularly, in the conventional virtual fitting service, the costume image is simply displayed in an overlay form on the user's image. This is not a problem in a state where the user is standing still, but when the user is bent There is a problem that the image of the user is obscured by the garment image even when overlapping.
본 발명의 일 측면에 의하면, 의상뿐만 아니라 사용자의 신체 일부를 CG(Computer Graphics)로 표현함으로써 사용자의 움직임에 따른 가상 피팅(virtual fitting)의 자연스러움이 개선된, 가상 피팅을 위한 시뮬레이션 장치, 방법 및 이를 위한 컴퓨터 프로그램을 제공할 수 있다. According to an aspect of the present invention, there is provided a simulation apparatus and method for virtual fitting, in which the naturalness of virtual fitting according to the movement of a user is improved by expressing not only a costume but also a body part of a user as CG (Computer Graphics) And a computer program therefor.
일 실시예에 따른 가상 피팅(virtual fitting)을 위한 시뮬레이션 장치는, 용자의 영상으로부터 사용자의 신체 정보 및 움직임 정보를 검출하도록 구성된 검출부; 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자의 움직임에 대응하여 시뮬레이션되는 의상의 3차원 모델을 생성하도록 구성된 의상 시뮬레이션부; 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자 신체의 일 부분에 정합되며, 사용자의 움직임에 대응하여 시뮬레이션되는 가상신체의 3차원 모델을 생성하도록 구성된 가상신체 시뮬레이션부; 및 상기 의상의 3차원 모델 및 상기 가상신체의 3차원 모델을 상기 사용자의 영상 위에 오버레이 형태로 표시하도록 구성된 표시부를 포함한다.According to an embodiment, a simulation apparatus for virtual fitting includes: a detection unit configured to detect a user's body information and motion information from a user's image; A garment simulation unit configured to generate a three-dimensional model of a garment to be simulated corresponding to a user's movement using the body information and the motion information; A virtual body simulation unit configured to generate a three-dimensional model of a virtual body, which is matched to a part of the user's body using the body information and the motion information, and is simulated corresponding to a movement of the user; And a display unit configured to display a three-dimensional model of the wardrobe and a three-dimensional model of the virtual body in an overlay form on the image of the user.
일 실시예에서, 상기 가상신체 시뮬레이션부는, 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하도록 구성된 중첩 영역 검출부를 포함하며, 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 경우에만 상기 가상신체의 3차원 모델을 표시하도록 더 구성된다.In one embodiment, the virtual body simulation section includes an overlap region detection section configured to detect whether the one portion overlaps with another portion of the user's body or a three-dimensional model of the garment, Dimensional model of the virtual body only when it overlaps with the three-dimensional model of the virtual body.
일 실시예에서, 상기 사용자의 영상은 깊이 정보를 포함한다.In one embodiment, the image of the user includes depth information.
일 실시예에서, 상기 중첩 영역 검출부는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상일 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 더 구성된다.In one embodiment, when the difference between the depth information of the one part and the depth information of the other part of the user's body or the three-dimensional model of the ward is greater than a preset threshold value, Part or a three-dimensional model of the garment.
일 실시예에서, 상기 중첩 영역 검출부는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상이며, 상기 일 부분에 대응되는 외곽선이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 외곽선과 교차하는 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 더 구성된다.In one embodiment, the overlapped area detecting unit determines that the difference between the depth information of the one part and the depth information of another part of the user's body or the three-dimensional model of the worn body is not less than a preset threshold value, Dimensional model of the wearer's body or the other part of the user's body or the outline of the three-dimensional model of the garment.
일 실시예에서, 상기 가상신체 시뮬레이션부는, 상기 사용자의 영상으로부터 사용자의 피부 색상 정보를 추출하고, 추출된 상기 피부 색상 정보에 기초하여 상기 가상신체의 3차원 모델의 색상을 조절하도록 구성된 색상 조절부를 더 포함한다.In one embodiment, the virtual body simulation unit may include a color adjusting unit configured to extract skin color information of a user from the image of the user and to adjust a color of the three-dimensional model of the virtual body based on the extracted skin color information .
일 실시예에 따른 시뮬레이션 장치는, 깊이 카메라를 포함하며, 상기 사용자의 영상 데이터를 획득하도록 구성된 스캔부를 더 포함한다.The simulation apparatus according to an embodiment further includes a scanning unit including a depth camera and configured to acquire image data of the user.
일 실시예에서, 상기 의상 시뮬레이션부는, 미리 저장된 베이스 메쉬를 상기 신체 정보에 기초하여 변형시킴으로써 상기 의상의 3차원 모델을 생성하도록 더 구성된다.In one embodiment, the costume simulation section is further configured to generate a three-dimensional model of the garment by modifying a pre-stored base mesh based on the body information.
일 실시예에 따른, 가상 피팅을 위한 시뮬레이션 방법은, 시뮬레이션 장치가 사용자의 영상으로부터 사용자의 신체 정보 및 움직임 정보를 검출하는 단계; 상기 시뮬레이션 장치가, 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자의 움직임에 대응하여 시뮬레이션되는 의상의 3차원 모델을 생성하는 단계; 상기 시뮬레이션 장치가, 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자 신체의 일 부분에 정합되며, 사용자의 움직임에 대응하여 시뮬레이션되는 가상신체의 3차원 모델을 생성하는 단계; 및 상기 시뮬레이션 장치가, 상기 의상의 3차원 모델 및 상기 가상신체의 3차원 모델을 상기 사용자의 영상 위에 오버레이 형태로 표시하는 단계를 포함한다.According to an embodiment, a simulation method for virtual fitting includes the steps of: the simulation apparatus detecting the user's body information and motion information from the user's image; Generating a three-dimensional model of a costume to be simulated corresponding to a movement of a user using the body information and the motion information; Generating a three-dimensional model of a virtual body which is matched to a part of the user's body and is simulated corresponding to the movement of the user, using the body information and the motion information; And displaying the three-dimensional model of the garment and the three-dimensional model of the virtual body in an overlay form on the image of the user.
일 실시예에서, 상기 가상신체의 3차원 모델을 생성하는 단계는, 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하는 단계; 및 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 경우에만 상기 가상신체의 3차원 모델이 표시되도록 상기 가상신체의 3차원 모델을 제어하는 단계를 포함한다. In one embodiment, the step of generating a three-dimensional model of the virtual body comprises the steps of: detecting whether the one part overlaps with another part of the user's body or a three-dimensional model of the wrist; And controlling the three-dimensional model of the virtual body so that the three-dimensional model of the virtual body is displayed only when the one part overlaps with another part of the user's body or a three-dimensional model of the ward.
일 실시예에서, 상기 사용자의 영상은 깊이 정보를 포함한다.In one embodiment, the image of the user includes depth information.
일 실시예에서, 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하는 단계는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상일 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 구성된다.In one embodiment, the step of detecting whether said portion overlaps with another portion of the user's body or with a three-dimensional model of said garment comprises the steps of: Is determined to be overlapped with another part of the user's body or a three-dimensional model of the garment when the difference in depth information of the wearer's body is equal to or greater than a preset threshold value.
일 실시예에서, 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하는 단계는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상이며, 상기 일 부분에 대응되는 외곽선이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 외곽선과 교차하는 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 구성된다.In one embodiment, the step of detecting whether said portion overlaps with another portion of the user's body or with a three-dimensional model of said garment comprises the steps of: Dimensional model of the user's body or the outline of the three-dimensional model of the user's body when the outline corresponding to the one part intersects the other part of the user's body or the outline of the three- Dimensional model of the garment.
일 실시예에서, 상기 가상신체의 3차원 모델을 생성하는 단계는, 상기 사용자의 영상으로부터 사용자의 피부 색상 정보를 추출하는 단계; 및 추출된 상기 피부 색상 정보에 기초하여 상기 가상신체의 3차원 모델의 색상을 조절하는 단계를 포함한다.In one embodiment, the step of generating the three-dimensional model of the virtual body includes extracting skin color information of the user from the image of the user; And adjusting the color of the three-dimensional model of the virtual body based on the extracted skin color information.
일 실시예에 따른 시뮬레이션 방법은, 상기 사용자 신체의 외곽선을 검출하는 단계 전에, 깊이 카메라를 포함하는 스캔부에 의하여 상기 사용자의 영상 데이터를 획득하는 단계를 더 포함한다.The simulation method may further include acquiring the image data of the user by a scan unit including a depth camera before the step of detecting an outline of the user's body.
일 실시예에서, 상기 의상의 3차원 모델을 생성하는 단계는, 미리 저장된 베이스 메쉬를 상기 신체 정보에 기초하여 변형시킴으로써 상기 의상의 3차원 모델을 생성하는 단계를 포함한다.In one embodiment, the step of creating a three-dimensional model of the garment includes generating a three-dimensional model of the garment by modifying a pre-stored base mesh based on the body information.
본 발명의 실시예들에 따른 컴퓨터 프로그램은, 하드웨어와 결합되어 전술한 실시예들에 따른 가상 피팅을 위한 시뮬레이션 방법을 실행하기 위한 것으로서, 컴퓨터로 판독 가능한 매체에 저장될 수 있다. A computer program in accordance with embodiments of the present invention is for executing a simulation method for virtual fitting according to the above-described embodiments in combination with hardware, and can be stored in a computer-readable medium.
본 발명의 일 측면에 따른 가상 피팅(virtual fitting)을 위한 시뮬레이션 기술에 의하면, 사용자의 영상 위에 의상을 표시하는 것뿐만 아니라 사용자의 신체 일부를 CG(Computer Graphics)로 표현함으로써, 사용자가 팔이나 다리 등을 자유롭게 움직이더라도 시뮬레이션되는 의상과 실제 영상 사이의 부조화가 발생하지 않아 사용자가 자연스러운 가상 피팅을 경험하도록 할 수 있다. According to the simulation technique for virtual fitting according to one aspect of the present invention, not only the costume is displayed on the image of the user but also the body part of the user is represented by CG (Computer Graphics) Even if the user moves freely, there is no discrepancy between the simulated costume and the actual image, so that the user can experience a natural virtual fitting.
도 1은, 일 실시예에 따른, 가상 피팅(virtual fitting)을 위한 시뮬레이션 장치의 개략적인 블록도이다.
도 2a 및 2b는 종래 기술에 따른 시뮬레이션 시 중첩된 신체가 표현되지 않는 것을 나타내는 이미지이다.
도 3a 및 3b는 일 실시예에 따른 시뮬레이션 시 가상신체가 표현된 것을 나타내는 이미지이다.
도 4a 및 4b는 또 다른 실시예에 따른 시뮬레이션 시 가상신체가 표현된 것을 나타내는 이미지이다.
도 5는, 일 실시예에 따른, 가상 피팅을 위한 시뮬레이션 방법의 순서도이다.1 is a schematic block diagram of a simulation apparatus for virtual fitting, according to one embodiment.
2A and 2B are images showing that the superimposed body is not represented in the simulation according to the prior art.
3A and 3B are images showing that a virtual body is represented in a simulation according to an embodiment.
4A and 4B are images showing that a virtual body is represented in a simulation according to another embodiment.
5 is a flowchart of a simulation method for virtual fitting, according to one embodiment.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
도 1은, 일 실시예에 따른, 가상 피팅(virtual fitting)을 위한 시뮬레이션 장치의 개략적인 블록도이다.1 is a schematic block diagram of a simulation apparatus for virtual fitting, according to one embodiment.
도 1을 참조하면, 가상 피팅을 위한 시뮬레이션 장치(1)는 검출부(20), 의상 시뮬레이션부(30), 가상신체 시뮬레이션부(40) 및 표시부(50)를 포함할 수 있다. 일 실시예에서, 시뮬레이션 장치(1)는 스캔부(10)를 더 포함한다. 실시예들에 따른 가상 피팅을 위한 시뮬레이션 장치(1) 및 이에 포함된 각 부(unit)는 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 1, the
가상 피팅을 위한 시뮬레이션 장치(1)의 각 부는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있으며, 본 명세서에서 "부", "시스템" 및 "장치" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.Each part of the
또한, 실시예들에 따른 시뮬레이션 장치(1)를 구성하는 각각의 부(10, 20, 30, 40, 50)는 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 즉, 도 1에서 스캔부(10), 검출부(20), 의상 시뮬레이션부(30), 가상신체 시뮬레이션부(40) 및 표시부(50)는 서로 구분되는 별개의 블록으로 도시되나, 실시예에 따라서는 이들 중 일부 또는 전부가 동일한 하나의 컴퓨팅 장치에 집적화될 수 있다. 이때, 각각의 부(10, 20, 30, 40, 50)는 이들이 구현된 컴퓨팅 장치에서 수행하는 동작에 따라 장치를 기능적으로 구분한 것일 뿐, 반드시 서로 분리된 별개의 소자를 의미하는 것이 아니다. 그러나, 이는 예시적인 것으로서, 다른 실시예에서는 스캔부(10), 검출부(20), 의상 시뮬레이션부(30), 가상신체 시뮬레이션부(40) 및 표시부(50) 중 하나 이상이 다른 부와 물리적으로 구분되는 별개의 장치 또는 서버로 구현될 수도 있다. 예컨대, 각각의 부(10, 20, 30, 40, 50)는 분산 컴퓨팅 환경 하에서 통신 가능하게 연결된 컴포넌트들일 수도 있다.Further, each of the
일 실시예에서, 시뮬레이션 장치(1)는 매장 등에 설치되어 사용자의 가상 피팅을 유도하는 장치로 구현될 수 있다. 예를 들어, 시뮬레이션 장치(1)는 평상시에는 통상의 거울의 기능 또는 특정 영상을 디스플레이하는 기능을 하다가, 사용자(100)가 근접할 경우 또는 사용자(100)로부터 특정 입력이 있을 경우 사용자의 영상과 함께 의상을 표시하여 가상 피팅 서비스를 제공할 수 있다. In one embodiment, the
스캔부(10)는 시뮬레이션 장치(1)에 인접한 사용자(100)의 영상을 획득하기 위한 장치이다. 본 명세서에서 사용자의 영상은 사용자의 신체의 적어도 일부를 포함하여 사용자의 모습을 촬영한 동영상을 의미한다. 스캔부(10)에는 하나 이상의 카메라가 구비되어 사용자(100)를 촬영함으로써 영상을 획득할 수 있다. 또한, 스캔부(10)에는 적어도 하나의 깊이 카메라가 구비되어 깊이 정보를 포함한 영상을 획득할 수 있다. 이하의 본 명세서에서, 상기 사용자 영상의 획득 과정은 단순히 "스캔(scan)"으로도 지칭된다. The
검출부(20)는, 스캔된 사용자의 영상으로부터 사용자의 움직임 정보 및 사용자의 신체 정보를 추출하도록 구성된다. 예컨대, 사용자의 영상은 깊이 정보를 포함할 수 있으며, 검출부(20)는 깊이 정보가 포함된 영상으로부터 신체의 외곽선 정보, 신장, 팔 길이, 허리 둘레, 다리 길이, 어깨나 팔꿈치 또는 무릎과 같은 관절의 위치 등 사용자의 신체 각 부분의 정보를 추출할 수 있다. 또한, 검출부(20)는 이러한 신체 정보의 추출 과정을 영상 데이터의 각 시간 구간(예컨대, 각 프레임(frame))별로 수행함으로써 신체 정보의 시간에 따른 변화, 즉, 움직임 정보를 추출할 수 있다.The
의상 시뮬레이션부(30)는, 사용자의 신체 정보와 움직임 정보 및 미리 저장된 의상 데이터를 이용하여, 사용자의 움직임에 따라 시뮬레이션되는 의상의 3차원 모델을 생성할 수 있다. The costume simulation unit 30 can generate a three-dimensional model of the costume to be simulated according to the movement of the user, using the user's body information, motion information, and pre-stored costume data.
구체적으로, 의상 시뮬레이션부(30)는 사용자의 신체 각 부분의 정보(예컨대, 신체의 외곽선 정보, 신장, 팔 길이, 허리 둘레, 다리 길이, 어깨나 팔꿈치, 무릎과 같은 관절의 위치 등)를 이용하여 사용자를 나타내는 3차원 메쉬(mesh)를 생성할 수 있다. 예를 들면 의상 시뮬레이션부(30)는 미리 저장된 베이스(base) 메쉬를 사용자의 신체 정보에 따라 부분적으로 변형시킴으로써 사용자의 3차원 메쉬를 생성할 수도 있으나, 이에 한정되는 것은 아니다. 의상 데이터 또한 의상의 형태를 나타내는 메쉬일 수 있으며, 의상 시뮬레이션부(30)는 사용자의 3차원 메쉬의 각 정점(vertex)과 의상 데이터의 각 정점을 매핑(mapping)함으로써 의상의 3차원 모델을 생성할 수 있다. Specifically, the costume simulation unit 30 uses the information of each part of the user's body (for example, the outline information of the body, the elongation, the arm length, the waist circumference, the leg length, the position of the joint such as the shoulder or elbow, A three-dimensional mesh representing a user can be generated. For example, the garment simulation unit 30 may generate a 3D mesh of a user by partially modifying a previously stored base mesh according to the user's body information, but the present invention is not limited thereto. The garment data may also be a mesh representing the shape of the garment. The garment simulation unit 30 generates a three-dimensional model of the garment by mapping each vertex of the user's three-dimensional mesh and each vertex of the garment data can do.
또한, 의상 시뮬레이션부(30)는 의상의 3차원 모델을 사용자의 움직임 정보에 따라 시뮬레이션할 수 있다. 의상 시뮬레이션부(30)는 사용자의 3차원 모델을 검출부(20)에 의해 검출된 움직임 정보에 따라 움직이도록 하고, 이때 사용자의 3차원 모델에 정합된 의상 데이터의 움직임을 각 시간 구간별로 산출함으로써 의상의 3차원 모델의 움직임을 시뮬레이션할 수 있다. 의상의 물리 시뮬레이션을 위한 구체적인 연산 과정은 특정 방법에 한정되지 않으며, 이에 대해서는 본 발명의 기술 분야에서 잘 알려져 있으므로, 본 명세서에서는 발명의 요지를 명확하게 하기 위하여 물리 시뮬레이션 연산 과정에 대해서는 설명을 생략한다. Further, the garment simulation unit 30 can simulate the three-dimensional model of the garment according to the user's motion information. The costume simulation unit 30 causes the 3D model of the user to move according to the motion information detected by the
표시부(50)는 시뮬레이션 장치(1)의 디스플레이 수단에 해당되는 부분으로, 예컨대, 액정표시장치(Liquid Crystal Display) 또는 다른 임의의 형태의 디스플레이 소자를 포함할 수 있다. 표시부(50)는, 사용자의 움직임에 따라 시뮬레이션되는 의상의 3차원 모델을 사용자 영상 위에 오버레이(overlay) 형태로 표시함으로써, 사용자가 해당 의상을 가상 피팅한 효과를 얻을 수 있도록 한다. The
그러나, 의상 시뮬레이션부(30) 및 표시부(50)만에 의하여 가상 피팅을 구현하게 되면, 종래와 마찬가지로 사용자가 움직임에 따라 신체가 구부려지거나 중첩되는 경우에도 사용자의 영상이 의상 이미지에 의하여 가려지게 되어 부자연스럽게 표현되는 문제가 있다. However, if the virtual fitting is implemented only by the garment simulation unit 30 and the
도 2a 및 2b는 종래 기술에 따른 시뮬레이션 시 중첩된 신체가 표현되지 않는 것을 나타내는 이미지이다.2A and 2B are images showing that the superimposed body is not represented in the simulation according to the prior art.
도 2a 및 2b를 참조하면, 종래의 가상 피팅 서비스에서는 사용자의 영상(200) 위에 이를 덮는 오버레이 형태로 의상 이미지(250)를 표시하였다. 이 경우, 도 2a와 같이 사용자가 팔다리를 벌리고 서 있는 상태에서는 문제가 없으나, 도 2b와 같이 사용자가 팔다리를 움직여 신체가 중첩될 경우 문제가 발생된다. 도 2b에서는 사용자가 자신의 몸 앞에 손을 위치시킴에 따라 중첩 영역(A)이 발생되었다. 그러나 의상 이미지(250)가 사용자의 영상(200)을 덮도록 표시되고 있으므로, 몸 앞에 위치한 사용자의 손 영상은 의상 이미지(250)에 덮여 표시되지 않는다. 그 결과, 가상 피팅 경험이 부자연스러워지는 문제점이 있다. Referring to FIGS. 2A and 2B, a conventional virtual fitting service displays a
이를 해결하기 위하여, 본 발명의 실시예들에서는 가상신체 시뮬레이션부(40)가 사용자의 신체 일 부분에 대응되는 가상신체의 3차원 모델을 생성하도록 구성된다. 신체 일 부분은 바람직하게는 사용자의 움직임에 따라 신체의 다른 부분과 중첩될 수 있는 부분으로서, 예컨대 팔이나 다리 또는 그 일부일 수 있으나 이에 한정되는 것은 아니다. 가상신체 시뮬레이션부(40)는 가상신체의 3차원 모델을 생성하고, 이를 사용자의 신체 정보를 이용하여 사용자의 신체 일 부분에 정합시킨 후 사용자의 움직임 정보에 따라 시뮬레이션하도록 구성된다. 물리 시뮬레이션을 위한 구체적인 연산 과정은 의상의 3차원 모델에 대한 시뮬레이션과 동일할 수 있다. In order to solve this problem, in the embodiments of the present invention, the virtual
도 3a 및 3b는 일 실시예에 따른 시뮬레이션 시 가상신체가 표현된 것을 나타내는 이미지이다. 3A and 3B are images showing that a virtual body is represented in a simulation according to an embodiment.
도 3a 및 3b를 참조하면, 종래와 마찬가지로 의상 이미지(350)가 사용자의 영상(300) 위에 오버레이 형태로 표시되는 것에 더하여, 본 실시예에서는 가상신체 이미지(360)가 사용자의 영상(300) 위에 오버레이 형태로 표시된다. 의상 이미지(350)는 의상 시뮬레이션부에 의해 생성된 의상의 3차원 모델을 렌더링(rendering)한 결과물에 대응되며, 가상신체 이미지(360)는 가상신체 시뮬레이션부에 의해 생성된 가상신체의 3차원 모델을 렌더링한 결과물에 대응된다. 본 명세서의 도면들에서는 사용자 영상(300)의 넓이에 비해 의상 및 가상신체 이미지(350, 360)의 넓이가 더 큰 것으로 도시되었으나, 이는 설명의 편의를 위한 예시적인 것이며, 사용자 영상 및 그 위에 오버레이 형태로 표시되는 이미지들의 실제 외곽선을 나타내는 것이 아니라는 점이 용이하게 이해될 것이다. 3A and 3B, in addition to displaying the
종래 기술에 의하면 의상 이미지로 덮이지 않은 사용자의 손은 사용자의 영상(300)이 그대로 노출되어야 하나, 본 실시예에 의하면 사용자의 손 부분에서도 사용자의 영상(300)을 덮도록 가상신체 이미지가 표시된다. 이로 인하여, 도 3b와 같이 사용자가 자신의 몸 앞에 손을 위치시켜 중첩 영역(B)이 형성된 경우, 종래 기술에 따르면 의상 이미지에 덮여 사용자의 손이 표시되지 않아 어색함을 유발하였으나, 본 실시예에 의하면 손을 나타내는 가상신체 이미지(360)가 표시되므로 자연스러운 가상 피팅 경험이 가능하게 된다. According to the related art, a user's
가상신체 시뮬레이션부(40)에 의하여 가상신체를 표시할 부분은, 사용자 신체의 특정 영역 중 의상 이미지에 의하여 덮이지 않는 부분으로 정의될 수 있다. 예컨대, 사용자의 팔 또는 다리에서 의상에 의해 덮이지 않는 부분에 한정되도록 가상신체의 3차원 모델을 생성하고, 사용자 영상의 해당 부분에 가상신체의 3차원 모델을 정합시켜 표시할 수 있다. The portion for displaying the virtual body by the virtual
도 4a 및 4b는 또 다른 실시예에 따른 시뮬레이션 시 가상신체가 표현된 것을 나타내는 이미지로서, 도 3a 및 3b에서는 긴팔 상의를 가상 피팅한 것을 표시한 반면 도 4a 및 4b는 반팔 상의를 가상 피팅한 것을 표시하는 점에서 차이가 있다. FIGS. 4A and 4B are images showing that a virtual body is represented in a simulation according to another embodiment. In FIGS. 3A and 3B, a virtual fitting of a long-sleeved image is shown, whereas FIGS. 4A and 4B show a virtual fitting of a short- There is a difference in the indication.
도 4a 및 4b에 도시되는 것과 같이, 반팔 상의를 가상 피팅하는 경우에는 사용자의 영상(400) 위에 사용자의 손뿐만 아니라 팔의 하완 및 상완 일부를 덮도록 가상신체 이미지(460)를 표시할 수 있다. 따라서, 의상 이미지(450)와 가상신체 이미지(460) 사이에 단절된 영역이 없게 되어 자연스러운 가상신체 표현을 얻을 수 있다.4A and 4B, the
다시 도 1을 참조하면, 이상의 동작을 위하여, 가상신체 시뮬레이션부(40)는 의상 시뮬레이션부(30)에 의해 시뮬레이션되는 의상의 3차원 모델을 고려하여 가상신체의 3차원 모델을 생성할 수 있다. 가상신체의 3차원 모델은 팔이나 다리 등 사전에 지정된 신체의 특정 영역에서 의상의 3차원 모델에 의하여 덮이지 않는 부분에 대응될 수 있다. 예를 들어, 의상의 3차원 모델이 긴팔 의상에 대한 것일 경우 가상신체의 3차원 모델은 소매 밖으로 드러나는 손목 일부 및 손 부분에 대응될 수 있으며, 의상의 3차원 모델이 반팔 의상에 대한 것일 경우 가상신체의 3차원 모델은 소매 밖으로 드러나는 상완 일부를 포함하여 하완 및 손에 이르는 부분에 대응될 수 있다. 팔이 아닌 다리 또는 그 외 상이한 신체 부분의 경우에도 유사한 방식으로 적용될 수 있다. Referring again to FIG. 1, for the above operation, the virtual
일 실시예에서, 가상신체 시뮬레이션부(40)는 사전에 지정된 신체 일 부분이 신체의 다른 부분 혹은 의상의 3차원 모델과 중첩되는지를 사용자 영상으로부터 검출하고, 이러한 중첩이 발생되는 경우에만 가상신체의 3차원 모델이 표시되도록 한다. 이를 위하여, 가상신체 시뮬레이션부(40)는 중첩 영역 검출부(410)를 포함할 수 있다. 본 명세서의 사용자 영상은 깊이 정보를 포함하고 있으므로, 중첩 영역 검출부(410)는 깊이 정보에 기초하여 신체의 중첩이 발생하였는지 여부를 결정할 수 있다. In one embodiment, the virtual
일 실시예에서, 중첩 영역 검출부(410)는 신체 일 부분의 깊이 정보가 다른 부분 또는 의상의 3차원 모델의 깊이 정보와 비교하여 사전에 설정된 문턱값 이상으로 차이가 날 경우 중첩이 발생한 것으로 결정한다. 예를 들어, 사용자가 자신의 몸 앞에 손을 위치시켰다면, 신체 다른 부분에 비해 손 부분의 깊이가 감소된다. 중첩 영역 검출부(410)는 손 부분의 깊이 감소를 통하여 손 부분이 신체 다른 부분과 중첩되었음을 감지하고, 손에 대응되는 가상신체의 3차원 모델이 표시되도록 할 수 있다. 또는, 중첩 영역 검출부(410)는 깊이의 감소 및 증가를 불문하고 신체의 다른 부분 혹은 의상의 3차원 모델과의 깊이 비교를 통해서만 중첩 영역을 검출할 수도 있다. 이 경우 사용자가 자신의 몸 뒤에 손을 위치시키더라도 손이 중첩 영역으로 검출될 수 있으나, 의상의 3차원 모델 및 가상신체의 3차원 모델에 대한 물리 시뮬레이션 과정에서 의상보다 뒤에 위치하는 가상신체는 이미지로 표시되지 않으므로 자연스럽게 앞에 위치하는 의상만이 이미지로 표시된다.In one embodiment, the overlapping
다른 일 실시예에서, 중첩 영역 검출부(410)는, 신체 일 부분의 깊이 정보가 다른 부분 또는 의상의 3차원 모델의 깊이 정보와 비교하여 문턱값 이상으로 차이가 나는 동시에, 신체 일 부분의 외곽선이 다른 부분 또는 의상의 3차원 모델의 외곽선과 교차하는 경우에 중첩이 발생한 것으로 결정한다. 검출부(20)에 의해 검출된 신체 정보는 신체의 외곽선 정보를 포함할 수 있으므로, 깊이 정보에 의해 전후 방향의 이동을 파악하는 것과 병행하여 외곽선의 교차를 통하여 중첩을 검출할 경우 보다 확실하게 신체의 중첩 발생 여부를 감지할 수 있다. In another embodiment, the overlapping
전술한 실시예들에서, 가상신체 시뮬레이션부(40)는 중첩이 발생한 경우에만 가상신체의 3차원 모델이 표시되도록 한다. 이는 실시예들에 따라 중첩이 발생하지 않는 경우 가상신체의 3차원 모델 자체를 생성하지 않는 것을 의미할 수도 있으며, 또는 중첩 발생 여부와 무관하게 가상신체의 3차원 모델을 생성하되 렌더링 과정에서 이미지의 알파(alpha)값 등을 제어함으로써 중첩 영역이 아닌 부분은 최종 이미지로 표시되지 않게 하는 것을 의미할 수도 있다. In the above-described embodiments, the virtual
일 실시예에서, 가상신체 시뮬레이션부(40)는 의상 시뮬레이션부(30)와 마찬가지로 미리 저장된 베이스 메쉬를 사용자의 신체 정보에 따라 변형시키는 형태로 가상신체의 3차원 메쉬를 생성한다. 이를 통하여, 사용자의 실제 영상에 보다 자연스럽게 어울리는 가상신체의 3차원 모델을 얻을 수 있다. 여기서 베이스 메쉬는 의상의 3차원 모델 생성을 위한 베이스 메쉬와 동일하거나 또는 상이한 것일 수 있다. 예를 들어, 사용자의 손에 대응되는 가상신체 이미지를 표시하고자 하는 경우, 베이스 메쉬는 사람의 신체 전체가 아닌 손 부분에만 대응되는 메쉬일 수도 있다. In one embodiment, the virtual
또한 일 실시예에서, 가상신체 시뮬레이션부(40)는 사용자의 피부 색상에 따라 가상신체의 3차원 메쉬에 입혀질 색상을 조절한다. 이를 위하여, 가상신체 시뮬레이션부(40)는 색상 조절부(420)를 포함한다. 색상 조절부(420)는 사용자의 영상으로부터 사용자의 피부 색상 정보, 예컨대, 피부 톤이나 밝기 등을 추출할 수 있다. 다음으로, 색상 조절부(420)는 가상신체의 3차원 메쉬에 입혀질 색상을 사용자의 피부 색상 정보와 가능한 유사하게 조절하여 가상신체의 3차원 모델을 생성할 수 있다. 이를 통하여, 사용자의 실제 영상에 보다 자연스럽게 어울리는 가상신체 이미지를 얻을 수 있다.Also, in one embodiment, the virtual
도 5는, 일 실시예에 따른, 가상 피팅을 위한 시뮬레이션 방법의 순서도이다.5 is a flowchart of a simulation method for virtual fitting, according to one embodiment.
도 5를 참조하면, 먼저 가상 피팅을 수행할 사용자의 신체를 스캔할 수 있다(S1). 스캔 과정은 깊이 카메라를 이용하여 사용자 신체의 적어도 일부에 대한 깊이 정보를 포함하는 영상을 획득하는 과정을 포함한다. 다음으로, 스캔된 영상으로부터 사용자의 신체 정보 및 움직임 정보를 검출할 수 있다(S2). 신체 정보는 신체의 외곽선 정보, 신장, 팔 길이, 허리 둘레, 다리 길이, 어깨나 팔꿈치 또는 무릎과 같은 관절의 위치 등 사용자의 신체 각 부분의 정보를 포함하며, 움직임 정보는 이러한 신체 정보의 시간에 따른 변화 정보를 포함한다. Referring to FIG. 5, first, a body of a user performing virtual fitting may be scanned (S1). The scanning process includes acquiring an image including depth information of at least a part of the user's body using a depth camera. Next, the user's body information and motion information can be detected from the scanned image (S2). The body information includes information on each part of the user's body such as the body's outline information, height, arm length, waist circumference, leg length, joint position such as shoulder, elbow or knee, As shown in FIG.
신체 정보 및 움직임 정보가 얻어지면, 이를 이용하여 가상 피팅할 의상의 3차원 모델을 생성할 수 있다. 의상의 3차원 모델 생성을 위하여, 먼저 사용자의 신체 정보에 따라 베이스 메쉬를 조절하여 의상의 3차원 메쉬를 얻고(S31), 3차원 메쉬에 의상 데이터를 정합시켜 3차원 모델을 생성하며(S32), 이러한 의상의 3차원 모델에 대하여 사용자의 움직임에 따라 물리 시뮬레이션을 수행할 수 있다(S33). 그러나, 이는 단지 예시적인 것으로서, 사용자의 움직임에 따라 의상의 움직임을 시뮬레이션하기 위한 상이한 단계들이 적용될 수도 있다. When the body information and the motion information are obtained, a three-dimensional model of the clothes to be virtual-fitted can be generated using the information. In order to create a three-dimensional model of the garment, first, a three-dimensional mesh of the garment is obtained by adjusting the base mesh according to the user's body information (S31), and the three-dimensional model is created by matching the garment data on the three- , And the physical simulation can be performed according to the user's motion with respect to the three-dimensional model of the costume (S33). However, this is merely exemplary and different steps may be applied to simulate the movement of the garment according to the user's movements.
한편, 마찬가지로 신체 정보 및 움직임 정보를 이용하여 가상신체의 3차원 모델을 생성할 수 있다. 이를 위하여, 의상의 3차원 메쉬를 고려하여 신체의 특정 부분 중 의상에 의하여 덮이지 않는 부분에 대응되도록 가상신체의 3차원 메쉬를 생성할 수 있다(S41). 이때, 사용자의 신체 정보에 따라 베이스 메쉬를 조절함으로써 3차원 메쉬를 생성할 수도 있다(S42). 또한, 영상으로부터 검출된 사용자의 피부 색상에 따라 3차원 메쉬에 입혀질 색상을 조절할 수도 있다(S43). 다음으로, 3차원 메쉬에 색상이 입혀진 가상신체의 3차원 모델에 대하여 사용자의 움직임에 따라 물리 시뮬레이션을 수행할 수 있다(S44). 그러나, 이는 예시적인 것으로서, 가상신체의 3차원 모델을 생성하기 위한 과정은 반드시 전술한 단계 전부를 포함하는 것은 아니며, 예컨대 상기 단계 S42 및/또는 S43는 생략될 수도 있다. Similarly, a three-dimensional model of a virtual body can be generated using body information and motion information. For this purpose, a three-dimensional mesh of a virtual body can be created so as to correspond to a part of the body that is not covered by a garment, in consideration of the 3D mesh of the garment (S41). At this time, the 3D mesh may be generated by adjusting the base mesh according to the user's body information (S42). In addition, the color to be applied to the 3D mesh may be adjusted according to the skin color of the user detected from the image (S43). Next, a physics simulation can be performed according to the user's motion with respect to the three-dimensional model of the virtual body colored in the three-dimensional mesh (S44). However, this is an example, and the process for creating the three-dimensional model of the virtual body does not necessarily include all of the steps described above, for example, steps S42 and / or S43 may be omitted.
마지막으로, 스캔된 사용자의 영상 위에 의상의 3차원 모델 및 가상신체의 3차원 모델을 오버레이 형태로 표시할 수 있다(S5). 그 결과, 사용자의 영상 위에 의상을 표시하는 것뿐만 아니라 사용자의 신체 일부가 CG(Computer Graphics)로 표현되므로, 사용자가 팔이나 다리 등을 자유롭게 움직이더라도 시뮬레이션되는 의상과 실제 영상 사이의 부조화가 발생하지 않아 사용자가 자연스러운 가상 피팅을 경험하도록 할 수 있다.Finally, a three-dimensional model of the garment and a three-dimensional model of the virtual body can be displayed on the scanned user's image in an overlay form (S5). As a result, since not only the costume is displayed on the user's image but also a part of the user's body is represented by CG (Computer Graphics), even if the user freely moves the arm or leg, incongruity between the simulated costume and the actual image occurs Allowing the user to experience natural virtual fittings.
도 5에 도시된 각각의 단계들은 일정한 순서에 따라 기술되었으나, 이는 본 발명의 실시예들에 의하여 수행되는 기능을 용이하게 설명하기 위한 것일 뿐, 각각의 단계가 수행되어야 하는 시점이나 순서를 제한하도록 의도되지 않는다. 예를 들어, 사용자가 가상 피팅을 위한 시뮬레이션 장치 앞에 서면 도 5에 도시된 단계(S1 내지 S5)들이 실시간으로 수행됨으로써 가상의 거울을 보는 것과 같은 사용자 경험을 제공할 수 있다. Although each step shown in FIG. 5 has been described in a certain order, it is only intended to easily explain the functions performed by the embodiments of the present invention, It is not intended. For example, if a user stands in front of a simulation device for virtual fitting, steps S1 through S5 shown in FIG. 5 may be performed in real time to provide a user experience such as viewing a virtual mirror.
이상에서 설명한 실시예들에 따른 가상 피팅을 위한 시뮬레이션 방법은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 기록매체에는 가상 피팅을 위한 시뮬레이션 방법에 의한 동작을 구현하기 위한 프로그램이 기록되며, 상기 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장될 수 있는 임의의 종류의 기록장치를 포함한다. 예컨대, 컴퓨터가 읽을 수 있는 기록매체에는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The simulation method for virtual fitting according to the embodiments described above can be at least partially implemented in a computer program and recorded in a computer-readable recording medium. In the recording medium according to the embodiments, a program for implementing the operation by the simulation method for virtual fitting is recorded, and the recording medium includes any type of recording device capable of storing data that can be read by a computer do. For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. In addition, functional programs, codes, and code segments for implementing the present embodiment may be easily understood by those skilled in the art to which this embodiment belongs.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.While the invention has been shown and described with reference to certain embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. However, it should be understood that such modifications are within the technical scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
Claims (15)
상기 스캔부에 의해 획득된 상기 사용자의 영상 데이터로부터 사용자의 신체 정보 및 움직임 정보를 검출하도록 구성되며, 상기 신체 정보는 사용자의 신체의 복수 개의 부분의 깊이 정보를 포함하는, 검출부;
상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자의 움직임에 대응하여 시뮬레이션되는 의상의 3차원 모델을 생성하도록 구성된 의상 시뮬레이션부;
상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자 신체의 일 부분에 정합되며, 사용자의 움직임에 대응하여 시뮬레이션되는 가상신체의 3차원 모델을 생성하도록 구성된 가상신체 시뮬레이션부; 및
상기 의상의 3차원 모델 및 상기 가상신체의 3차원 모델을 상기 사용자의 영상 위에 오버레이 형태로 표시하도록 구성된 표시부를 포함하되,
상기 가상신체 시뮬레이션부는,
사용자 신체의 상기 일 부분의 깊이 정보에 기초하여 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하도록 구성된 중첩 영역 검출부를 포함하며,
상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 경우에만 상기 가상신체의 3차원 모델을 표시하도록 더 구성된, 가상 피팅을 위한 시뮬레이션 장치.
A scanning unit including a depth camera and configured to acquire image data of a user including depth information;
A detecting unit configured to detect a user's body information and motion information from the image data of the user obtained by the scanning unit, the body information including depth information of a plurality of parts of the user's body;
A garment simulation unit configured to generate a three-dimensional model of a garment to be simulated corresponding to a user's movement using the body information and the motion information;
A virtual body simulation unit configured to generate a three-dimensional model of a virtual body, which is matched to a part of the user's body using the body information and the motion information, and is simulated corresponding to a movement of the user; And
And a display unit configured to display a three-dimensional model of the wardrobe and a three-dimensional model of the virtual body in an overlay form on the image of the user,
The virtual-
And an overlapping region detection unit configured to detect whether the one portion overlaps with another portion of the user's body or a three-dimensional model of the wristband based on depth information of the one portion of the user's body,
And to display the three-dimensional model of the virtual body only if the one portion overlaps with another portion of the user's body or a three-dimensional model of the garment.
상기 중첩 영역 검출부는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상일 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 더 구성된, 가상 피팅을 위한 시뮬레이션 장치.
The method according to claim 1,
Wherein the overlapping area detecting unit determines that the overlapping area detecting unit determines that the overlapping area detecting unit determines that the overlapping area detecting unit determines that the overlapping area detecting unit does not detect the overlapping part of the user's body or the costume if the difference between the depth information of one part and the depth information of another part of the user's body, Further comprising determining to be superimposed on the three-dimensional model.
상기 중첩 영역 검출부는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상이며, 상기 일 부분에 대응되는 외곽선이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 외곽선과 교차하는 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 더 구성된, 가상 피팅을 위한 시뮬레이션 장치.
The method according to claim 1,
Wherein the overlapped area detecting unit detects that the difference between the depth information of the one part and the depth information of the other part of the user's body or the three-dimensional model of the clothes is not less than a preset threshold value, Dimensional model of the garment, the one portion being overlapped with another portion of the user's body or a three-dimensional model of the garment. ≪ Desc / Clms Page number 13 >
상기 가상신체 시뮬레이션부는, 상기 사용자의 영상으로부터 사용자의 피부 색상 정보를 추출하고, 추출된 상기 피부 색상 정보에 기초하여 상기 가상신체의 3차원 모델의 색상을 조절하도록 구성된 색상 조절부를 더 포함하는, 가상 피팅을 위한 시뮬레이션 장치.
The method according to claim 1,
Wherein the virtual body simulation unit further comprises a color adjusting unit configured to extract skin color information of the user from the image of the user and to adjust the color of the three-dimensional model of the virtual body based on the extracted skin color information, Simulation device for fitting.
상기 의상 시뮬레이션부는, 미리 저장된 베이스 메쉬를 상기 신체 정보에 기초하여 변형시킴으로써 상기 의상의 3차원 모델을 생성하도록 더 구성된, 가상 피팅을 위한 시뮬레이션 장치.
The method according to claim 1,
Wherein the costume simulation unit is further configured to generate a three-dimensional model of the garment by deforming a pre-stored base mesh based on the body information.
상기 시뮬레이션 장치가 상기 사용자의 영상 데이터로부터 사용자의 신체 정보 및 움직임 정보를 검출하는 단계로서, 상기 신체 정보는 사용자의 신체의 복수 개의 부분의 깊이 정보를 포함하는, 상기 신체 정보 및 움직임 정보를 검출하는 단계;
상기 시뮬레이션 장치가, 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자의 움직임에 대응하여 시뮬레이션되는 의상의 3차원 모델을 생성하는 단계;
상기 시뮬레이션 장치가, 상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자 신체의 일 부분에 정합되며, 사용자의 움직임에 대응하여 시뮬레이션되는 가상신체의 3차원 모델을 생성하는 단계; 및
상기 시뮬레이션 장치가, 상기 의상의 3차원 모델 및 상기 가상신체의 3차원 모델을 상기 사용자의 영상 위에 오버레이 형태로 표시하는 단계를 포함하되,
상기 가상신체의 3차원 모델을 생성하는 단계는,
사용자 신체의 상기 일 부분의 깊이 정보에 기초하여 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하는 단계; 및
상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 경우에만 상기 가상신체의 3차원 모델이 표시되도록 상기 가상신체의 3차원 모델을 제어하는 단계를 포함하는, 가상 피팅을 위한 시뮬레이션 방법.
Acquiring image data of a user including depth information using a depth camera of a simulation apparatus;
Wherein the simulation apparatus detects the user's body information and motion information from the user's image data, the body information including depth information of a plurality of parts of the user's body, step;
Generating a three-dimensional model of a costume to be simulated corresponding to a movement of a user using the body information and the motion information;
Generating a three-dimensional model of a virtual body which is matched to a part of the user's body and is simulated corresponding to the movement of the user, using the body information and the motion information; And
Wherein the simulation apparatus includes a step of displaying a three-dimensional model of the wardrobe and a three-dimensional model of the virtual body overlaid on the image of the user,
Wherein the step of generating a three-dimensional model of the virtual body comprises:
Detecting whether the one portion overlaps with another portion of the user's body or a three-dimensional model of the garment based on depth information of the one portion of the user's body; And
And controlling the three-dimensional model of the virtual body such that the three-dimensional model of the virtual body is displayed only when the one part overlaps with another part of the user's body or a three-dimensional model of the wardrobe. Simulation method.
상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하는 단계는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상일 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 구성된, 가상 피팅을 위한 시뮬레이션 방법.
9. The method of claim 8,
Wherein the step of detecting whether the one portion overlaps with another portion of the user's body or with the three-dimensional model of the garment comprises: comparing the depth information of the one portion with the depth information of the other portion of the user's body or the three- Is determined to be overlapped with another portion of the user's body or a three-dimensional model of the garment when the predetermined portion is above a predetermined threshold.
상기 일 부분이 사용자 신체의 다른 부분과 중첩되는지 여부를 탐지하는 단계는, 상기 일 부분의 깊이 정보와 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 깊이 정보의 차이가 미리 설정된 문턱값 이상이며, 상기 일 부분에 대응되는 외곽선이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델의 외곽선과 교차하는 경우 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 것으로 결정하도록 구성된, 가상 피팅을 위한 시뮬레이션 방법.
9. The method of claim 8,
Wherein the step of detecting whether the one part overlaps with another part of the user's body comprises the step of comparing the depth information of the one part with the depth information of the other part of the user's body or the three- And to determine that the one portion overlaps with another portion of the user's body or a three-dimensional model of the garment when the outline corresponding to the one portion intersects another portion of the user's body or the outline of the three- , Simulation method for virtual fitting.
상기 가상신체의 3차원 모델을 생성하는 단계는,
상기 사용자의 영상으로부터 사용자의 피부 색상 정보를 추출하는 단계; 및
추출된 상기 피부 색상 정보에 기초하여 상기 가상신체의 3차원 모델의 색상을 조절하는 단계를 포함하는, 가상 피팅을 위한 시뮬레이션 방법.
9. The method of claim 8,
Wherein the step of generating a three-dimensional model of the virtual body comprises:
Extracting skin color information of the user from the image of the user; And
And adjusting the color of the three-dimensional model of the virtual body based on the extracted skin color information.
상기 의상의 3차원 모델을 생성하는 단계는, 미리 저장된 베이스 메쉬를 상기 신체 정보에 기초하여 변형시킴으로써 상기 의상의 3차원 모델을 생성하는 단계를 포함하는, 가상 피팅을 위한 시뮬레이션 방법.
9. The method of claim 8,
Wherein the step of creating a three-dimensional model of the garment comprises generating a three-dimensional model of the garment by modifying a pre-stored base mesh based on the body information.
상기 가상 피팅을 위한 시뮬레이션 방법은,
깊이 카메라를 이용하여, 깊이 정보를 포함하는 사용자의 영상 데이터를 획득하는 단계;
상기 사용자의 영상 데이터로부터 사용자의 신체 정보 및 움직임 정보를 검출하는 단계로서, 상기 신체 정보는 사용자의 신체의 복수 개의 부분의 깊이 정보를 포함하는, 상기 신체 정보 및 움직임 정보를 검출하는 단계;
상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자의 움직임에 대응하여 시뮬레이션되는 의상의 3차원 모델을 생성하는 단계;
상기 신체 정보 및 상기 움직임 정보를 이용하여, 사용자 신체의 일 부분에 정합되며, 사용자의 움직임에 대응하여 시뮬레이션되는 가상신체의 3차원 모델을 생성하는 단계; 및
상기 의상의 3차원 모델 및 상기 가상신체의 3차원 모델을 상기 사용자의 영상 위에 오버레이 형태로 표시하는 단계를 포함하되,
상기 가상신체의 3차원 모델을 생성하는 단계는,
사용자 신체의 상기 일 부분의 깊이 정보에 기초하여 상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는지 여부를 탐지하는 단계; 및
상기 일 부분이 사용자 신체의 다른 부분 또는 상기 의상의 3차원 모델과 중첩되는 경우에만 상기 가상신체의 3차원 모델이 표시되도록 상기 가상신체의 3차원 모델을 제어하는 단계를 포함하는, 컴퓨터 프로그램.A computer program stored in a computer-readable storage medium coupled to hardware for executing a simulation method for virtual fitting,
The simulation method for virtual fitting includes:
Acquiring image data of a user including depth information using a depth camera;
Detecting body information and motion information of a user from the image data of the user, the body information including depth information of a plurality of parts of the user's body;
Generating a three-dimensional model of a costume to be simulated corresponding to a user's movement using the body information and the motion information;
Generating a three-dimensional model of a virtual body that is matched to a part of the user's body using the body information and the motion information and is simulated corresponding to a movement of the user; And
Displaying the three-dimensional model of the garment and the three-dimensional model of the virtual body in an overlay form on the image of the user,
Wherein the step of generating a three-dimensional model of the virtual body comprises:
Detecting whether the one portion overlaps with another portion of the user's body or a three-dimensional model of the garment based on depth information of the one portion of the user's body; And
Controlling the three-dimensional model of the virtual body so that the three-dimensional model of the virtual body is displayed only when the one part overlaps with another part of the user's body or a three-dimensional model of the ward.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150161797A KR101710521B1 (en) | 2015-11-18 | 2015-11-18 | Apparatus and method of performing simulation for virtual fitting with computer-graphics representation of user body and computer program for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150161797A KR101710521B1 (en) | 2015-11-18 | 2015-11-18 | Apparatus and method of performing simulation for virtual fitting with computer-graphics representation of user body and computer program for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101710521B1 true KR101710521B1 (en) | 2017-02-27 |
Family
ID=58315824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150161797A Expired - Fee Related KR101710521B1 (en) | 2015-11-18 | 2015-11-18 | Apparatus and method of performing simulation for virtual fitting with computer-graphics representation of user body and computer program for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101710521B1 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358515A (en) * | 2017-08-09 | 2017-11-17 | 张涛 | A kind of ring tries system and its try-in method on online |
KR102023633B1 (en) * | 2019-06-13 | 2019-09-20 | 주식회사 일루니 | Method and apparatus for generating 3d moving model |
KR20200022778A (en) * | 2018-08-23 | 2020-03-04 | (주)에프엑스기어 | Method and system for real-time generation of 3D avatar for virtual fitting |
KR20200025181A (en) * | 2018-08-29 | 2020-03-10 | 서울과학기술대학교 산학협력단 | Device and method for virtual clothes fitting |
KR20200067511A (en) | 2018-12-04 | 2020-06-12 | 신안산대학교 산학협력단 | System for Providing Virtual Fitting Service Based Size of Body |
CN114943816A (en) * | 2021-02-10 | 2022-08-26 | 北京字跳网络技术有限公司 | Image display method, apparatus, device and medium |
KR20230026250A (en) * | 2021-08-17 | 2023-02-24 | (주)클로버추얼패션 | Method and devices for generating exploded view in design object simulation |
US20230061875A1 (en) * | 2021-08-31 | 2023-03-02 | Snap Inc. | Deforming custom mesh based on body mesh |
US20230074826A1 (en) * | 2021-09-08 | 2023-03-09 | Snap Inc. | Body fitted accessory with physics simulation |
US20230115531A1 (en) * | 2021-10-11 | 2023-04-13 | Snap Inc. | External mesh with vertex attributes |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
KR20240081670A (en) | 2022-11-30 | 2024-06-10 | 광운대학교 산학협력단 | A virtual clothing system |
US12086946B2 (en) | 2021-09-14 | 2024-09-10 | Snap Inc. | Blending body mesh into external mesh |
WO2025034016A1 (en) * | 2023-08-08 | 2025-02-13 | (주)클로버추얼패션 | Method for simulating clothing and device therefor |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070104429A (en) * | 2005-02-28 | 2007-10-25 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Computer-readable information recording medium recording game device, game control method and program |
JP2009123018A (en) * | 2007-11-15 | 2009-06-04 | Canon Inc | Image processing apparatus and image processing method |
KR20140077820A (en) | 2012-12-14 | 2014-06-24 | 한국전자통신연구원 | Method for fiiting virtual items using human body model and system for providing fitting service of virtual items |
KR20150024899A (en) * | 2012-06-21 | 2015-03-09 | 마이크로소프트 코포레이션 | Avatar construction using depth camera |
KR20150124208A (en) * | 2014-04-28 | 2015-11-05 | (주)에프엑스기어 | Apparatus and method for physical simulation of cloth for virtual fitting based on augmented reality |
-
2015
- 2015-11-18 KR KR1020150161797A patent/KR101710521B1/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070104429A (en) * | 2005-02-28 | 2007-10-25 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Computer-readable information recording medium recording game device, game control method and program |
JP2009123018A (en) * | 2007-11-15 | 2009-06-04 | Canon Inc | Image processing apparatus and image processing method |
KR20150024899A (en) * | 2012-06-21 | 2015-03-09 | 마이크로소프트 코포레이션 | Avatar construction using depth camera |
KR20140077820A (en) | 2012-12-14 | 2014-06-24 | 한국전자통신연구원 | Method for fiiting virtual items using human body model and system for providing fitting service of virtual items |
KR20150124208A (en) * | 2014-04-28 | 2015-11-05 | (주)에프엑스기어 | Apparatus and method for physical simulation of cloth for virtual fitting based on augmented reality |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358515A (en) * | 2017-08-09 | 2017-11-17 | 张涛 | A kind of ring tries system and its try-in method on online |
KR20200022778A (en) * | 2018-08-23 | 2020-03-04 | (주)에프엑스기어 | Method and system for real-time generation of 3D avatar for virtual fitting |
WO2020040567A3 (en) * | 2018-08-23 | 2020-04-16 | 주식회사 에프엑스기어 | Method and system for generating real-time 3d avatar for virtual fitting |
KR102131923B1 (en) * | 2018-08-23 | 2020-07-09 | (주)에프엑스기어 | Method and system for real-time generation of 3D avatar for virtual fitting |
KR20200025181A (en) * | 2018-08-29 | 2020-03-10 | 서울과학기술대학교 산학협력단 | Device and method for virtual clothes fitting |
KR102195190B1 (en) * | 2018-08-29 | 2020-12-24 | 서울과학기술대학교 산학협력단 | Device and method for virtual clothes fitting |
KR20200067511A (en) | 2018-12-04 | 2020-06-12 | 신안산대학교 산학협력단 | System for Providing Virtual Fitting Service Based Size of Body |
KR102023633B1 (en) * | 2019-06-13 | 2019-09-20 | 주식회사 일루니 | Method and apparatus for generating 3d moving model |
CN114943816A (en) * | 2021-02-10 | 2022-08-26 | 北京字跳网络技术有限公司 | Image display method, apparatus, device and medium |
KR20230026250A (en) * | 2021-08-17 | 2023-02-24 | (주)클로버추얼패션 | Method and devices for generating exploded view in design object simulation |
KR102772427B1 (en) | 2021-08-17 | 2025-02-26 | (주)클로버추얼패션 | Method and devices for generating exploded view in design object simulation |
US20230061875A1 (en) * | 2021-08-31 | 2023-03-02 | Snap Inc. | Deforming custom mesh based on body mesh |
US12380649B2 (en) | 2021-08-31 | 2025-08-05 | Snap Inc. | Deforming custom mesh based on body mesh |
US11908083B2 (en) * | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
US20230074826A1 (en) * | 2021-09-08 | 2023-03-09 | Snap Inc. | Body fitted accessory with physics simulation |
US11663792B2 (en) * | 2021-09-08 | 2023-05-30 | Snap Inc. | Body fitted accessory with physics simulation |
US12086946B2 (en) | 2021-09-14 | 2024-09-10 | Snap Inc. | Blending body mesh into external mesh |
US12198281B2 (en) | 2021-09-20 | 2025-01-14 | Snap Inc. | Deforming real-world object using an external mesh |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
US11836862B2 (en) * | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US12299830B2 (en) | 2021-10-11 | 2025-05-13 | Snap Inc. | Inferring intent from pose and speech input |
US20230115531A1 (en) * | 2021-10-11 | 2023-04-13 | Snap Inc. | External mesh with vertex attributes |
US12217453B2 (en) | 2021-10-20 | 2025-02-04 | Snap Inc. | Mirror-based augmented reality experience |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
KR20240081670A (en) | 2022-11-30 | 2024-06-10 | 광운대학교 산학협력단 | A virtual clothing system |
US12223597B2 (en) | 2022-11-30 | 2025-02-11 | Kwangwoon University Industry-Academic Collaboration Foundation | Virtual costume fitting system |
WO2025034016A1 (en) * | 2023-08-08 | 2025-02-13 | (주)클로버추얼패션 | Method for simulating clothing and device therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101710521B1 (en) | Apparatus and method of performing simulation for virtual fitting with computer-graphics representation of user body and computer program for the same | |
US10152829B2 (en) | Virtual fitting device and virtual fitting method thereof | |
EP3850588B1 (en) | Method and system for generating a 3d reconstruction of a human | |
US9563975B2 (en) | Makeup support apparatus and method for supporting makeup | |
KR101669927B1 (en) | Virtual fitting system, method of providing virtual fitting service for promoting sales and computer program for the same | |
CN104813340B (en) | Systems and methods for deriving accurate body size measurements from a sequence of 2D images | |
US8674989B1 (en) | System and method for rendering photorealistic images of clothing and apparel | |
CN108885794A (en) | Virtually try on clothes on a real mannequin of the user | |
US9679415B2 (en) | Image synthesis method and image synthesis apparatus | |
JP2009116871A (en) | Method and apparatus for extending the functionality of a mirror using information related to the content and operation on the mirror | |
JP6262105B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
KR102009400B1 (en) | Method for providing realistic type image contents and server using the same | |
US20150269759A1 (en) | Image processing apparatus, image processing system, and image processing method | |
KR101586010B1 (en) | Apparatus and method for physical simulation of cloth for virtual fitting based on augmented reality | |
KR102580427B1 (en) | Method for providing virtual fitting service and system for same | |
KR20150124518A (en) | Apparatus and method for creating virtual cloth for virtual fitting based on augmented reality | |
WO2012158801A2 (en) | Augmented reality visualization system and method for cosmetic surgery | |
Amirkhanov et al. | WithTeeth: Denture Preview in Augmented Reality. | |
KR101321022B1 (en) | Computing device, method and system for embodying augmented reality | |
TWI585715B (en) | Method and apparatus for processing border of computer figure to be blended into background image | |
US10866688B2 (en) | Augmented reality tour guide | |
Ami-Williams et al. | Digitizing traditional dances under extreme clothing: The case study of eyo | |
JP7365457B2 (en) | Data processing device, program, and data processing method | |
WO2024217730A1 (en) | Systems and methods for rendering clothing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
Fee payment year number: 1 St.27 status event code: A-2-2-U10-U11-oth-PR1002 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
FPAY | Annual fee payment |
Payment date: 20200224 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 4 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 5 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 6 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 7 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
PC1903 | Unpaid annual fee |
Not in force date: 20240222 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE St.27 status event code: A-4-4-U10-U13-oth-PC1903 |
|
PC1903 | Unpaid annual fee |
Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20240222 St.27 status event code: N-4-6-H10-H13-oth-PC1903 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |