[go: up one dir, main page]

JP2010070889A - Virtual fitting system - Google Patents

Virtual fitting system Download PDF

Info

Publication number
JP2010070889A
JP2010070889A JP2008242537A JP2008242537A JP2010070889A JP 2010070889 A JP2010070889 A JP 2010070889A JP 2008242537 A JP2008242537 A JP 2008242537A JP 2008242537 A JP2008242537 A JP 2008242537A JP 2010070889 A JP2010070889 A JP 2010070889A
Authority
JP
Japan
Prior art keywords
user
image
half mirror
displayed
position detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008242537A
Other languages
Japanese (ja)
Other versions
JP5210102B2 (en
Inventor
Norihiro Ogata
憲弘 小形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiren Co Ltd
Original Assignee
Seiren Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiren Co Ltd filed Critical Seiren Co Ltd
Priority to JP2008242537A priority Critical patent/JP5210102B2/en
Publication of JP2010070889A publication Critical patent/JP2010070889A/en
Application granted granted Critical
Publication of JP5210102B2 publication Critical patent/JP5210102B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a virtual fitting system simply displaying a virtual dressed condition in conformity to unspecified majority of users. <P>SOLUTION: The virtual fitting system 1 includes a half mirror 3, a display device 2 provided on the back side of the half mirror. A camera 4 for taking a picture of a user located in front of the half mirror 3 is mounted on the upper part of the display device 2. The camera 4 takes a picture of the user wearing a garment with position detecting marks, and a dress image is displayed to be superposed on an image in the half mirror 3 based on the detected position of the position detecting marks. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ハーフミラー上で衣服等の服飾物を着装した状態を仮想的に表示する仮想試着装置に関する。   The present invention relates to a virtual try-on device that virtually displays a state in which clothing or other clothing is worn on a half mirror.

顧客は、身につける衣服等の服飾物を店舗等において購入するにあたって、購入する予定の商品を店舗に設置されている試着室等で予め試着して、その衣服のサイズ、着心地、或いは自分の容姿に似合うか否かを確認することが一般的である。   When a customer purchases clothes such as clothes to be worn in a store, the customer tries on a product to be purchased in a fitting room installed in the store in advance, and the size, comfort, or self It is common to confirm whether or not it looks good.

顧客が複数の衣服等を試着して、その中から顧客の最も好みの衣服を探すには、それぞれの衣服を試着した状態で比較する必要があるが、顧客はその比較を試着したときの記憶に頼って行わざるを得ず、試着の対象となる衣服が多いときには、最初に試着したときの記憶が薄れて、十分な比較ができずに顧客の好みの衣服を誤って選択してしまったり、再度の試着をする必要が生じて時間がかかる虞がある。   In order for a customer to try on a plurality of clothes and find the customer's favorite clothes from among them, it is necessary to compare each of the clothes while trying on them, but the customer remembers when the comparison was tried on. If there are many clothes to be tried on, the memory at the time of first try-on will fade, and you will not be able to make a sufficient comparison, so you may accidentally select your favorite clothes. There is a risk that it will take a long time to try on again.

この問題を解決するものとして、顧客がアパレル製品(衣服等)の試着を行う試着室に、所定の撮影環境を備えておき、複数回の試着状態をそれぞれ撮影し、撮影した画像を記憶し、記憶した画像を比較表示して、顧客にアパレル製品の選択を行わせるアパレル製品販売支援方法が知られている(特許文献1参照)。   In order to solve this problem, a predetermined shooting environment is provided in a fitting room where customers try on apparel products (clothes, etc.), and a plurality of try-on states are photographed, and the photographed images are stored. An apparel product sales support method for comparing and displaying stored images and allowing a customer to select an apparel product is known (see Patent Document 1).

しかしながら、このように複数の衣服の試着を行うと、複数回に渡って試着室に入り、衣服を脱着する必要があるため、試着する行為自体に時間が掛かり、煩わしいという問題がある。   However, when trying on a plurality of clothes in this way, it is necessary to enter the fitting room multiple times and remove the clothes, so that there is a problem that the act of trying on takes time and is troublesome.

また、店舗の商品である衣服を多くの顧客が試着することによって、その衣服に傷みが生じ、傷み具合によっては、その衣服を商品として販売できなくなる虞がある。   In addition, when many customers try on clothes that are merchandise in stores, the clothes may be damaged, and depending on the degree of damage, the clothes may not be sold as merchandise.

この問題を解決するものとして、顧客等の利用者の鏡像を映し出すハーフミラーの背面に液晶表示装置を配置し、この液晶表示装置に利用者が試着を希望する衣服等の映像を、鏡像に映った利用者の例えば頭部、上半身、下半身等の体の部位に合わせて表示させることで、仮想的に試着を行い、衣服等が傷むことを防止すると共に、試着の時間を低減できるドレッシングシステムが知られている(特許文献2参照)。   In order to solve this problem, a liquid crystal display device is placed on the back of the half mirror that displays the mirror image of the customer's user, and the image of the clothes that the user wants to try on is reflected in the mirror image on this liquid crystal display device. A dressing system capable of virtually trying on clothes by preventing them from being damaged by displaying them according to body parts such as the head, upper body, and lower body of the user, and reducing the time for fitting. It is known (see Patent Document 2).

しかしながら、このドレッシングシステムでは、利用者の体の部位に合わせて衣服等を表示するために、予め利用者の姿画像を撮影し、このデータを取得しておく必要があり、不特定多数の利用者に適用させることが難しいという問題がある。   However, in this dressing system, in order to display clothes and the like according to the body part of the user, it is necessary to take an image of the user in advance and acquire this data. There is a problem that it is difficult to apply to a person.

また、液晶表示装置に表示された衣服等は、予め撮影した利用者の姿画像に合わせて表示されるため、利用者が動くと、表示された衣服等と利用者の体とにずれが生じ、所定の姿勢、即ち予め撮影した利用者の姿画像における姿勢でなければ仮想的な試着ができない。   In addition, since clothes displayed on the liquid crystal display device are displayed in accordance with the user's pre-captured image, if the user moves, the displayed clothes and the user's body will be misaligned. The virtual try-on cannot be performed unless the posture is a predetermined posture, that is, a posture in a user's photographed image.

ところで、人体の動きに合わせて仮想的に試着するものとして、人体の各部分を所定の立体形状にモデル化した立体モデルに、立体座標を算出するための位置検出用マークを貼り付け、この立体モデルの立体座標に合わせた位置に服飾データが位置するように、例えばスクリーン等に投影する3D(Dimension)データ表示方法が知られている。(特許文献3参照)。   By the way, as a virtual try-on according to the movement of the human body, a position detection mark for calculating a solid coordinate is pasted on a solid model in which each part of the human body is modeled in a predetermined solid shape. For example, a 3D (Dimension) data display method for projecting onto a screen or the like so that the clothing data is positioned at a position corresponding to the three-dimensional coordinates of the model is known. (See Patent Document 3).

しかしながら、この3Dデータ表示方法は、服飾データの表示する位置を立体モデルの所定の位置に合わせることができるが、特許文献2に記載されたような試着者本人と服飾データとを合わせて仮想的に試着するものではなく、実寸大の試着者の像に合わせて仮想的に試着ができず、リアリティに欠ける。
特開2002−207802号公報 特開2006−331132号公報 特開2005−256232号公報
However, although this 3D data display method can match the display position of the clothing data with a predetermined position of the three-dimensional model, the fitting person himself and the clothing data as described in Patent Document 2 are combined and virtually displayed. It is not something that will be tried on, but it cannot be virtually tried on in accordance with the image of a full-scale fitting person, and lacks reality.
Japanese Patent Laid-Open No. 2002-207802 JP 2006-331132 A JP 2005-256232 A

本発明は、上記従来の問題を解決するために成されたものであって、その目的は、顧客等の試着者が衣服を仮想的に試着するにあたり、不特定多数の試着者が簡単に利用できるようにすることである。   The present invention has been made to solve the above-described conventional problems, and its purpose is to allow an unspecified number of try-ons to easily use a try-on of a customer such as a customer. Is to be able to do it.

本発明に係る仮想試着装置は、ハーフミラーの背面側から服飾画像を投影して表示する表示手段と、前記ハーフミラーの前面側に位置するユーザの所定部位の位置を検出する位置検出手段と、検出した前記所定部位の位置情報に基づいてユーザの視点位置情報を算出する位置算出手段と、算出した前記視点位置情報及び前記ハーフミラーの位置情報に基づいて前記ハーフミラーに映し出されるユーザの鏡像に対してユーザから見て重ね合う位置に服飾画像を前記ハーフミラーに表示するように前記表示手段を制御する表示制御手段とを備えていることを特徴とする。さらに、前記位置検出手段は、所定時間毎に前記所定部位の位置を検出することを特徴とする。さらに、前記所定部位には所定の位置検出用マークが表示されており、前記位置検出手段は、前記位置検出用マークにより前記所定部位の位置を検出することを特徴とする。さらに、前記位置検出用マークを表示した衣類をユーザが着装することで前記所定部位に前記位置検出用マークが表示されることを特徴とする。さらに、前記位置検出手段は、前記ハーフミラーの上方に設けられるとともに前記ハーフミラーの前面側に位置するユーザを撮影するカメラを備えていることを特徴とする。   The virtual fitting device according to the present invention includes a display unit that projects and displays a clothing image from the back side of the half mirror, a position detection unit that detects a position of a predetermined part of the user located on the front side of the half mirror, A position calculating means for calculating the viewpoint position information of the user based on the detected position information of the predetermined part, and a mirror image of the user displayed on the half mirror based on the calculated position information of the viewpoint and the position information of the half mirror. On the other hand, a display control means for controlling the display means so as to display a clothing image on the half mirror is provided at a position overlapping when viewed from the user. Further, the position detecting means detects the position of the predetermined part every predetermined time. Further, a predetermined position detection mark is displayed at the predetermined portion, and the position detection means detects the position of the predetermined portion by the position detection mark. Furthermore, the position detection mark is displayed at the predetermined portion when a user wears clothing displaying the position detection mark. Further, the position detecting means is provided with a camera that is provided above the half mirror and photographs a user located on the front side of the half mirror.

本発明によれば、顧客等の試着者が衣服を仮想的に試着するにあたり、不特定多数の試着者が利用できるとともに、試着者の体の動きに追従して着装状態を保つことができ、仮想試着システムの汎用性、及びリアリティを向上させることができる。   According to the present invention, when a try-on such as a customer virtually tries on a garment, an unspecified number of try-on users can be used, and the wearing state can be kept following the movement of the body of the try-on, The versatility and reality of the virtual fitting system can be improved.

以下、本発明に係る実施形態について、添付した図面を参照して説明する。   Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る実施形態の一部に関する分解斜視図である。仮想試着装置1は、表示手段として、ハーフミラー3及びその背面側に設けられた表示デバイス2を備えており、表示デバイス2の上方には、ハーフミラー3の前方に位置する対象、即ち本装置のユーザを撮影するカメラ4とを備え、カメラ4が撮影した画像から後述する位置検出用マーク用衣服の位置検出用マークの位置を検出するようになっている。なお、各種情報を入力する端末装置を備えるようにしてもよい。   FIG. 1 is an exploded perspective view of a part of an embodiment according to the present invention. The virtual try-on device 1 includes a half mirror 3 and a display device 2 provided on the back side thereof as display means. Above the display device 2, an object located in front of the half mirror 3, that is, the present device. And a camera 4 for photographing the user, and detects the position of a position detection mark on a position detection mark garment described later from an image photographed by the camera 4. In addition, you may make it provide the terminal device which inputs various information.

表示デバイス2は、平面状の筺体で前面全体に表示画面を有しており、ハーフミラー3は、表示画面と同じサイズ(面積)で表示画面を覆うように構成されている。表示デバイス2は、液晶ディスプレイ、PDP(プラズマディスプレイパネル)や、LED(Light Emitting Diode:発光ダイオード)、EL(Electro Luminescence)等を利用した大画面のディスプレイを用いることができる。   The display device 2 is a planar casing and has a display screen on the entire front surface, and the half mirror 3 is configured to cover the display screen with the same size (area) as the display screen. The display device 2 may be a large screen display using a liquid crystal display, a PDP (plasma display panel), an LED (Light Emitting Diode), an EL (Electro Luminescence), or the like.

ハーフミラー3は、入射する光の一部を反射し、一部を透過させる。つまり、表示デバイス2の表示画面に映像が表示されていないときには、ハーフミラー3の前方(表示デバイス2と反対側)に位置するユーザは、ハーフミラー3の前方から入射し、反射した光を視認することができる。即ち、ユーザは、ハーフミラー3を通常のミラーとして利用でき、鏡像を視認することができる。   The half mirror 3 reflects a part of incident light and transmits a part thereof. That is, when an image is not displayed on the display screen of the display device 2, a user located in front of the half mirror 3 (opposite to the display device 2) enters the front of the half mirror 3 and visually reflects the reflected light. can do. That is, the user can use the half mirror 3 as a normal mirror and can visually recognize a mirror image.

一方、表示デバイス2の表示画面に映像を表示する場合には、ハーフミラー3の前方に位置するユーザは、ハーフミラー3に映し出される鏡像に重ね合せて表示デバイス2の映像を視認することができる。   On the other hand, when displaying an image on the display screen of the display device 2, a user located in front of the half mirror 3 can visually recognize the image of the display device 2 while being superimposed on a mirror image projected on the half mirror 3. .

カメラ4は、表示デバイス2の上部に取り付けられており、ハーフミラー3の前方側に位置するユーザを撮影したり、基準となる校正用ターゲットを撮影するのに用いられる。なお、カメラ4としては、静止画像を得ることができる撮影機器であれば使用することができ、例えば、デジタルスチルカメラやビデオカメラにより静止画像を得るようにしてもよい。   The camera 4 is attached to the upper part of the display device 2 and is used for photographing a user located in front of the half mirror 3 and photographing a calibration target serving as a reference. The camera 4 can be used as long as it is a photographing device that can obtain a still image. For example, a still image may be obtained by a digital still camera or a video camera.

図2は、仮想試着装置1の制御に関する概略ブロック構成図である。制御部10は、表示デバイス2における服飾画像に関する表示処理全般を行い、設定部101、位置算出部102及び表示制御部103を備えている。画像表示部11は、表示制御部103から送信される画像データに基づいて表示デバイス2の表示画面に画像表示を行う。位置検出部12は、カメラ4から得られた撮影画像に基づいてユーザMの所定部位の位置検出を行う。記憶部13は、表示デバイス2に表示するための衣服等の服飾画像、登録したユーザに関する顧客情報(属性情報、過去の選択情報等)を記憶する。服飾画像は3次元画像データで構成されており、3次元画像データを用いることにより見る方向に対応した服飾画像を表示することができる。操作入力部14は、試着する際の必要な選択情報等を入力する。   FIG. 2 is a schematic block configuration diagram relating to the control of the virtual try-on device 1. The control unit 10 performs overall display processing related to the clothing image on the display device 2, and includes a setting unit 101, a position calculation unit 102, and a display control unit 103. The image display unit 11 displays an image on the display screen of the display device 2 based on the image data transmitted from the display control unit 103. The position detection unit 12 detects the position of the predetermined part of the user M based on the captured image obtained from the camera 4. The storage unit 13 stores clothing images such as clothes to be displayed on the display device 2 and customer information (attribute information, past selection information, etc.) regarding the registered user. The clothing image is composed of three-dimensional image data, and the clothing image corresponding to the viewing direction can be displayed by using the three-dimensional image data. The operation input unit 14 inputs necessary selection information and the like when trying on.

設定部101は、表示デバイス2及びカメラ4の位置関係を設定する。図3は、仮想試着装置1に関する各部位の位置関係を示す説明図である。まず、表示デバイス2の表示画面上の中心位置の空間座標Pm及びカメラ4の撮影位置の空間座標Pcの位置関係を設定する。設定方法としては、基準となる校正用物体をユーザMが立つ位置に設置し、校正用物体の所定位置と表示デバイス2の表示画面の中心位置との間の距離を測定して、校正用物体の基準空間座標と表示デバイス2の空間座標Pmとの間の相対位置関係を設定する。   The setting unit 101 sets the positional relationship between the display device 2 and the camera 4. FIG. 3 is an explanatory diagram showing the positional relationship of each part with respect to the virtual fitting device 1. First, the positional relationship between the space coordinate Pm of the center position on the display screen of the display device 2 and the space coordinate Pc of the shooting position of the camera 4 is set. As a setting method, a calibration object serving as a reference is placed at a position where the user M stands, and a distance between a predetermined position of the calibration object and the center position of the display screen of the display device 2 is measured, and the calibration object is measured. The relative positional relationship between the reference space coordinates and the space coordinates Pm of the display device 2 is set.

次に、設置した校正用物体をカメラ4で撮影して所要の校正処理を行うとともにその撮影画像に基づいて基準空間座標とカメラ4の空間座標Pcとの間の相対位置関係を設定する。   Next, the installed calibration object is photographed by the camera 4 and necessary calibration processing is performed, and the relative positional relationship between the reference space coordinates and the space coordinates Pc of the camera 4 is set based on the photographed image.

こうして基準空間座標に対する表示デバイス2の空間座標Pm及びカメラ4の空間座標Pcが設定される。なお、校正用物体と表示デバイス2との間で測定した距離は操作入力部4から測定値を入力し入力したデータに基づいて空間座標Pmを設定登録する。また、カメラ4の空間座標Pcに関する設定値は、カメラ4で校正用物体を撮影して得られた画像データを解析して空間座標Pcを設定登録する。   In this way, the spatial coordinates Pm of the display device 2 and the spatial coordinates Pc of the camera 4 with respect to the reference spatial coordinates are set. Note that the distance measured between the calibration object and the display device 2 is set and registered as a spatial coordinate Pm based on the input data obtained by inputting a measured value from the operation input unit 4. Further, as for the set value relating to the spatial coordinate Pc of the camera 4, the spatial coordinate Pc is set and registered by analyzing image data obtained by photographing the calibration object with the camera 4.

位置算出部102は、ハーフミラー3の前方側の所定位置に立ったユーザMをカメラ4で撮影しその画像データからユーザMの胴体に関する空間座標Pt及び視点に関する空間座標Peを算出する。   The position calculation unit 102 captures the user M standing at a predetermined position on the front side of the half mirror 3 with the camera 4 and calculates the spatial coordinates Pt related to the body of the user M and the spatial coordinates Pe related to the viewpoint from the image data.

図4は、カメラ4で撮影したユーザMの撮影画像の一例を示す説明図である。ハーフミラー3の前方側に立ったユーザMを斜め上方からカメラ4で撮影すると、カメラ4に近い上半身が大きく撮影される。   FIG. 4 is an explanatory diagram illustrating an example of a captured image of the user M captured by the camera 4. When the user M standing on the front side of the half mirror 3 is photographed by the camera 4 from obliquely above, the upper body close to the camera 4 is photographed largely.

ユーザMは、上半身にマーク表示衣服5を着用している。マーク表示衣服5は、着装状態においてユーザMの胸部の中央部分に対応する位置に1つの位置検出用マークが表示され、胴部において腹側の両側に対応する位置及び背中側の両側に対応する位置にそれぞれ2つずつ位置検出用マーク5aが表示されている。マーク表示衣服5としては、エプロンのように衣服の上に簡単に着用できるものが好ましい。また、位置検出用マークが正確に読み取れるように無地で明るい色のものがよい。   The user M wears the mark display clothes 5 on the upper body. In the mark display garment 5, one position detection mark is displayed at a position corresponding to the central portion of the chest of the user M in the wearing state, and the position corresponding to both sides on the abdominal side and both sides on the back side are corresponding to the torso. Two position detection marks 5a are displayed at each position. The mark display garment 5 is preferably one that can be easily worn on the garment, such as an apron. Also, it should be a solid and bright color so that the position detection mark can be read accurately.

位置検出用マーク5aは、所定のサイズの矩形状のマークで黒色に白抜きで格子状に読取情報が表示されている。そして、各位置検出用マークは、表示される位置を特定可能となるようにそれぞれ異なる格子状パターンが設定されており、位置検出用マークを読み取ることでユーザの所定部位の位置を特定することができる。なお、格子状のパターンが読み取れるのであれば黒白以外の色の組合せを用いてもよい。   The position detection mark 5a is a rectangular mark of a predetermined size, and the read information is displayed in black and white and in a lattice shape. Each position detection mark has a different grid pattern so that the position to be displayed can be specified. By reading the position detection mark, the position of a predetermined part of the user can be specified. it can. Note that a combination of colors other than black and white may be used as long as a lattice pattern can be read.

ユーザMの上半身をカメラ4で撮影しその撮影画像から位置検出部12において位置検出用マーク5aに関する画像データを抽出する。そして、抽出した画像データの撮影画像における位置及び位置検出用マークの外形形状を実寸の外形形状と対比させて算出される距離により位置検出用マーク5aのカメラ4に対する相対位置関係を求める。また、位置検出用マークの画像データの格子状パターンを解析することで、上述したようにユーザMのどの部位に表示された位置検出用マークであるかを特定する。位置検出部12では、こうしてユーザの所定部位の位置を検出する。そして、所定時間毎に位置検出用マークの位置を検出することで、ユーザの姿勢の変化に応じて所定部位の位置をリアルタイムで検出することができる。   The upper body of the user M is photographed by the camera 4, and image data relating to the position detection mark 5 a is extracted from the photographed image by the position detection unit 12. Then, the relative position relationship of the position detection mark 5a with respect to the camera 4 is obtained from the position calculated by comparing the position of the extracted image data in the captured image and the outer shape of the position detection mark with the actual outer shape. Further, by analyzing the grid pattern of the image data of the position detection mark, it is specified in which part of the user M the position detection mark is displayed as described above. In this way, the position detection unit 12 detects the position of the predetermined part of the user. Then, by detecting the position of the position detection mark every predetermined time, the position of the predetermined part can be detected in real time according to the change in the user's posture.

位置算出部102では、こうして求められた相対位置関係に基づいてカメラ4の空間座標Pcから各位置検出用マークの空間座標を算出する。胸部の中央部分に対応する位置に表示された位置検出用マークについては、その上方の所定位置にユーザMの視点位置が存在するものと仮定して位置検出用マークの空間座標から視点位置の空間座標Peを算出する。胴部の両側に対応する位置に表示された位置検出用マークについては、それぞれ胴体に関する空間座標Ptとして算出する。   The position calculation unit 102 calculates the spatial coordinates of each position detection mark from the spatial coordinates Pc of the camera 4 based on the relative positional relationship thus obtained. With respect to the position detection mark displayed at the position corresponding to the central part of the chest, it is assumed that the viewpoint position of the user M exists at a predetermined position above the position detection mark. The coordinate Pe is calculated. The position detection marks displayed at the positions corresponding to both sides of the trunk are calculated as space coordinates Pt related to the trunk.

こうして、ユーザの視点位置に関する空間座標Pe及び胴体に関する空間座標Ptが算出され、ユーザの姿勢の変化に応じて各空間座標をリアルタイムで算出することができる。また、ユーザの背中側にも位置検出用マークが表示されているため、ユーザがハーフミラーに対して背を向けた状態でも胴体に関する空間座標Ptが算出され、服飾画像の背中側の画像データを表示することができる。   In this way, the spatial coordinates Pe related to the user's viewpoint position and the spatial coordinates Pt related to the torso are calculated, and each spatial coordinate can be calculated in real time according to a change in the user's posture. Further, since the position detection mark is also displayed on the back side of the user, the spatial coordinates Pt related to the torso is calculated even when the user is turned to the half mirror, and the back side image data of the clothing image is obtained. Can be displayed.

表示制御部103は、操作入力部14から入力された服飾画像の選択情報に基づいて記憶部13に記憶された服飾画像の3次元画像データを読出す。そして、表示デバイス2の空間座標Pm及び視点位置に関する空間座標Peの相対位置関係に基づいてハーフミラー3上でのユーザMの鏡像の表示位置及び表示サイズを算出する。また、胴体に関する空間座標Ptに基づいてユーザMのハーフミラー3に対する傾斜角度(正対しているか、斜め方向を向いているかを示す角度)及び距離を算出する。胴体に関する空間座標PtはユーザMの腹部及び背部に設定されているので、ユーザMの0度から360度まで回転した場合について傾斜角度を算出することができる。   The display control unit 103 reads the three-dimensional image data of the clothing image stored in the storage unit 13 based on the clothing image selection information input from the operation input unit 14. Then, the display position and display size of the mirror image of the user M on the half mirror 3 are calculated based on the relative positional relationship between the spatial coordinates Pm of the display device 2 and the spatial coordinates Pe regarding the viewpoint position. Further, an inclination angle (an angle indicating whether the user M is facing directly or in an oblique direction) and a distance with respect to the half mirror 3 of the user M are calculated based on the spatial coordinates Pt related to the trunk. Since the space coordinates Pt regarding the trunk are set at the abdomen and back of the user M, the inclination angle can be calculated for the case where the user M rotates from 0 degrees to 360 degrees.

そして、読み出された3次元画像データを鏡像の表示位置及び表示サイズに合せて表示処理し、傾斜角度及び距離に合せて画像データを回転処理及び拡大縮小処理する。処理した画像データを画像表示部11に送信して表示デバイス2の表示画面に表示させる。   Then, the read three-dimensional image data is displayed in accordance with the mirror image display position and display size, and the image data is rotated and enlarged / reduced in accordance with the tilt angle and distance. The processed image data is transmitted to the image display unit 11 and displayed on the display screen of the display device 2.

図5は、服飾画像Rを表示画面上に表示した状態をユーザ以外の視点から見た説明図であり、図6は、ユーザの視点から見た表示状態を示す説明図である。ユーザ以外の視点から表示状態を見ると、ハーフミラー3に映し出される鏡像Nは表示画面上に表示された服飾画像Rとは重なり合わないが、ユーザの視点で見ると、鏡像Nに重なり合うように服飾画像Rが表示されるようになり、仮想的にユーザが服飾画像Rの衣服を着装した状態を表示することができる。   FIG. 5 is an explanatory view of a state in which the clothing image R is displayed on the display screen as viewed from a viewpoint other than the user, and FIG. 6 is an explanatory view of a display state viewed from the viewpoint of the user. When the display state is viewed from a viewpoint other than the user, the mirror image N projected on the half mirror 3 does not overlap with the clothing image R displayed on the display screen, but when viewed from the user's viewpoint, it overlaps with the mirror image N. The clothing image R is displayed, and a state in which the user is wearing the clothing of the clothing image R virtually can be displayed.

また、所定時間毎に位置検出用マークを読み取って、ユーザの姿勢の変化に応じて視点位置の空間座標Pe及び胴体の空間座標Ptが変化するので、それに対応して表示される服飾画像も変化するようになる。そのため、現実感のある着装状態を表示することができる。   Also, the position detection mark is read every predetermined time, and the spatial coordinates Pe of the viewpoint position and the spatial coordinates Pt of the torso change according to the change of the user's posture, so the clothing image displayed correspondingly also changes. To come. Therefore, a realistic wearing state can be displayed.

操作入力部14としては、キーボード、リモコン等の公知の入力機器を用いて必要な操作情報を入力することができる。また、カメラ4からの撮影画像を用い、ユーザの手の動きや指の動きを読み取って操作情報を特定し入力するようにしてもよい。また、表示画面上にメニュー画面を表示してメニュー画面を操作しながら服飾画像を選択するようにしてもよい。   As the operation input unit 14, necessary operation information can be input using a known input device such as a keyboard or a remote controller. In addition, the operation information may be specified and input by reading the movement of the user's hand and the movement of the finger using a captured image from the camera 4. In addition, a clothing image may be selected while displaying the menu screen on the display screen and operating the menu screen.

以上説明したように、仮想試着装置1により、ユーザは実際の衣服を試着することなく、衣服の着装状態をハーフミラー3に表示された鏡像及びそれに重ね合わされた服飾画像で確認して評価することができる。また、記憶部13に多くの種類の服飾画像を記憶しておくことで、ユーザは、表示デバイス2上に表示する服飾画像を好みに応じて容易に変更することができ、様々な衣服を仮想的に試着することが可能となる。   As described above, the virtual try-on device 1 allows the user to check and evaluate the wearing state of the clothes with the mirror image displayed on the half mirror 3 and the clothing image superimposed thereon without trying on the actual clothes. Can do. Moreover, by storing many types of clothing images in the storage unit 13, the user can easily change the clothing images displayed on the display device 2 according to his / her preference, and various clothes can be virtually displayed. It is possible to try on.

表示される服飾画像としては、現存する衣服の服飾画像以外に、ユーザが任意に選択した型及び色柄の組み合わせにより生成した仮想的な衣服の服飾画像であってもよい。   The displayed clothing image may be a virtual clothing clothing image generated by a combination of a pattern and a color pattern arbitrarily selected by the user, in addition to the existing clothing clothing image.

本実施形態では、一着の衣服を試着する場合について説明したが、これに限らず、例えば頭部に試着する帽子や、下半身に試着するズボン、スカート等の服飾画像も同時に表示デバイス2上に表示してもよい。この場合は、所定部位の空間座標を算出するために、頭部用及び下半身用の位置検出用マークを表示した衣類を着用すればよい。   In the present embodiment, the case of trying on a single piece of clothing has been described. However, the present invention is not limited to this. For example, clothing images such as a hat to try on the head, pants to try on the lower body, and a skirt are also displayed on the display device 2 at the same time. It may be displayed. In this case, in order to calculate the spatial coordinates of the predetermined part, it is only necessary to wear clothes displaying position detection marks for the head and the lower body.

図7は、服飾画像を表示デバイス2に表示する処理フローである。予めユーザにマーク表示衣服を着用してもらい、ハーフミラー3の前方側の所定位置に立ってもらう。そして、ユーザをカメラ4により撮影して撮影画像を取得する(S100)。取得した撮影画像から位置検出用マークの画像データを抽出し(S101)、抽出された位置検出用マークを解析処理してユーザの所定部位の位置を検出する(S102)。   FIG. 7 is a processing flow for displaying a clothing image on the display device 2. The user wears a mark display garment in advance and stands at a predetermined position on the front side of the half mirror 3. And a user is image | photographed with the camera 4 and a picked-up image is acquired (S100). Image data of a position detection mark is extracted from the acquired captured image (S101), and the extracted position detection mark is analyzed to detect the position of a predetermined part of the user (S102).

次に、検出された位置検出用マークの位置及びカメラ4の空間座標Pcに基づいて各位置検出用マークの空間座標を算出し(S103)、ユーザの胴部に対応する位置検出用マークの空間座標から胴体の空間座標Ptを算出する(S104)。そして、胴体の空間座標Ptからユーザの視点位置の空間座標Peを算出する(S105)。   Next, based on the position of the detected position detection mark and the spatial coordinate Pc of the camera 4, the spatial coordinates of each position detection mark are calculated (S103), and the space of the position detection mark corresponding to the torso of the user. The body space coordinates Pt are calculated from the coordinates (S104). Then, the spatial coordinate Pe of the user's viewpoint position is calculated from the spatial coordinate Pt of the trunk (S105).

そして、服飾画像が既に選択されて表示されているかチェックし(S106)、表示されていない場合には服飾画像の選択表示処理を行い(S107)、表示画面に選択を行うためのメニュー画面を表示する。選択表示画面において服飾画像がリモコン等の操作入力により選択されたかチェックし(S108)、服飾画像が選択された場合には、選択された服飾画像を読出し、表示デバイス2の空間座標Pm、ユーザの視点位置の空間座標Pe及び胴体の空間座標Ptに基づいて服飾画像の表示処理を行い(S109)、表示デバイス2の表示画面に服飾画像を表示し、ハーフミラー3に映し出されるユーザの鏡像に重ね合わせて服飾画像が投影されて表示される。   Then, it is checked whether the clothing image has already been selected and displayed (S106). If not, the clothing image is selected and displayed (S107), and a menu screen for making a selection is displayed on the display screen. To do. In the selection display screen, it is checked whether the clothing image has been selected by an operation input from a remote controller or the like (S108). If the clothing image is selected, the selected clothing image is read out, the spatial coordinates Pm of the display device 2, and the user's A clothing image is displayed based on the spatial coordinates Pe of the viewpoint position and the space coordinates Pt of the torso (S109), the clothing image is displayed on the display screen of the display device 2, and is superimposed on the mirror image of the user displayed on the half mirror 3. In addition, a clothing image is projected and displayed.

ステップS106において服飾画像が既に表示されている場合には、ステップS109に進み新たに算出した視点位置の空間座標Pe及び胴体の空間座標Ptに基づいて服飾画像の表示処理を更新する。こうして、ユーザの姿勢の変化に追随して服飾画像を変化させていくことができる。   If the clothing image has already been displayed in step S106, the process proceeds to step S109 to update the clothing image display process based on the newly calculated viewpoint position spatial coordinates Pe and torso spatial coordinates Pt. In this way, the clothing image can be changed following the change in the posture of the user.

服飾画像の表示処理後服飾画像の変更が操作されたかチェックし(S110)、変更操作があった場合にはステップS109に戻り、再度変更操作により選択された服飾画像の表示処理を行う。変更操作がない場合には終了操作がなされたかチェックし(S111)、終了操作があった場合には終了処理を行う。終了操作がない場合には所定時間経過したかチェックし(S112)、所定時間経過するとステップS100に戻り、位置検出用マークの位置検出及び空間座標の算出といった処理が繰り返されて服飾画像の表示が更新されるようになる。   It is checked whether or not the change of the clothing image has been operated after the display of the clothing image (S110). If there is a changing operation, the process returns to step S109 to display the clothing image selected by the changing operation again. If there is no change operation, it is checked whether an end operation has been performed (S111), and if there is an end operation, an end process is performed. If there is no end operation, it is checked whether or not a predetermined time has passed (S112), and when the predetermined time has passed, the process returns to step S100, and processing such as position detection mark position detection and spatial coordinate calculation is repeated to display a clothing image. It will be updated.

以上説明したように、ユーザが着用するマーク表示衣服の位置検出用マークをカメラで撮影し位置検出用マークの検出位置に基づいて服飾画像をハーフミラー上に鏡像と重ね合わせて表示するようにしているので、不特定多数のユーザに合せて簡単に着装状態を仮想的に表示することができる。   As described above, the position detection mark of the mark display garment worn by the user is photographed by the camera, and the clothing image is superimposed on the mirror image and displayed on the half mirror based on the detection position of the position detection mark. Therefore, the wearing state can be virtually displayed according to an unspecified number of users.

本発明に係る実施形態の一部に関する分解斜視図である。It is a disassembled perspective view regarding a part of embodiment which concerns on this invention. 仮想試着装置の制御に関する概略ブロック構成図である。It is a schematic block block diagram regarding control of a virtual try-on device. 仮想試着装置に関する各部位の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of each site | part regarding a virtual fitting device. カメラで撮影したユーザの撮影画像の一例を示す説明図である。It is explanatory drawing which shows an example of the user's picked-up image image | photographed with the camera. 服飾画像を表示画面上に表示した状態をユーザ以外の視点から見た説明図である。It is explanatory drawing which looked at the state which displayed the clothing image on the display screen from viewpoints other than a user. ユーザの視点から見た表示状態を示す説明図である。It is explanatory drawing which shows the display state seen from a user's viewpoint. 服飾画像を表示デバイスに表示する処理フローである。It is a processing flow which displays a clothing image on a display device.

符号の説明Explanation of symbols

1・・・仮想試着装置、2・・・表示デバイス、3・・・ハーフミラー、4・・・カメラ、5・・・マーク表示衣服、5a・・・位置検出用マーク。 DESCRIPTION OF SYMBOLS 1 ... Virtual fitting device, 2 ... Display device, 3 ... Half mirror, 4 ... Camera, 5 ... Mark display clothing, 5a ... Position detection mark.

Claims (5)

ハーフミラーの背面側から服飾画像を投影して表示する表示手段と、前記ハーフミラーの前面側に位置するユーザの所定部位の位置を検出する位置検出手段と、検出した前記所定部位の位置情報に基づいてユーザの視点位置情報を算出する位置算出手段と、算出した前記視点位置情報及び前記ハーフミラーの位置情報に基づいて前記ハーフミラーに映し出されるユーザの鏡像に対してユーザから見て重ね合う位置に服飾画像を前記ハーフミラーに表示するように前記表示手段を制御する表示制御手段とを備えていることを特徴とする仮想試着装置。   Display means for projecting and displaying a clothing image from the back side of the half mirror, position detecting means for detecting the position of a predetermined part of the user located on the front side of the half mirror, and position information of the detected predetermined part Based on the calculated position information of the user and the mirror image of the user displayed on the half mirror based on the calculated position information of the viewpoint and the position information of the half mirror. A virtual try-on device comprising: display control means for controlling the display means so as to display a clothing image on the half mirror. 前記位置検出手段は、所定時間毎に前記所定部位の位置を検出することを特徴とする請求項1に記載の仮想試着装置。   The virtual try-on device according to claim 1, wherein the position detection unit detects the position of the predetermined part at predetermined time intervals. 前記所定部位には所定の位置検出用マークが表示されており、前記位置検出手段は、前記位置検出用マークにより前記所定部位の位置を検出することを特徴とする請求項1又は2に記載の仮想試着装置。   The predetermined position detection mark is displayed on the predetermined portion, and the position detection means detects the position of the predetermined portion by the position detection mark. Virtual try-on device. 前記位置検出用マークを表示した衣類をユーザが着装することで前記所定部位に前記位置検出用マークが表示されることを特徴とする請求項3に記載の仮想試着装置。   The virtual try-on device according to claim 3, wherein the position detection mark is displayed at the predetermined portion when a user wears clothing displaying the position detection mark. 前記位置検出手段は、前記ハーフミラーの上方に設けられるとともに前記ハーフミラーの前面側に位置するユーザを撮影するカメラを備えていることを特徴とする請求項1から4のいずれかに記載の仮想試着装置。   5. The virtual according to claim 1, wherein the position detection unit includes a camera that is provided above the half mirror and photographs a user located on a front side of the half mirror. Try-on device.
JP2008242537A 2008-09-22 2008-09-22 Virtual fitting device Expired - Fee Related JP5210102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008242537A JP5210102B2 (en) 2008-09-22 2008-09-22 Virtual fitting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008242537A JP5210102B2 (en) 2008-09-22 2008-09-22 Virtual fitting device

Publications (2)

Publication Number Publication Date
JP2010070889A true JP2010070889A (en) 2010-04-02
JP5210102B2 JP5210102B2 (en) 2013-06-12

Family

ID=42202933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008242537A Expired - Fee Related JP5210102B2 (en) 2008-09-22 2008-09-22 Virtual fitting device

Country Status (1)

Country Link
JP (1) JP5210102B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102004860A (en) * 2010-12-02 2011-04-06 天津市企商科技发展有限公司 Network real-person fitting system and control method thereof
WO2014103088A1 (en) * 2012-12-28 2014-07-03 日本電気株式会社 Display system and display control method
KR20140116585A (en) * 2013-03-25 2014-10-06 삼성전자주식회사 Virtual fitting device of providing virtual fitting service using motion recognition and method thereof
WO2015166957A1 (en) * 2014-04-30 2015-11-05 シャープ株式会社 Display device
JP2016004564A (en) * 2014-06-19 2016-01-12 大日本印刷株式会社 Try-on support system using augmented reality
JP5939603B1 (en) * 2015-11-24 2016-06-22 エイブル株式会社 Door with mirror and video display function
JP2016152606A (en) * 2015-02-19 2016-08-22 大日本印刷株式会社 Image control device
US9436053B2 (en) 2013-06-05 2016-09-06 Joled Inc. Display unit and electronic apparatus
WO2016160610A1 (en) * 2015-03-30 2016-10-06 Amazon Technologies, Inc Blended reality systems and methods
KR101720016B1 (en) 2015-10-16 2017-03-27 광운대학교 산학협력단 A clothing fitting system with a mirror display by using salient points and the method thereof
KR101728775B1 (en) * 2015-01-28 2017-04-21 경북대학교 산학협력단 Half mirror based focus-view matching display device and method, recording medium and device for performing the method
WO2017090345A1 (en) * 2015-11-24 2017-06-01 エイブル株式会社 Door having mirror and video display function
KR20170096801A (en) * 2016-02-17 2017-08-25 삼성전자주식회사 Method and apparatus for processing image in virtual reality system
DE102016213754A1 (en) * 2016-07-27 2018-02-01 Henkel Ag & Co. Kgaa Method, device and data processing device for computer-aided hair color consultation
KR20180028210A (en) * 2016-09-08 2018-03-16 엘지전자 주식회사 Display device and method for controlling the same
DE102017114502B3 (en) * 2017-06-29 2018-05-24 Jenoptik Optical Systems Gmbh mirror device
KR101876994B1 (en) * 2017-06-05 2018-07-10 (주)서울전업공사 Virtual coding system based on light emitting diode panel, and method thereof
CN108830137A (en) * 2018-04-26 2018-11-16 深圳市赛亿科技开发有限公司 A kind of Intelligent mirror control method and system
CN108921633A (en) * 2018-04-26 2018-11-30 深圳市赛亿科技开发有限公司 A kind of Intelligent mirror shopping guide method and system
KR20200043046A (en) * 2018-10-17 2020-04-27 유병훈 Apparatus for controlling environment and method of controlling environment
US11257467B2 (en) 2017-12-07 2022-02-22 Samsung Electronics Co., Ltd. Method for controlling depth of object in mirror display system
JP2022052750A (en) * 2020-09-23 2022-04-04 ショッピファイ インコーポレイテッド System and method for generating augmented reality content based on distorted three-dimensional model
JPWO2022177005A1 (en) * 2021-02-22 2022-08-25
KR102438878B1 (en) * 2021-10-26 2022-09-02 주식회사 헬로브이알 Smart mirror and how it works
KR20230114914A (en) * 2022-01-26 2023-08-02 한남대학교 산학협력단 Rotate type 3d scanner device
WO2025200729A1 (en) * 2024-03-29 2025-10-02 北京字跳网络技术有限公司 Image generation method and apparatus, and electronic device and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105094735A (en) * 2015-08-02 2015-11-25 鲁辰超 Clothing fitting mirror

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268943A (en) * 1993-03-15 1994-09-22 Mitsubishi Heavy Ind Ltd Head-mounted display device having video camera for visual point image
JPH10112831A (en) * 1996-10-07 1998-04-28 Minolta Co Ltd Display method and display device for real space image and virtual space image
JP2002207802A (en) * 2000-12-19 2002-07-26 Shima Seiki Mfg Ltd Method and device for aiding sales of apparel product and fitting room
JP2005256232A (en) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3D data display method, apparatus, and program
JP2006331132A (en) * 2005-05-26 2006-12-07 Matsushita Electric Works Ltd Dressing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268943A (en) * 1993-03-15 1994-09-22 Mitsubishi Heavy Ind Ltd Head-mounted display device having video camera for visual point image
JPH10112831A (en) * 1996-10-07 1998-04-28 Minolta Co Ltd Display method and display device for real space image and virtual space image
JP2002207802A (en) * 2000-12-19 2002-07-26 Shima Seiki Mfg Ltd Method and device for aiding sales of apparel product and fitting room
JP2005256232A (en) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3D data display method, apparatus, and program
JP2006331132A (en) * 2005-05-26 2006-12-07 Matsushita Electric Works Ltd Dressing system

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102004860B (en) * 2010-12-02 2013-01-16 天津市企商科技发展有限公司 Network real-person fitting system and control method thereof
CN102004860A (en) * 2010-12-02 2011-04-06 天津市企商科技发展有限公司 Network real-person fitting system and control method thereof
WO2014103088A1 (en) * 2012-12-28 2014-07-03 日本電気株式会社 Display system and display control method
KR20140116585A (en) * 2013-03-25 2014-10-06 삼성전자주식회사 Virtual fitting device of providing virtual fitting service using motion recognition and method thereof
KR102059356B1 (en) * 2013-03-25 2020-02-11 삼성전자주식회사 Virtual fitting device of providing virtual fitting service using motion recognition and method thereof
US9436053B2 (en) 2013-06-05 2016-09-06 Joled Inc. Display unit and electronic apparatus
WO2015166957A1 (en) * 2014-04-30 2015-11-05 シャープ株式会社 Display device
JP2015210509A (en) * 2014-04-30 2015-11-24 シャープ株式会社 Display device
JP2016004564A (en) * 2014-06-19 2016-01-12 大日本印刷株式会社 Try-on support system using augmented reality
KR101728775B1 (en) * 2015-01-28 2017-04-21 경북대학교 산학협력단 Half mirror based focus-view matching display device and method, recording medium and device for performing the method
JP2016152606A (en) * 2015-02-19 2016-08-22 大日本印刷株式会社 Image control device
WO2016160610A1 (en) * 2015-03-30 2016-10-06 Amazon Technologies, Inc Blended reality systems and methods
US9858719B2 (en) 2015-03-30 2018-01-02 Amazon Technologies, Inc. Blended reality systems and methods
US10621785B2 (en) 2015-03-30 2020-04-14 Amazon Technologies, Inc. Blended reality systems and methods
KR101720016B1 (en) 2015-10-16 2017-03-27 광운대학교 산학협력단 A clothing fitting system with a mirror display by using salient points and the method thereof
WO2017090345A1 (en) * 2015-11-24 2017-06-01 エイブル株式会社 Door having mirror and video display function
JP5939603B1 (en) * 2015-11-24 2016-06-22 エイブル株式会社 Door with mirror and video display function
KR20170096801A (en) * 2016-02-17 2017-08-25 삼성전자주식회사 Method and apparatus for processing image in virtual reality system
KR102517104B1 (en) 2016-02-17 2023-04-04 삼성전자주식회사 Method and apparatus for processing image in virtual reality system
DE102016213754A1 (en) * 2016-07-27 2018-02-01 Henkel Ag & Co. Kgaa Method, device and data processing device for computer-aided hair color consultation
KR20180028210A (en) * 2016-09-08 2018-03-16 엘지전자 주식회사 Display device and method for controlling the same
KR102570189B1 (en) * 2016-09-08 2023-08-24 엘지전자 주식회사 Display device and method for controlling the same
KR101876994B1 (en) * 2017-06-05 2018-07-10 (주)서울전업공사 Virtual coding system based on light emitting diode panel, and method thereof
DE102017114502B3 (en) * 2017-06-29 2018-05-24 Jenoptik Optical Systems Gmbh mirror device
US11257467B2 (en) 2017-12-07 2022-02-22 Samsung Electronics Co., Ltd. Method for controlling depth of object in mirror display system
CN108830137A (en) * 2018-04-26 2018-11-16 深圳市赛亿科技开发有限公司 A kind of Intelligent mirror control method and system
CN108921633A (en) * 2018-04-26 2018-11-30 深圳市赛亿科技开发有限公司 A kind of Intelligent mirror shopping guide method and system
KR102178939B1 (en) * 2018-10-17 2020-11-13 유병훈 Apparatus for controlling environment and method of controlling environment
KR20200043046A (en) * 2018-10-17 2020-04-27 유병훈 Apparatus for controlling environment and method of controlling environment
JP2022052750A (en) * 2020-09-23 2022-04-04 ショッピファイ インコーポレイテッド System and method for generating augmented reality content based on distorted three-dimensional model
US12322055B2 (en) 2020-09-23 2025-06-03 Shopify Inc. Systems and methods for generating augmented reality content based on distorted three-dimensional models
JPWO2022177005A1 (en) * 2021-02-22 2022-08-25
WO2022177005A1 (en) * 2021-02-22 2022-08-25 株式会社楽日 Augmented reality video display system
JP7599001B2 (en) 2021-02-22 2024-12-12 株式会社楽日 Augmented reality display system
KR102438878B1 (en) * 2021-10-26 2022-09-02 주식회사 헬로브이알 Smart mirror and how it works
KR102486094B1 (en) * 2021-10-26 2023-01-06 주식회사 헬로브이알 Smart mirror providing virtual fitting augemented image and operating method thereof
KR102594185B1 (en) 2022-01-26 2023-10-24 한남대학교 산학협력단 Rotate type 3d scanner device
KR20230114914A (en) * 2022-01-26 2023-08-02 한남대학교 산학협력단 Rotate type 3d scanner device
WO2025200729A1 (en) * 2024-03-29 2025-10-02 北京字跳网络技术有限公司 Image generation method and apparatus, and electronic device and storage medium

Also Published As

Publication number Publication date
JP5210102B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP5210102B2 (en) Virtual fitting device
ES2995983T3 (en) Devices, systems and methods of virtualizing a mirror
US9858724B2 (en) Augmented reality design system
JP6548967B2 (en) Image processing apparatus, image processing method and program
US8359247B2 (en) System and methods for generating virtual clothing experiences
ES2984065T3 (en) Devices, systems and methods for self-timed video presentation
JP6002058B2 (en) Image processing apparatus, method, and program
JPWO2014034188A1 (en) Clothes image processing device, clothes image display method, and program
US20110210970A1 (en) Digital mirror apparatus
US20210398316A1 (en) Systematic positioning of virtual objects for mixed reality
KR101720016B1 (en) A clothing fitting system with a mirror display by using salient points and the method thereof
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
JP5869712B1 (en) Head-mounted display system and computer program for presenting a user&#39;s surrounding environment in an immersive virtual space
TW201350912A (en) Information processing apparatus, information processing system, and information processing method
HK1219796A1 (en) Fitting support device and method
KR20140042119A (en) Virtual fit apparatus for wearing clothes
JP2012216981A (en) Calibration method for stereo camera and information processing device
JP2019066196A (en) Tilt measuring device and tilt measuring method
CN107967062B (en) Intelligent fitting method and system based on somatosensory interaction and shop window
TW201721519A (en) Virtual dressing system and virtual dressing method
JP2003041420A (en) Method for selling clothing and system for fitting and printing
KR20150029798A (en) Virtual fitting system used transparent LCD pannel
KR20180000006A (en) Shoping inducing mehtod using augmented reality
KR20250082827A (en) Automatic measurement method of clothing size using grid panel and Buying method clothing and Digital clothing generation method
JP2013250600A (en) Display device, display system, display method and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5210102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees