[go: up one dir, main page]

JP2019144890A - 仮想試着システム、仮想試着方法、仮想試着プログラム、情報処理装置、および学習データ - Google Patents

仮想試着システム、仮想試着方法、仮想試着プログラム、情報処理装置、および学習データ Download PDF

Info

Publication number
JP2019144890A
JP2019144890A JP2018029041A JP2018029041A JP2019144890A JP 2019144890 A JP2019144890 A JP 2019144890A JP 2018029041 A JP2018029041 A JP 2018029041A JP 2018029041 A JP2018029041 A JP 2018029041A JP 2019144890 A JP2019144890 A JP 2019144890A
Authority
JP
Japan
Prior art keywords
image
try
unit
teacher
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018029041A
Other languages
English (en)
Other versions
JP6921768B2 (ja
Inventor
弘樹 上田
Hiroki Ueda
弘樹 上田
寿朗 吉岡
Toshiaki Yoshioka
寿朗 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2018029041A priority Critical patent/JP6921768B2/ja
Priority to PCT/JP2018/041860 priority patent/WO2019163218A1/ja
Priority to CN201880089852.9A priority patent/CN111742350B/zh
Publication of JP2019144890A publication Critical patent/JP2019144890A/ja
Priority to US16/995,873 priority patent/US12223541B2/en
Application granted granted Critical
Publication of JP6921768B2 publication Critical patent/JP6921768B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
    • G06Q30/0643Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping graphically representing goods, e.g. 3D product representation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/091Active learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】高精度に合成された仮想試着画像を容易に提供する。【解決手段】仮想試着システム1は、学習部12Cと、取得部12Aと、導出部12Dと、生成部26Hと、を備える。学習部12Cは、教師試着者画像を入力データとし、教師試着者画像によって示される試着者の体型を示す体型パラメータおよび教師試着者画像における衣服画像の合成位置情報を出力データとする学習モデルを、試着者の三次元データを用いた機械学習によって学習する。取得部26Gは、試着者画像を取得する。導出部12Dは、試着者画像と学習モデルを用いて、試着者画像によって示される試着者の出力データを導出する。生成部26Hは、導出された出力データを用いて、試着者画像と衣服画像を合成した仮想試着画像を生成する。【選択図】図3

Description

本発明の実施の形態は、仮想試着システム、仮想試着方法、仮想試着プログラム、情報処理装置、および学習データに関する。
試着対象の衣服を着用した状態を示す仮想画像を表示する技術が開示されている。例えば、ユーザが衣服を試着した状態を示す合成画像を表示する技術が開示されている。
特開2014−165613号公報 特開2016−122411号公報
しかしながら、従来では、仮想試着画像の表示時に、試着者の三次元形状に関する情報を取得し、取得した三次元形状に関する情報に応じて変形および位置合せを行うことで、衣服画像と試着者画像とを合成していた。このため、従来では、簡易な構成で、高精度に合成された仮想試着画像を提供することは困難であった。
本発明が解決しようとする課題は、高精度に合成された仮想試着画像を容易に提供することが出来る、仮想試着システム、仮想試着方法、仮想試着プログラム、情報処理装置、および学習データを提供することである。
実施の形態の仮想試着システムは、学習部と、取得部と、導出部と、生成部と、を備える。学習部は、教師試着者画像を入力データとし、前記教師試着者画像によって示される試着者の体型を示す体型パラメータおよび前記教師試着者画像における衣服画像の合成位置情報を出力データとする学習モデルを、試着者の三次元データを用いた機械学習によって学習する。取得部は、試着者画像を取得する。導出部は、前記試着者画像と前記学習モデルを用いて、前記試着者画像によって示される試着者の前記出力データを導出する。生成部は、導出された前記出力データを用いて、前記試着者画像と衣服画像を合成した仮想試着画像を生成する。
図1は、仮想試着システムの模式図である。 図2は、本体部と試着者との位置関係を示す模式図である。 図3は、情報処理装置および端末装置の機能ブロック図である。 図4は、学習データのデータ構成の一例を示す模式図である。 図5は、合成位置情報の一例の説明図である。 図6は、仮想試着画像の一例を示す模式図である。 図7は、情報処理の手順の一例を示すフローチャートである。 図8は、情報処理の手順の一例を示すフローチャートである。 図9は、情報処理装置、端末装置、および外部サーバのハードウェア構成例を示すブロック図である。
以下に添付図面を参照して、仮想試着システム、仮想試着方法、仮想試着プログラム、情報処理装置、および学習データの一の実施の形態を詳細に説明する。
図1は、本実施の形態の仮想試着システム1の模式図である。
仮想試着システム1は、情報処理装置10と、端末装置26と、外部サーバ28と、を備える。情報処理装置10と、端末装置26と、外部サーバ28と、は、通信回線34を介して接続されている。通信回線34は、公知のネットワークである。情報処理装置10、端末装置26、および外部サーバ28は、有線または無線により通信回線34に接続される。
なお、本実施の形態では、仮想試着システム1は、1台の情報処理装置10と、1台の外部サーバ28と、1台の端末装置26と、を備える場合を一例として説明する。しかし、仮想試着システム1は、1または複数台の情報処理装置10と、1または複数台の外部サーバ28と、1または複数台の端末装置26と、を備えた構成であればよい。
端末装置26は、仮想試着画像を表示する装置である。仮想試着画像とは、試着者の試着者画像50上に、衣服画像を合成した合成画像である。言い換えると、仮想試着画像とは、試着者が衣服を仮想的に試着した状態を示す画像である。本実施の形態では、端末装置26は、情報処理装置10で生成された学習モデルを用いて仮想試着画像を生成し、表示する。学習モデルの詳細は、後述する。
端末装置26は、仮想試着を行う試着者によって操作される。端末装置26は、例えば、公知のパーソナルコンピュータや、携帯可能なモバイル端末や、スマートフォンなどである。
試着者は、衣服を試着する対象である。試着者は、衣服を試着する対象であればよく、生物であってもよいし、非生物であってもよい。生物には、例えば、人物が挙げられる。なお、生物は、人物に限られず、犬や猫等の、人物以外の動物であってもよい。また、非生物には、人体や動物の形状を模したマネキンや、その他の物体等が挙げられるが、これに限られない。また、試着者は、衣服を着用した状態の生物や非生物であってもよい。本実施の形態では、試着者は、人物である場合を説明する。
なお、本実施の形態では、試着者、および試着者以外の人物を総称して説明する場合には、単に、ユーザと称して説明する。
衣服とは、試着者が着用可能な品物である。衣服は、例えば、上着、スカート、ズボン、靴、帽子、アクセサリ、水着、かつら、などが挙げられる。なお、衣服は、上着、スカート、ズボン、靴、帽子、アクセサリ、水着、かつら、などに限定されない。
端末装置26は、撮影部26Aと、入力部26Bと、表示部26Cと、を備える。撮影部26Aは、試着者を撮影し、試着者の試着者画像51を得る。試着者画像51は、試着者画像50の一例である。試着者画像51は、端末装置26で撮影された試着者画像50を示す。
撮影部26Aは、公知のデジタルカメラである。試着者画像51(試着者画像50)は、具体的には、試着者画像データである。本実施の形態では、説明を簡略化するために、単に、試着者画像51(試着者画像50)と称して説明する。
なお、試着者画像50のデータ形式は限定されない。例えば、試着者画像50は、画素毎に、試着者の色や輝度等を示す画素値の規定された画像である。なお、試着者画像50は、ビットマップ画像に限定されない。
表示部26Cは、各種画像を表示する。本実施の形態では、表示部26Cは、仮想試着画像を表示する。表示部26Cは、公知のLCD(Liquid Crystal Display)や有機EL(Electro−Luminescence)などである。
入力部26Bは、ユーザによる操作指示を受付ける。入力部26Bは、キーボード、マウス、入力ボタンなどである。なお、表示部26Cと入力部26Bは、一体的に構成してもよい。この場合、表示部26Cおよび入力部26Bは、タッチパネルとして構成すればよい。
外部サーバ28は、衣服画像や、ビッグデータを処理可能なサーバ装置である。本実施の形態では、外部サーバ28は、仮想試着画像に用いるための衣服画像と衣服画像を識別するための衣服IDとを予め対応づけて記憶する。外部サーバ28には、複数の衣服画像が、各々の衣服IDに対応づけて予め記憶されている。また、外部サーバ28は、ビッグデータを処理することで、インターネット上の各種サーバ装置に蓄積されたユーザの購買情報などを分析する。
情報処理装置10は、学習モデルを生成するための装置である。学習モデルは、試着者画像から、該試着者画像によって示される試着者の体型パラメータおよび合成位置情報を導出するための、アプリケーションプログラムである。学習モデルの詳細は後述する。情報処理装置10は、1または複数の端末装置26からアクセスされ、学習した学習モデルや学習モデルから導出した出力データなどを提供する。
情報処理装置10は、情報処理部11と、本体部16と、を備える。情報処理部11は、制御部12と、記憶部14と、を有する。制御部12は、情報処理装置10に設けられた装置各部を制御する。記憶部14は、各種データを記憶する、公知のハードディスクデバイスである。
本体部16は、表示部18と、撮影部20と、三次元データ取得部21と、入力部22と、を備える。
入力部22は、ユーザによる各種操作指示を受付ける。入力部22は、例えば、キーボード、タッチパネル、ポインティングデバイス、マウス、などである。
撮影部20は、試着者を撮影し、試着者の試着者画像50を得る。なお、情報処理装置10に設けられた撮影部20で撮影された試着者画像50を、教師試着者画像40と称して説明する。
教師試着者画像40は、学習モデルの生成に用いるための試着者画像50である。撮影部20は、教師試着者画像40を取得可能な公知の撮影装置である。撮影部20は、例えば、デジタルカメラである。
なお、図1には、一例として、1台の撮影部20を示した。しかし、情報処理装置10は、複数の撮影部20を備えた構成であってもよい。この場合、複数の撮影部20は、互いに異なる撮影方向から試着者を撮影可能な位置に設置されていればよい。すなわち、複数の撮影部20の各々は、互いに撮影角度の異なる教師試着者画像40を撮影可能な位置に設置されていればよい。
また、情報処理装置10は、種類の異なる複数種類の撮影部20を備えた構成であってもよい。撮影部20の種類が異なる、とは、画角、レンズ(望遠レンズ、広角レンズ、短焦点レンズ、ズームレンズ、魚眼レンズ、など)、撮影倍率、解像度、および、撮影部20の製造メーカ、の少なくとも1つが異なる事を意味する。
三次元データ取得部21は、試着者の三次元データを得るための機器である。三次元データは、例えば、3D(three−dimensional)フィーチャデータ、サーフェスデータ、ソリッドデータ、3D CADcomputer−aided designデータ、デプスマップ、などである。
三次元データ取得部21は、上記三次元データを得る事の可能な公知の機器であればよい。例えば、三次元データがデプスマップである場合、三次元データ取得部21は、撮影によってデプスマップを取得する撮影装置である。デプスマップは、距離画像と称される場合がある。デプスマップは、三次元データ取得部21からの距離を画素ごとに規定した画像である。
本実施の形態では、撮影部20および三次元データ取得部21は、同じタイミングで試着者を撮影する。撮影部20および三次元データ取得部21は、制御部12によって、同じタイミングで同期して撮影を順次行うように制御されている。そして、撮影部20および三次元データ取得部21は、撮影によって得た試着者の教師試着者画像40および三次元データを、順次、制御部12へ出力する。
本実施の形態では、撮影部20および三次元データ取得部21は、試着者を複数の撮影角度から撮影する。このため、撮影部20は、複数の撮影角度の各々に対応する教師試着者画像40を得る。また、三次元データ取得部21は、複数の撮影角度の各々に対応する三次元データを得る。
複数の撮影角度は、互いに異なる撮影角度であればよい。例えば、複数の撮影角度は、試着者の体幹を回転軸として360°回転させたときの、予め定めた角度ごとの撮影角度の各々である。具体的には、0°から所定角度(例えば5°)ずつ加算して360°に到るまでの撮影角度の各々であってもよい。撮影角度0°とは、例えば、試着者が表示部18に対して正面を向くように対峙した状態の撮影角度を示す。また、撮影角度180°とは、例えば、表示部18に対して背中を向けるように対峙した状態の撮影角度を示す。
具体的には、表示部18の表示面に対峙した試着者を、異なる複数の撮影方向の各々から撮影可能な位置の各々に、撮影部20および三次元データ取得部21を配置する。そして、撮影部20および三次元データ取得部21は、撮影した撮影画像を得ることで、複数の撮影角度の各々に対応する教師試着者画像40および三次元データを得ればよい。
また、表示部18の表示面に試着者が対峙したときに、制御部12が、試着者に所定のポーズをとることを促すメッセージを出力するように制御してもよい。例えば、制御部12は、試着者が自分でカメラ等の撮影部を挟持して撮影すること(所謂、自撮り)によって撮影された状態を示す画像となるように、ポーズを促すメッセージを出力するように制御してもよい。
例えば、制御部12は、表示部18に該メッセージを表示する。また、例えば、本体部16にスピーカを更に備えた構成とし、制御部12は、該スピーカから該メッセージを出力してもよい。
この場合、撮影部20は、自撮り時と同様のポーズの試着者を撮影し、該ポーズの試着者の教師試着者画像40を得ることができる。
また、撮影部20および三次元データ取得部21は、連続して撮影を行うことで、撮影時間の異なる複数の教師試着者画像40および三次元データを得ることができる。
表示部18は、各種画像を表示する装置である。表示部18は、例えば、液晶表示装置や有機EL(Electro Luminescence)等の公知の表示装置である。本実施の形態では、表示部18は、撮影部20で撮影された教師試着者画像40を表示する。このため、表示部18に対峙した試着者は、鏡を視認する感覚で、表示部18を視認することができる。また、表示部18は、制御部12で生成された後述する重畳画像を表示してもよい(詳細後述)。
表示部18は、例えば矩形状の筐体の一の面に組み込まれている。本実施の形態では、表示部18は、人物の等身大以上の大きさで構成されている場合を説明する。なお、表示部18の大きさは、この大きさに限定されない。
図2は、本実施の形態における、本体部16と試着者Pとの位置関係を示す模式図である。
制御部12は(図2では図示省略)、試着者Pの教師試着者画像40や、試着者Pが各種の衣服を試着した状態を示す重畳画像Wなどを、表示部18に表示する。図2には、一例として、教師試着者画像40と衣服画像42との重畳画像Wを示した。人物等の試着者Pは、例えば、該表示部18の表示面に対峙した位置から、該表示部18に提示された重畳画像W2を視認する。なお、撮影部20および三次元データ取得部21は、表示部18の表示面に対峙した試着者Pを撮影可能となるように、撮影位置および撮影方向を予め調整されている。
図1に戻り説明を続ける。次に、仮想試着システム1に含まれる情報処理装置10および端末装置26の機能を説明する。図3は、仮想試着システム1に含まれる情報処理装置10および端末装置26の機能ブロック図の一例である。
まず、情報処理装置10について説明する。情報処理装置10は、制御部12と、撮影部20と、三次元データ取得部21と、記憶部14と、表示部18と、入力部22と、を備える。撮影部20、三次元データ取得部21、記憶部14、表示部18、および入力部22と、制御部12とは、データや信号を授受可能に接続されている。
記憶部14は、各種データを記憶する。本実施の形態では、記憶部14は、学習データ14Aと、衣服DB14Bと、三次元データDB14Cと、を記憶する。学習データ14Aについては、詳細を後述する。
衣服DB14Bは、衣服IDと、衣服画像と、を対応づけたものである。衣服IDは、対応する衣服画像を識別するための識別情報である。なお、衣服DB14Bは、外部サーバ28に記憶されていてもよい。本実施の形態では、複数の衣服IDと、複数の衣服IDの各々に対応する衣服画像と、を対応づけた衣服DB14Bが、予め記憶部14に記憶されている場合を、一例として説明する。なお、情報処理装置10に記憶されている衣服DB14Bは、外部サーバ28に記憶されている衣服DB14Bによって、適宜更新されてもよい。
三次元データDB14Cは、試着者の三次元データと、教師試着者画像IDと、を対応づけたものである。教師試着者画像IDは、教師試着者画像40を識別するための識別情報である。すなわち、本実施の形態では、記憶部14は、教師試着者画像40ごとに、該教師試着者画像40に示される試着者の三次元データを、対応づけて記憶する。三次元データDB14Cは、制御部12によって更新される。
制御部12は、取得部12Aと、通信部12Bと、学習部12Cと、導出部12Dと、を含む。学習部12Cは、モデル学習部12Eと、拡張画像生成部12Gと、12Gと、表示制御部12Hと、受付部12Iと、変更部12Jと、を含む。
取得部12A、通信部12B、学習部12C、導出部12D、モデル学習部12E、補正部12F、拡張画像生成部12G、表示制御部12H、受付部12I、および変更部12Jの一部またはすべては、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
通信部12Bは、通信回線34を介して外部サーバ28および端末装置26と通信する。
取得部12Aは、教師試着者画像40を取得する。本実施の形態では、取得部12Aは、撮影部20から教師試着者画像40を取得する。なお、上述したように、撮影部20が、1人の試着者に対して、撮影時間、撮影角度、撮影に用いた撮影部20の種類、撮影時の試着者のポーズ、の少なくとも1つの異なる複数の教師試着者画像40を、撮影によって得る場合がある。この場合、取得部12Aは、1人の試着者に対する、これらの複数種類の教師試着者画像40を取得する。また、取得部12Aは、複数の試着者の各々に対する教師試着者画像40を取得してもよい。また、取得部12Aは、複数の試着者を含む1枚の教師試着者画像40を取得してもよい。
なお、取得部12Aは、記憶部14や外部サーバ28から、教師試着者画像40を取得してもよい。本実施の形態では、取得部12Aは、撮影部20から教師試着者画像40を取得する場合を、一例として説明する。
また、取得部12Aは、試着者の三次元データを取得する。本実施の形態では、取得部12Aは、三次元データ取得部21から、教師試着者画像40によって示される試着者の三次元データを取得する。
また、取得部12Aは、入力部22によって入力された、試着者の特徴情報を取得する。
特徴情報は、例えば、試着者の外観的特徴、および内面的特徴を示す。外観的特徴は、試着者の外観から推定または解析される特徴を示す。内面的特徴は、試着者の外観からは推定または解析されない、または推定および解析しにくい特徴を示す。
特徴情報は、具体的には、試着者の肌の色、衣服からの露出度、髪型、国籍、利き手、性格、推奨撮影方向、眼の色、髪の毛の色、好みの色、性別、年齢、推奨ポーズ、の少なくとも1つを示す。推奨撮影方向とは、試着者の好みの撮影方向を示す。衣服からの露出度とは、撮影された被写体画像における、衣服から露出した領域(すなわち、外部に露出した肌領域)の位置および割合を示す。推奨ポーズとは、撮影時の試着者の好みのポーズ(好みの姿勢や動き)を示す。
例えば、試着者は、撮影部20による教師試着者画像40の撮影時に入力部22を操作することで、試着者の特徴情報を入力する。これにより、取得部12Aは、教師試着者画像40によって示される試着者Pの、特徴情報を取得する。
また、取得部12Aは、通信部12Bおよび通信回線34を介して端末装置26から、該端末装置26で撮影された試着者画像51を取得する。また、取得部12Aは、通信部12Bおよび通信回線34を介して端末装置26から、端末装置26で表示した仮想試着画像の表示結果を示す表示結果情報を取得する。表示結果情報の詳細は後述する。
学習部12Cは、学習モデルを学習する。上述したように、学習モデルは、試着者画像50から、該試着者画像50によって示される試着者の体型パラメータおよび合成位置情報を導出するための、アプリケーションプログラムである。本実施の形態では、学習モデルは、教師試着者画像40を入力データとし、教師試着者画像40によって示される試着者の体型を示す体型パラメータおよび教師試着者画像40における衣服画像の合成位置情報を出力データとする、学習モデルである。言い換えると、学習モデルは、教師試着者画像40と、体型パラメータおよび合成位置情報と、の入出力関係をモデル化して算出可能とするためのアプリケーションプログラムである。なお、学習モデルは、関数などの数式で表してもよい。
本実施の形態では、学習部12Cは、試着者の三次元データを用いた機械学習によって、学習モデルを学習する。詳細には、学習部12Cは、学習データを用いた機械学習により、学習モデルを学習する。
図4は、学習データ14Aのデータ構成の一例を示す模式図である。
学習データ14Aには、複数の教師データ60が登録されている。また、学習データ14Aには、学習部12Cの処理によって、新たな教師データ60の登録や、登録済の教師データ60の変更や修正などの処理がなされる。このため、学習データ14Aには、複数種類の教師データ60(例えば、教師データ60A〜教師データ60E)が登録される。
教師データ60は、入力データ80と、入力データ80に対応する出力データ82と、を含む。入力データ80は、対応する出力データ82の予測や判断の要因となるデータである。出力データ82は、対応する入力データ80から導出される答えを示すデータである。
教師データ60は、教師データ60の種類によって、教師データ60や出力データ82に含まれるデータの種類が異なる。
まず、教師データ60Aについて説明する。教師データ60Aの入力データ80は、教師試着者画像40を含む。なお、1つの教師データ60Aには、1つの入力データ80、すなわち、1つの教師試着者画像40が含まれる。
また、入力データ80は、特徴情報70を含んでいてもよい。特徴情報70は、試着者の特徴を示す情報である。入力データ80に含まれる特徴情報70は、該入力データ80に含まれる教師試着者画像40に示される試着者の、特徴を示す情報である。
出力データ82は、体型パラメータ72と合成位置情報56を含む。
体型パラメータ72は、対応する入力データ80に含まれる教師試着者画像40に示される試着者の体型を示すパラメータである。
体型パラメータは、1または複数のパラメータを含む。パラメータは、人体の1または複数の箇所の採寸値である。なお、採寸値は、実際に採寸した値に限定されず、採寸値を推測した値や、採寸値に相当する値を含む。
具体的には、体型パラメータは、胸囲、胴囲、腰囲、身長、および肩幅の少なくとも1つのパラメータを含む。なお、体型パラメータに含まれるパラメータは、これらのパラメータに限定されない。例えば、体型パラメータは、そで丈、股下、などのパラメータを更に含んでもよい。
また、体型パラメータは、試着者の体型そのものを示す情報であってもよいし、試着者が体型に合うサイズの衣服を着用したと仮定したときの、該衣服のサイズを示す情報であってもよい。この場合、体型パラメータは、例えば、着丈、肩幅、身幅、そで丈などのパラメータを含んでいてもよい。本実施の形態では、体型パラメータとして、着丈、肩幅、身幅、そで丈を用いる場合を説明する。しかし、体型パラメータは、これらに限定されない。
合成位置情報56は、対応する入力データ80に含まれる教師試着者画像40における、衣服画像の合成位置を示す情報である。合成位置は、教師試着者画像40に含まれる試着者を示す領域(以下、試着者領域40Aと称する)に対する、衣服画像の合成時の位置合わせに用いる。
合成位置情報56は、例えば、試着者の特定の部位(例えば、肩部)の位置を示す情報であってもよいし、教師試着者画像40における、衣服画像の合成対象領域を示すものであってもよい。本実施の形態では、合成位置情報は、教師試着者画像40における、衣服画像の合成対象領域を示すものである場合を説明する。
図5は、合成位置情報56の一例の説明図である。例えば、合成位置情報56は、教師試着者画像40における、試着者を示す試着者領域40Aを囲む矩形状の合成対象領域を示す情報である。なお、合成位置情報56は、試着者領域40Aを囲む矩形の各頂点(56A、56B、56C、56D)の位置を示す情報であってもよい。また、合成位置情報56は、これらの4つの頂点の内の、少なくとも1つの頂点の位置を示す情報であってもよい。
なお、合成位置情報56は、矩形状の合成対象領域を示す情報に限定されない。例えば、合成位置情報56は、教師試着者画像40に含まれる試着者領域40Aの外形の少なくとも一部を示す情報であってもよい。
また、合成位置情報56は、教師試着者画像40における、試着者の特定の部位(例えば、肩部)を示す情報であってもよい。
図4に戻り説明を続ける。なお、出力データ82は、特徴情報70を更に含んでいてもよい。すなわち、入力データ80および出力データ82の少なくとも一方は、特徴情報70を更に含んでいてもよい。
出力データ82に含まれる特徴情報70は、該出力データ82に対応する入力データ80に含まれる教師試着者画像40によって示される試着者の、特徴情報である。
教師データ60〜教師データ60Eについては後述する。これらの複数種類の教師データ60(教師データ60A〜教師データ60E)は、学習部12Cの処理によって適宜登録および更新される(詳細後述)。
図3に戻り、説明を続ける。学習部12Cは、モデル学習部12Eと、補正部12Fと、拡張画像生成部12Gと、表示制御部12Hと、受付部12Iと、変更部12Jと、を備える。
モデル学習部12Eは、学習データ14Aの生成および更新と、学習モデルの生成と、を行う。
まず、モデル学習部12Eによる学習データ14Aの生成について説明する。モデル学習部12Eは、教師試着者画像40、該教師試着者画像40によって示される試着者の三次元データ、および該試着者の特徴情報70を、取得部12Aから取得する。そして、モデル学習部12Eは、教師試着者画像40および特徴情報70を含む入力データ80に対する出力データ82を、取得した三次元データを用いて、導出する。
例えば、モデル学習部12Eは、三次元データから、三次元データによって示される体型パラメータを導出するための関数またはモデルを予め作成する。三次元データから体型パラメータを導出するための関数またはモデルの作成には、公知の方法を用いればよい。
そして、モデル学習部12Eは、取得部12Aで取得した三次元データを、該関数または該モデルに導入することで、体型パラメータ72を導出する。
また、例えば、モデル学習部12Eは、教師試着者画像40における、試着者を示す試着者領域40Aを囲む矩形状の領域を、合成位置情報56として導出する(図4も参照)。また、モデル学習部12Eは、取得部12Aで取得した、該試着者の特徴情報70を得る。
そして、モデル学習部12Eは、導出した、体型パラメータ72、合成位置情報56、および特徴情報70を、出力データ82として生成する。
さらに、モデル学習部12Eは、取得部12Aから取得した、教師試着者画像40および特徴情報70を含む入力データ80と、該入力データ80および三次元データを用いて生成した出力データ82(体型パラメータ72、合成位置情報56、特徴情報70)と、を含む教師データ60Aを、学習データ14Aへ登録する。
モデル学習部12Eでは、取得部12Aが、教師試着者画像40、三次元データ、および特徴情報70を取得するごとに、上記の方法で、教師データ60Aを生成する。言い換えると、モデル学習部12Eは、撮影部20および三次元データ取得部21が撮影によって教師試着者画像40および三次元データを取得するごとに、教師データ60Aを生成する。そして、モデル学習部12Eは、生成した教師データ60Aを、学習データ14Aへ登録する。
このため、教師試着者画像40ごとに教師データ60Aが生成され、記憶部14の学習データ14Aに登録される。
次に、学習モデルの生成について説明する。モデル学習部12Eは、複数の教師データ60を含む学習データ14Aを用いた機械学習により、学習モデルを学習する。機械学習には、公知の方法を用いればよい。例えば、モデル学習部12Eは、畳み込みニューラルネットワーク(Convolutional Neural Network: CNN)や再帰型ニューラルネットワーク(Recurrent Neural Network: RNN)などのアルゴリズムを用いた、深層学習(ディープラーニング)により、学習モデルを学習する。
なお、学習部12Cは、学習データ14Aに登録されている教師データ60を補正または変更してもよい。この場合、モデル学習部12Eは、補正前の教師データ60(例えば、教師データ60A)と、補正後または変更後の教師データ60と、を含む学習データ14Aを用いて、学習モデルを学習すればよい。また、学習部12Cは、補正後または変更後の教師データ60を用いて、学習モデルを学習してもよい。
本実施の形態では、学習部12Cの補正部12Fが、教師データ60Aの入力データ80に含まれる特徴情報70に応じて、該入力データ80に対応する出力データ82を補正する。
例えば、補正部12Fは、特徴情報70に示される、衣服からの露出度が高いほど、補正部12Fは、該特徴情報70を含む入力データ80に対応する出力データ82における体型パラメータ72を、より小さいサイズの体型を示すように補正する。このとき、補正部12Fは、特徴情報70に示される、人体における衣服からの露出度が高い部位(例えば、背中など)ほど、より小さいサイズの体型を示すように、体型パラメータ72を補正してもよい。
また、例えば、補正部12Fは、特徴情報70に示される髪型から髪の毛の量を判別する。そして、補正部12Fは、髪の毛の量が多いほど、該特徴情報70を含む入力データ80に対応する出力データ82における体型パラメータ72を、より小さいサイズの体型を示すように補正する。このとき、補正部12Fは、特徴情報70に示される、人体における頭部について、より小さいサイズを示すように、体型パラメータ72を補正してもよい。
また、例えば、補正部12Fは、特徴情報70に示される国籍に応じて、出力データ82を補正してもよい。この場合、例えば、補正部12Fは、特徴情報70に示される国籍が、着用する衣服の量または衣服の積層数が多い国民の国籍を示す情報であるほど、該特徴情報70を含む入力データ80に対応する出力データ82における体型パラメータ72を、より小さいサイズの体型を示すように補正する。
また、例えば、補正部12Fは、特徴情報70に示される性別に応じて、出力データ82を補正してもよい。この場合、例えば、補正部12Fは、特徴情報70に示される性別が女性である場合、該特徴情報70を含む入力データ80に対応する出力データ82における体型パラメータ72を、より小さいサイズの体型を示すように補正する。また、例えば、補正部12Fは、特徴情報70に示される性別が男性である場合、該特徴情報70を含む入力データ80に対応する出力データ82における体型パラメータ72を、より大きいサイズの体型を示すように補正する。
このように、学習部12Cの補正部12Fが、撮影部20および三次元データ取得部21から得られた教師試着者画像40や三次元データを用いて作成された、教師データ60Aの出力データ82を、補正してもよい。
さらに、学習部12Cは、学習データ14Aに登録されている教師データ60に含まれる教師試着者画像40を拡張した、拡張画像を生成してもよい。
この場合、学習部12Cの拡張画像生成部12Gが、拡張画像を生成する。拡張画像は、学習データ14Aに登録されている教師試着者画像40の少なくとも一部を変更することで生成される画像である。拡張画像生成部12Gによる処理によって、1つの教師試着者画像40から、該教師試着者画像40に類似する複数の拡張画像が生成される。
拡張画像は、例えば、衣服重畳画像、マスク画像、切出画像、加工画像、および変更画像の少なくとも1つである。
衣服重畳画像は、教師試着者画像40に含まれる試着者領域40A上に、衣服画像42を重畳した画像である。例えば、拡張画像生成部12Gは、学習データ14Aに登録されている教師試着者画像40に、予め定めた衣服画像42を重畳した衣服重畳画像を生成することで、該教師試着者画像40の拡張画像を生成する。衣服重畳画像の生成には、公知の画像合成手法を用いればよい。
マスク画像は、教師試着者画像40の一部領域をマスクした画像である。例えば、拡張画像生成部12Gは、学習データ14Aに登録されている教師試着者画像40における一部の領域を、黒色または白色などの予め定めた色に変更したマスク画像を生成することで、該教師試着者画像40の拡張画像を生成する。マスク画像の生成には、公知の画像処理方法を用いればよい。
切出画像は、教師試着者画像40の一部領域を切出した画像である。例えば、12Gは、学習データ14Aに登録されている教師試着者画像40における一部の領域を切出した切出画像を生成することで、該教師試着者画像40の拡張画像を生成する。切出画像の生成には、公知の画像処理方法を用いればよい。
加工画像は、教師試着者画像40の少なくとも一部の領域を加工した画像である。加工には、スケッチ画像風、クレヨン画像風、油絵や日本画などの絵画風、線画・デッサン画像風、などの画風への公知の加工技術を用いればよい。加工画像の生成には、公知の画像処理方法を用いればよい。
変更画像は、教師試着者画像40の少なくとも一部の領域を、他の画像に変更した画像である。例えば、変更画像は、教師試着者画像40に含まれる試着者領域40A以外の領域である背景領域を、他の画像に変更した画像である。変更画像の生成には、公知の画像処理方法を用いればよい。
そして、拡張画像生成部12Gは、生成した拡張画像を、新たな教師データ60として、学習データ14Aに登録する。詳細には、拡張画像生成部12Gは、拡張画像の生成に用いた教師試着者画像40を含む教師データ60Aを特定する。そして、拡張画像生成部12Gは、特定した教師データ60Aに含まれる特徴情報70と、生成した拡張画像と、を新たな入力データ80として用いる。また、拡張画像生成部12Gは、特定した教師データ60Aに含まれる出力データ82を、新たな入力データ80に対応する出力データ82として用いる。さらに、拡張画像生成部12Gは、これらの新たな入力データ80および出力データ82を含む教師データ60を、学習データ14Aへ登録することで、学習データ14Aを更新する。
このため、図4に示すように、学習データ14Aには、教師試着者画像40を拡張した拡張画像52を入力データ80として含む教師データ60Cが、新たな教師データ60として、登録されることとなる。
この場合、モデル学習部12Eは、学習データ14Aに登録されている複数種類の教師データ60(教師データ60Aおよび教師データ60Cを含む)を用いて、学習モデルを学習することができる。
図3に戻り説明を続ける。また、学習部12Cは、ユーザによる入力部22の操作指示によって入力された、出力データ82の変更指示に応じて、学習データ14Aに登録されている出力データ82を変更してもよい。
この場合、学習部12Cの表示制御部12Hは、教師データ60Aに含まれる教師試着者画像40上の、該教師試着者画像40を含む入力データ80に対応する出力データ82に含まれる合成位置情報56によって示される合成位置に、該出力データ82に含まれる体型パラメータ72に応じて変形した衣服画像42を重畳した重畳画像Wを、表示部18に表示する。
体型パラメータ72に応じて変形した衣服画像42とは、予め記憶した衣服画像42を、体型パラメータ72によって示される体型のサイズを示すように、拡大・縮小・変形する処理である。この衣服画像42の変形処理には、公知の技術を用いればよい。
このため、例えば、表示部18には、図2に示す重畳画像Wが表示される。ユーザは、表示部18に表示された重畳画像Wを参照し、合成位置情報56および体型パラメータ72の少なくとも一方の変更指示を入力する。変更指示は、例えば、合成位置情報56の位置、大きさ、および範囲の少なくとも1つの変更後の情報や、体型パラメータ72の変更後の情報を含む。すると、学習部12Cの受付部12Iは、取得部12Aを介して入力部22から、変更指示を受付ける。
図3に戻り説明を続ける。学習部12Cの変更部12Jは、教師データ60Aにおける、直前に表示部18に表示した重畳画像Wに用いた教師試着者画像40を含む入力データ80に対応する、出力データ82を、受付部12Iで受付けた変更指示に示される変更後の情報に変更する。
この場合、モデル学習部12Eは、学習データ14Aに登録されている複数種類の教師データ60(教師データ60A、変更後の教師データ60A、および教師データ60Cを含む)を用いて、学習モデルを学習することができる。
なお、入力部22を操作するユーザは、出力データ82を、負例に変更するための変更指示を入力してもよい。この場合、学習部12Cの受付部12Iは、取得部12Aを介して入力部22から、負例情報を示す変更指示を受付ける。
すると、学習部12Cの変更部12Jは、学習データ14Aにおける、教師試着者画像40を含む入力データ80に対応する出力データ82を、負例を示す出力データ82に変更する(図4中、教師データ60B参照)。出力データ82が負例を示す場合、対応する入力データ80から導出される答えは、負例となる。このように、変更部12Jは、ユーザによる入力部22の操作指示に応じて、出力データ82を、負例に変更してもよい。
この場合、モデル学習部12Eは、学習データ14Aに登録されている教師データ60(教師データ60A、変更後の教師データ60A、教師データ60B、および教師データ60Cを含む)を用いて、学習モデルを学習することができる。
なお、上述したように、端末装置26は、情報処理装置10で生成された学習モデルを用いて仮想試着画像を生成し、表示する。そして、上述したように、情報処理装置10の取得部12Aは、端末装置26から、端末装置26で表示した仮想試着画像の表示結果を示す表示結果情報を取得する場合がある。
この場合、情報処理装置10の学習部12Cは、端末装置26から取得した表示結果情報を用いて、新たな教師データ60を学習データ14Aへ登録してもよい。
表示結果情報は、端末装置26による仮想試着画像の表示結果を示す情報である。本実施の形態では、表示結果情報は、第1表示結果情報または第2表示結果情報を示す。
第1表示結果情報は、正例を示す正例情報、試着者画像51、および出力データ82を含む。第1表示結果情報に含まれる正例情報は、該第1表示結果情報に含まれる出力データ82が、正例であることを示す情報である。また、第1表示結果情報に含まれる試着者画像51は、端末装置26において、該第1表示結果情報に含まれる出力データ82を用いて合成および表示された仮想試着画像に用いられた、試着者画像50である。
すなわち、第1表示結果情報は、端末装置26で仮想試着画像の表示に用いられた、試着者画像51と、出力データ82と、該出力データ82が正例であることを示す正例情報と、を含む情報である。
第2表示結果情報は、負例を示す負例情報、試着者画像51、および出力データ82を含む。第2表示結果情報に含まれる負例情報は、該第2表示結果情報に含まれる出力データ82が、負例であることを示す情報である。また、第2表示結果情報に含まれる試着者画像51は、端末装置26において、該第2表示結果情報に含まれる出力データ82を用いて合成および表示された仮想試着画像に用いられた、試着者画像50である。
すなわち、第2表示結果情報は、端末装置26で仮想試着画像の表示に用いられた、試着者画像51と、出力データ82と、該出力データ82が負例であることを示す負例情報と、を含む情報である。
学習部12Cのモデル学習部12Eは、取得部12Aで第1表示結果情報を取得した場合、該第1表示結果情報に含まれる試着者画像51を含む入力データ80と、該第1表示結果情報に含まれる出力データ82と、を対応付けた新たな教師データ60を、学習データ14Aに登録する。
このため、図4に示すように、学習データ14Aには、第1表示結果情報に含まれる試着者画像51を含む入力データ80と、該第1表示結果情報に含まれる出力データ82と、を対応付けた新たな教師データ60Dが、学習データ14Aに登録される。教師データ60Dは、教師データ60の一例である。
一方、取得部12Aで第2表示結果情報を取得した場合、学習部12Cのモデル学習部12Eは、該第2表示結果情報に含まれる試着者画像51を含む入力データ80と、負例を示す負例情報を含む出力データ82と、を対応付けた新たな教師データ60を、学習データ14Aに登録する。
このため、図4に示すように、学習データ14Aには、第2表示結果情報に含まれる試着者画像51を含む入力データ80と、負例情報を含む出力データ82と、を対応付けた新たな教師データ60Eが、学習データ14Aに登録される。教師データ60Eは、教師データ60の一例である。
この場合、モデル学習部12Eは、学習データ14Aに登録されている教師データ60(教師データ60A、変更後の教師データ60A、教師データ60B、および教師データ60C、教師データ60D、教師データ60Eを含む)を用いて、学習モデルを学習することができる。
図3に戻り、説明を続ける。次に、導出部12Dについて説明する。取得部12Aが、端末装置26から試着者画像51を取得すると、導出部12Dは、該試着者画像51と学習部12Cで生成した学習モデルと用いて、該試着者画像51によって示される試着者の出力データ82を導出する。
導出部12Dは、学習部12Cで生成された学習モデルに、端末装置26から取得した試着者画像51を入力データ80として入力することで、該試着者画像51に対応する出力データ82を導出する。
そして、導出部12Dは、通信部12Bを介して端末装置26へ、導出した出力データ82を送信する。このため、情報処理装置10は、端末装置26から受付けた仮想試着対象の試着者画像51に対する、出力データ82(体型パラメータ72、合成位置情報56、および出力データ82)を、該端末装置26へ送信することができる。
次に、端末装置26の機能について説明する。
端末装置26は、撮影部26Aと、入力部26Bと、表示部26Cと、記憶部26Dと、制御部26Eと、を備える。撮影部26A、入力部26B、表示部26C、および216Dと、制御部26Eとは、データや信号を授受可能に接続されている。記憶部26Dは、各種データを記憶する。
制御部26Eは、通信部26Fと、取得部26Gと、生成部26Hと、表示制御部26Iと、受付部26Jと、を含む。制御部26E、通信部26F、取得部26G、生成部26H、表示制御部26I、および受付部26Jの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
通信部26Fは、通信回線34を介して、情報処理装置10や外部サーバ28と通信する。
表示制御部26Iは、表示部26Cに各種画像を生成する。受付部26Jは、ユーザによる入力部26Bの操作指示によって入力された各種情報を、入力部26Bから受付ける。取得部26Gは、通信部26Fおよび通信回線34を介して、情報処理装置10から出力データ82を取得する。
生成部26Hは、試着者画像51と衣服画像42とを合成した仮想試着画像を生成する。
例えば、ユーザによる入力部26Bの操作指示によって、仮想試着対象の衣服画像42の衣服IDが入力されたと仮定する。例えば、生成部26Hは、通信部26Fを介して情報処理装置10へ、衣服DB14Bの閲覧要求を送信する。すると、生成部26Hは、取得部26Gおよび通信部26Fを介して情報処理装置10から、衣服DB14Bを受付ける。そして、表示制御部26Iは、受付けた衣服DB14Bに示される衣服画像の一覧を、表示部26Cへ表示する。
ユーザは、表示部26Cに表示された衣服画像の一覧を参照しながら、入力部26Bを操作することで、試着対象の衣服画像を選択する。すると、受付部26Jが入力部26Bから、選択された衣服画像の衣服IDを受付ける。そして、生成部26Hは、通信部26Fを介して情報処理装置10へ、受付けた衣服IDを送信する。
情報処理装置10の通信部12Bは、端末装置26から受付けた衣服IDに対応する衣服画像42を衣服DB14Bから読取、端末装置26へ送信する。この処理により、端末装置26の生成部26Hは、取得部26Gおよび通信部26Fを介して情報処理装置10から、ユーザによって選択された衣服画像42を取得する。
また、生成部26Hは、取得部26Gを介して撮影部26Aから、試着者画像51を取得する。例えば、ユーザは、入力部26Bを操作することで、撮影部26Aに対する撮影指示を入力する。すると、撮影部26Aは、撮影によって、試着者画像51を取得し、制御部26Eへ出力する。
制御部26Eの生成部26Hは、取得部26Gを介して撮影部26Aから、仮想試着対象の試着者画像51を撮影部26Aから取得する。なお、生成部26Hは、記憶部26Dから、試着者画像51を取得してもよい。
なお、撮影部26Aまたは記憶部26Dから取得した試着者画像51が、衣服装着領域を含まない画像である場合がある。
衣服装着領域とは、試着者における、仮想試着対象の衣服画像42を装着する対象の領域を示す。例えば、衣服画像42が帽子である場合、衣服装着領域は、試着者の頭部である。また、衣服画像42が上着である場合、衣服装着領域は、試着者の上半身である。
この場合、生成部26Hは、取得した試着者画像51が、衣服装着領域を含む画像となるように、該試着者画像51を補完する。なお、生成部26Hは、取得した試着者画像51が衣服装着領域を含む画像となるように、該試着者画像51に示される試着者の撮影角度を変更した画像となるように補完してもよい。そして、生成部26Hは、補完後の試着者画像51を、仮想試着に用いる試着者画像51として採用すればよい。
なお、補完には、公知の方法を用いればよい。例えば、生成部26Hは、予め、標準の人体形状の人体画像を用意する。そして、生成部26Hは、該人体画像上に、衣服装着領域を含まない画像である試着者画像51を重ねた合成画像を、補完後の試着者画像51として用いればよい。
次に、生成部26Hは、仮想試着に用いる試着者画像51を、通信部26Fを介して情報処理装置10へ送信する。すると、上述したように情報処理装置10の導出部12Dが、端末装置26から取得した試着者画像51と、学習部12Cで生成した学習モデルと用いて、該試着者画像51によって示される試着者の出力データ82を導出する。
情報処理装置10の通信部12Bは、導出部12Dで導出された出力データ82を、端末装置26へ送信する。
このため、端末装置26の生成部26Hは、通信部26Fを介して情報処理装置10から、出力データ82を取得する。言い換えると、生成部26Hは、仮想試着対象の試着者画像51と学習モデルを用いて導出された、該試着者画像51によって示される試着者の出力データ82を取得する。
すると、生成部26Hは、仮想試着対象の試着者画像51と、情報処理装置10から取得した、該試着者画像51によって示される試着者の出力データ82と、を用いて、試着者画像51と衣服画像42とを合成した仮想試着画像を生成する。
詳細には、生成部26Hは、試着者画像51における、学習モデルを用いて導出された出力データ82に含まれる合成位置情報56によって示される合成位置に、該出力データ82に含まれる体型パラメータ72に応じて変形された衣服画像42を合成した、仮想試着画像を生成する。
生成部26Hは、情報処理装置10の学習部12Cによる重畳画像Wの生成と同様にして、仮想試着画像を生成すればよい。すなわち、生成部26Hは、端末装置26を操作するユーザによって指示された仮想試着対象の衣服画像42を、導出された出力データ82に含まれる体型パラメータ72によって示される体型のサイズを示すように、拡大・縮小・変形する。この処理には、公知の技術を用いればよい。
そして、生成部26Hは、変形した衣服画像42を、導出された出力データ82に含まれる合成位置情報56によって示される合成位置に合成することで、仮想試着画像を生成する。なお、合成位置情報56によって示される合成位置への合成には、公知の方法を用いればよい。
表示制御部26Iは、生成部26Hで生成された仮想試着画像を、表示部26Cへ表示する。
図6は、端末装置26の表示部26Cに表示された仮想試着画像54の一例を示す模式図である。図6に示すように、表示部26Cには、仮想試着画像54が表示される。
上述したように、仮想試着画像54は、生成部26Hによって生成された仮想試着画像54である。このため、表示部26Cには、学習モデルを用いて導出された出力データ82に含まれる合成位置情報56によって示される合成位置に、該出力データ82に含まれる体型パラメータ72によって示される体型に変形された衣服画像42を合成した、仮想試着画像54が表示される。すなわち、表示部26Cには、高精度に試着者の体型にあうように拡大・縮小・変形された衣服画像42が、仮想試着画像54の試着者領域50A上に重ねて表示される。
このため、仮想試着システム1では、ユーザに対して、高精度に合成された仮想試着画像54を、容易に提供することができる。詳細には、仮想試着システム1は、高精度に位置合せされ、高精度に体型の合うように補正された仮想試着画像54を、容易に提供することができる。
次に、仮想試着システム1で実行する仮想試着処理の手順を説明する。
図7は、情報処理装置10が実行する情報処理の手順の一例を示すフローチャートである。
まず、取得部12Aが、入力部22から撮影指示を受付けたか否かを判断する(ステップS100)。例えば、教師データ60Aを情報処理装置10に登録させるときに、表示部18の前に対峙したユーザが、入力部22を操作することで、撮影指示を入力する。すると、入力部22は、入力部22から撮影指示を受付ける。
ステップS100で肯定判断すると(ステップS100:Yes)、ステップS102へ進む。ステップS102では、撮影部20および三次元データ取得部21が、試着者を撮影し、試着者の教師試着者画像40および試着者の三次元データを得る。すると、取得部12Aは、撮影部20から教師試着者画像40を取得する(ステップS104)。また、取得部12Aは、三次元データ取得部21から三次元データを取得する(ステップS106)。
次に、取得部12Aは、入力部22から特徴情報70を取得する(ステップS108)。例えば、表示部18の前に対峙した試着者は、入力部22を操作することで、特徴情報70を入力する。すると、入力部22は、ステップS104で取得した教師試着者画像40によって示される試着者の特徴情報70を取得する。
次に、学習部12Cのモデル学習部12Eが、ステップS104〜ステップS108で取得した、教師試着者画像40と、三次元データと、特徴情報70と、を用いて、教師データ60A用の出力データ82を生成する(ステップS110)。
詳細には、モデル学習部12Eは、ステップS106で取得した三次元データを、予め生成した関数またはモデルに導入することで、体型パラメータ72を導出する。また、例えば、モデル学習部12Eは、ステップS104で取得した教師試着者画像40における、試着者を示す試着者領域40Aを囲む矩形状の領域を、合成位置情報56として導出する(図4も参照)。
そして、モデル学習部12Eは、導出した体型パラメータ72、合成位置情報56、およびステップS108で取得した特徴情報70を、出力データ82として生成する。
次に、モデル学習部12Eは、ステップS104およびステップS108で取得した教師試着者画像40および特徴情報70を含む入力データ80と、該入力データ80および三次元データを用いて生成した出力データ82(体型パラメータ72、合成位置情報56、特徴情報70)と、を含む教師データ60Aを、学習データ14Aへ登録する(ステップS112)。
次に、表示制御部12Hは、ステップS112で登録した教師データ60Aを用いて、重畳画像Wを生成する(ステップS114)。ステップS114では、表示制御部12Hは、該教師データ60Aに含まれる教師試着者画像40上の、該教師データ60Aに含まれる出力データ82に含まれる合成位置情報56によって示される合成位置に、該出力データ82に含まれる体型パラメータ72に応じて変形した衣服画像42を重畳した重畳画像Wを生成する。そして、表示制御部12Hは、ステップS114で生成した重畳画像Wを、表示部18に表示する(ステップS116)。
ステップS114およびステップS116の処理によって、教師データ60の生成時の試着者の動きや姿勢に合わせて合成した重畳画像Wを、提供することができる。
次に、変更部12Jは、取得部12Aを介して入力部22から、変更指示を受付けたか否かを判断する(ステップS118)。ステップS118で否定判断すると(ステップS118:No)、本ルーチンを終了する。一方、ステップS118で肯定判断すると(ステップS118:Yes)、ステップS120へ進む。
ステップS120では、変更部12Jが、ステップS112で登録した教師データ60Aに含まれる出力データ82を、ステップS118で受付けた変更指示に示される変更後の情報に変更する(ステップS120)。ステップS120の処理によって、該教師データ60Aに含まれる出力データ82の少なくとも一部の情報が、ユーザによって指示された変更内容に変更される。そして、本ルーチンを終了する。
一方、上記ステップS100で否定判断すると(ステップS100:No)、ステップS122へ進む。ステップS122では、モデル学習部12Eが、学習モデルを生成するか否かを判断する(ステップS122)。例えば、モデル学習部12Eは、学習データ14Aが更新された場合に、学習モデルを生成すると判断する。学習データ14Aが更新される、学習データ14Aに登録されている教師データ60の少なくとも一部が変更された場合や、学習データ14Aに新たな教師データ60が登録された場合を示す。
ステップS122で肯定判断すると、ステップS124へ進む。ステップS124では、モデル学習部12Eは、記憶部14に記憶されている学習データ14Aを読取る(ステップS124)。
次に、モデル学習部12Eは、ステップS124で読取った学習データ14Aを用いた機械学習により、学習モデルを学習する(ステップS126)。そして、モデル学習部12Eは、ステップS126で学習した学習モデルを、記憶部14へ記憶する(ステップS128)。なお、記憶部14に学習モデルが既に記憶されている場合がある。この場合、モデル学習部12Eは、既に記憶されている学習モデルを記憶部14から削除し、学習した最新の学習モデルを記憶部14へ記憶すればよい。そして、本ルーチンを終了する。
一方、上記ステップS122で否定判断すると(ステップS122:No)、ステップS130へ進む。
ステップS130では、通信部12Bが、端末装置26から衣服IDを取得したか否かを判断する(ステップS130)。ステップS130で否定判断すると(ステップS130:No)、後述するステップS136へ進む。ステップS130で肯定判断すると(ステップS130:Yes)、ステップS132へ進む。ステップS132では、通信部12Bは、ステップS130で取得した衣服IDに対応する衣服画像42を、衣服DB14Bから読取る(ステップS132)。そして、通信部12Bは、ステップS132で読取った衣服画像42を、衣服IDの取得元の端末装置26へ送信する(ステップS134)。
次に、導出部12Dが、通信部12Bを介して端末装置26から、試着者画像51を取得したか否かを判断する(ステップS136)。ステップS136で肯定判断すると(ステップS136:Yes)、ステップS138へ進む。
ステップS138では、ステップS136で取得した試着者画像51を、記憶部14に記憶されている学習モデルへ導入することで、出力データ82を導出する(ステップS138)。
次に、導出部12Dは、通信部12Bを介して、ステップS136で取得した試着者画像51の送信元の端末装置26へ、ステップS138で導出した出力データ82を送信する(ステップS140)。そして、本ルーチンを終了する。
上記ステップS136で否定判断すると(ステップS136:No)、ステップS142へ進む。ステップS142では、モデル学習部12Eが、取得部12Aを介して端末装置26から、第1表示結果情報を取得したか否かを判断する(ステップS142)。ステップS142で否定判断すると(ステップS142:No)、後述するステップS146へ進む。ステップS142で肯定判断すると(ステップS142:Yes)、ステップS144へ進む。
ステップS144では、モデル学習部12Eが、ステップS142で取得した第1表示結果情報に含まれる試着者画像51を含む入力データ80と、該第1表示結果情報に含まれる出力データ82と、教師データ60Dを、学習データ14Aに登録する(ステップS144)。
次に、モデル学習部12Eが、取得部12Aを介して端末装置26から、第2表示結果情報を取得したか否かを判断する(ステップS146)。ステップS146で否定判断すると(ステップS146:No)、本ルーチンを終了する。ステップS146で肯定判断すると(ステップS146:Yes)、ステップS148へ進む。ステップS148では、モデル学習部12Eは、ステップS146で取得した第2表示結果情報に含まれる試着者画像51を含む入力データ80と、負例を示す負例情報を含む出力データ82と、を対応付けた新たな教師データ60Eを、学習データ14Aに登録する(ステップS148)。そして、本ルーチンを終了する。
次に、端末装置26が実行する情報処理の手順の一例を説明する。図8は、端末装置26が実行する情報処理の手順の一例を示す、フローチャートである。
まず、受付部26Jが、入力部26Bから、仮想試着対象の衣服画像42の衣服IDを受付ける(ステップS200)。すると、生成部26Hは、ステップS200で受付けた衣服IDを、通信部26Fを介して情報処理装置10へ送信する(ステップ202)。そして、生成部26Hは、情報処理装置10から、ステップS200で送信した衣服IDに対応する衣服画像42を取得する(ステップS204)。
次に、受付部26Jは、入力部26Bから撮影指示を受付けたと判断するまで(ステップS206:Yes)、否定判断を繰返す(ステップS206:No)。撮影指示を受付けたと判断すると(ステップS206:Yes)、ステップS208へ進む。
ステップS208では、撮影部26Aが、試着者を撮影し、試着者画像51を得る(ステップS208)。すると、取得部26Gが、撮影部26Aから試着者画像51を取得する(ステップS210)。
次に、生成部26Hが、ステップS210で取得した試着者画像51が、ステップS204で取得した衣服画像42による衣服装着領域を含むか否かを判断する(ステップS212)。
衣服装着領域を含まないと判断した場合(ステップS212:No)、ステップS214へ進む。ステップS214では、生成部26Hが、ステップS210で取得した試着者画像51がステップS204で取得した衣服画像42による衣服装着領域を含む画像となるように、該試着者画像51を補完する(ステップS214)。この場合、生成部26Hは、補完後の試着者画像51を、仮想試着に用いる試着者画像51として採用する。
次に、生成部26Hは、ステップS210で取得した試着者画像51またはステップS214で補完した試着者画像51を、通信部26Fを介して情報処理装置10へ送信する(ステップS216)。すると、上述したように情報処理装置10の導出部12Dが、端末装置26から取得した試着者画像51と、学習部12Cで生成した学習モデルと用いて、該試着者画像51によって示される試着者の出力データ82を導出し、端末装置26へ送信する。
このため、端末装置26の生成部26Hは、通信部26Fを介して情報処理装置10から、出力データ82を取得する(ステップS218)。言い換えると、生成部26Hは、仮想試着対象の試着者画像51と学習モデルを用いて導出された、該試着者画像51によって示される試着者の出力データ82を取得する。
すると、生成部26Hは、ステップS216で情報処理装置10へ送信した仮想試着対象の試着者画像51と、情報処理装置10から取得した、該試着者画像51によって示される試着者の出力データ82と、を用いて、試着者画像51と衣服画像42とを合成した仮想試着画像54を生成する(ステップS220)。
次に、表示制御部26Iは、ステップS220で生成された仮想試着画像54を、表示部26Cへ表示する(ステップS222)。このため、端末装置26の表示部26Cには、高精度な仮想試着画像54が表示される。
次に、受付部26Jは、入力部26Bからエラー情報を受付けたか否かを判断する(ステップS224)。
端末装置26を操作するユーザが、表示部26Cに表示された仮想試着画像54に対して、違和感を覚える場合がある。例えば、仮想試着画像54における、試着者画像51と衣服画像42との位置関係や、表示されている衣服画像42のサイズなどが、ユーザの想像していたものとは異なる場合がある。このような場合、ユーザは、入力部26Bを操作することで、該仮想試着画像54の生成に用いた出力データ82を負例とするためのエラー情報を入力する。すると、受付部26Jは、入力部22からエラー情報を受付ける(ステップS224:Yes)。
ステップS224で肯定判断すると(ステップS224:Yes)、ステップS226へ進む。ステップS226では、受付部26Jは、負例を示す負例情報、ステップS210で取得した試着者画像51、およびステップS218で取得した出力データ82を含む。第2表示結果情報を、通信部26Fを介して情報処理装置10へ送信する(ステップS226)。そして、ステップS228へ進む。なお、ステップS224で否定判断した場合(ステップS224:No)、ステップS228へ進む。
ステップS228では、受付部26Jが、入力部22から補正指示を受付けたか否かを判断する(ステップS228)。
例えば、端末装置26を操作するユーザが、表示部26Cに表示された仮想試着画像54に対して、衣服画像42の合成位置の補正や、衣服画像42の大きさなどの補正を行う事を所望する場合がある。このような場合、ユーザは、入力部22を操作することで、体型パラメータ72および合成位置情報56の少なくとも一方の補正指示を入力する。なお、端末装置26を操作するユーザが、表示部26Cに表示された仮想試着画像54に対して、補正などの変更を所望しない場合もある。このような場合、ユーザは、入力部22を操作することで、補正無を示す指示を入力する。
すると、ステップS228において、受付部26Jが、入力部22から補正指示を受付けたか否かを判断する。受付部26Jが入力部22から補正指示を受付けると(ステップS228:Yes)、ステップS230へ進む。
ステップS230では、受付部26Jは、正例を示す正例情報と、試着者画像51と、ステップS228で受付けた補正指示に示される補正内容に補正した出力データ82と、を含む第1表示結果情報を、通信部26Fを介して情報処理装置10へ送信する(ステップS230)。なお、この試着者画像51は、ステップS222で表示部26Cに表示した仮想試着画像54に用いた試着者画像51である。そして、本ルーチンを終了する。
一方、受付部26Jは、入力部26Bから補正無を示す指示を受付けると(ステップS228:No)、ステップS232へ進む。ステップS232では、受付部26Jは、正例を示す正例情報と、試着者画像51と、ステップS218で取得した出力データ82と、を含む第1表示結果情報を、通信部26Fを介して情報処理装置10へ送信する(ステップS232)。なお、この試着者画像51は、ステップS222で表示部26Cに表示した仮想試着画像54に用いた試着者画像51である。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の仮想試着システム1は、学習部12Cと、取得部12Aと、導出部12Dと、生成部26Hと、を備える。学習部12Cは、教師試着者画像40を入力データ80とし、教師試着者画像40によって示される試着者の体型を示す体型パラメータ72および教師試着者画像40における衣服画像42の合成位置情報56を出力データ82とする学習モデルを、試着者の三次元データを用いた機械学習によって学習する。取得部26Gは、試着者画像51を取得する。導出部12Dは、試着者画像51と学習モデルを用いて、試着者画像51によって示される試着者の出力データ82を導出する。生成部26Hは、導出された出力データ82を用いて、試着者画像51と衣服画像42を合成した仮想試着画像54を生成する。
このように、本実施の形態の仮想試着システム1では、試着者の三次元データを用いた機械学習によって学習された学習モデルを用いて、試着者画像51によって示される試着者の出力データ82(体型パラメータ72および合成位置情報56)を導出する。そして、導出された出力データ82を用いて、試着者画像51と衣服画像42とを合成した仮想試着画像54を生成する。
このため、本実施の形態の仮想試着システム1では、仮想試着画像54の表示時に、試着者の三次元形状に関する情報取得する必要がなく、学習モデルを用いて導出された体型パラメータ72および合成位置情報56を用いて、試着者画像51と衣服画像42を合成した仮想試着画像54を生成することができる。
従って、本実施の形態の仮想試着システム1では、高精度に合成された仮想試着画像54を、容易に提供することができる。
<変形例>
なお、上記実施の形態では、情報処理装置10が、学習部12Cおよび導出部12Dを備え、端末装置26が、生成部26Hを備えた構成である場合を一例として説明した。しかし、情報処理装置10が、更に、取得部26G、生成部26H、受付部26J、および表示制御部26Iの少なくとも1つを更に備えた構成であってもよい。また、端末装置26が、取得部12A、学習部12C、および導出部12Dの少なくとも1つを更に備えた構成であってもよい。
この場合、1台の情報処理装置10または1台の端末装置26で、学習データ14Aの生成、学習モデルの学習、試着者画像51によって示される試着者の出力データ82の導出、仮想試着画像54の生成および表示を、実行することができる。
次に、本実施の形態の情報処理装置10、端末装置26、および外部サーバ28のハードウェア構成について説明する。図9は、本実施の形態の情報処理装置10、端末装置26、および外部サーバ28のハードウェア構成例を示すブロック図である。
本実施の形態の情報処理装置10、端末装置26、および外部サーバ28は、表示部91、通信I/F部93、入力部94、CPU86、ROM(Read Only Memory)88、RAM(Random Access Memory)90、およびHDD92等がバス96により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU86は、本実施の形態の情報処理装置10、端末装置26、および外部サーバ28の各々の処理を制御する演算装置である。RAM90は、CPU86による各種処理に必要なデータを記憶する。ROM88は、CPU86による各種処理を実現するプログラム等を記憶する。HDD92は、上述した記憶部14および記憶部26Dに格納されるデータを記憶する。通信I/F部93は、外部装置や外部端末に通信回線等を介して接続し、接続した外部装置や外部端末との間でデータを送受信するためのインターフェースである。表示部91は、上述した表示部18および表示部26Cの各々に相当する。入力部94は、ユーザからの操作指示を受け付ける。94は、上述した入力部22および入力部26Bに相当する。
本実施の形態の情報処理装置10、端末装置26、および外部サーバ28で実行される上記各種処理を実行するためのプログラムは、ROM88等に予め組み込んで提供される。
なお、本実施の形態の情報処理装置10、端末装置26、および外部サーバ28で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
また、本実施の形態の情報処理装置10、端末装置26、および外部サーバ28で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置10、端末装置26、および外部サーバ28における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施の形態の情報処理装置10、端末装置26、および外部サーバ28で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。
なお、上記HDD92に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置とCPU86と、を、ネットワーク等を介して接続した構成とすればよい。
なお、上記には、本発明の実施の形態を説明したが、上記実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 仮想試着システム
10 情報処理装置
12A 取得部
12C 学習部
12D 導出部
12E モデル学習部
12F 補正部
12G 拡張画像生成部
12H 表示制御部
12I 受付部
12J 変更部
14A 学習データ
26 端末装置
26H 生成部

Claims (16)

  1. 教師試着者画像を入力データとし、前記教師試着者画像によって示される試着者の体型を示す体型パラメータおよび前記教師試着者画像における衣服画像の合成位置情報を出力データとする学習モデルを、試着者の三次元データを用いた機械学習によって学習する学習部と、
    試着者画像を取得する取得部と、
    前記試着者画像と前記学習モデルを用いて、前記試着者画像によって示される試着者の前記出力データを導出する導出部と、
    導出された前記出力データを用いて、前記試着者画像と衣服画像を合成した仮想試着画像を生成する生成部と、
    を備える仮想試着システム。
  2. 前記生成部は、
    前記試着者画像における、導出された前記出力データに含まれる前記合成位置情報によって示される合成位置に、該出力データに含まれる前記体型パラメータに応じて変形された衣服画像を合成した、前記仮想試着画像を生成する、
    請求項1に記載の仮想試着システム。
  3. 前記学習部は、
    前記入力データおよび前記出力データの少なくとも一方に、試着者の特徴情報を含む前記学習モデルを学習する、
    請求項1または請求項2に記載の仮想試着システム。
  4. 前記特徴情報は、試着者の外観的特徴および内面的特徴の少なくとも一方を示す、請求項3に記載の仮想試着システム。
  5. 前記特徴情報は、前記試着者の肌の色、衣服からの露出度、髪型、国籍、利き手、性格、および推奨撮影方向、の少なくとも1つを示す、請求項3または請求項4に記載の仮想試着システム。
  6. 前記学習部は、
    前記教師試着者画像を拡張した拡張画像を生成する拡張画像生成部を有し、
    前記教師試着者画像を含む前記入力データ、および前記拡張画像を含む前記入力データを用いて、前記学習モデルを学習する、
    請求項1〜請求項5の何れか1項に記載の仮想試着システム。
  7. 前記拡張画像生成部は、
    前記教師試着者画像に含まれる試着者領域上に衣服画像を重畳した衣服重畳画像、前記教師試着者画像の一部領域をマスクしたマスク画像、前記教師試着者画像の一部領域を切出した切出画像、前記教師試着者画像の少なくとも一部の領域を加工した加工画像、の少なくとも1つを、前記拡張画像として生成する、
    請求項6に記載の仮想試着システム。
  8. 前記入力データは、
    撮影時間、撮影角度、撮影に用いた撮影部の種類、撮影時の試着者のポーズ、の少なくとも1つの異なる複数の前記教師試着者画像を含む、
    請求項1〜請求項7の何れか1項に記載の仮想試着システム。
  9. 前記学習部は、
    前記教師試着者画像を含む前記入力データと、前記教師試着者画像によって示される試着者の三次元データに基づいて導出された、前記教師試着者画像に対応する前記出力データと、を対応付けた、複数の教師データを含む学習データを用いた機械学習により、前記学習モデルを学習する、
    請求項1〜請求項8の何れか1項に記載の仮想試着システム。
  10. 前記入力データは、前記試着者の特徴情報を含み、
    前記学習部は、
    前記入力データに含まれる前記特徴情報に応じて、前記学習データにおける、前記三次元データから導出した前記出力データを補正する補正部を含む、
    請求項9に記載の仮想試着システム。
  11. 前記学習部は、
    前記教師試着者画像上の、前記学習データにおける該教師試着者画像を含む前記入力データに対応する前記出力データに含まれる前記合成位置情報によって示される合成位置に、該出力データに含まれる体型パラメータに応じて変形した衣服画像を重畳した重畳画像を、表示部に表示する表示制御部と、
    前記学習データにおける、表示された前記重畳画像に含まれる前記教師試着者画像に対応する前記出力データの変更指示を受付ける受付部と、
    前記学習データにおける、該教師試着者画像を含む前記入力データに対応する前記出力データを、前記変更指示によって示される前記出力データに変更する変更部と、
    を有する、請求項9または請求項10に記載の仮想試着システム。
  12. 前記取得部は、
    正例を示す正例情報、前記試着者画像、および前記出力データを含む第1表示結果情報、または、負例を示す負例情報および前記試着者画像を含む第2表示結果情報、を取得し、
    前記学習部は、
    前記第1表示結果情報を取得した場合、前記第1表示結果情報に含まれる前記試着者画像を含む前記入力データと、該第1表示結果情報に含まれる前記出力データと、を対応付けた新たな前記教師データを、前記学習データに登録し、
    前記第2表示結果情報を取得した場合、前記第2表示結果情報に含まれる前記試着者画像を含む前記入力データと、負例を示す前記出力データと、を新たな前記教師データとして前記学習データに登録する、
    請求項9〜請求項11の何れか1項に記載の仮想試着システム。
  13. 教師試着者画像を入力データとし、前記教師試着者画像によって示される試着者の体型を示す体型パラメータおよび前記教師試着者画像における衣服画像の合成位置情報を出力データとする学習モデルを、試着者の三次元データを用いた機械学習によって学習するステップと、
    試着者画像を取得するステップと、
    前記試着者画像と前記学習モデルを用いて、前記試着者画像によって示される試着者の前記出力データを導出するステップと、
    導出された前記出力データを用いて、前記試着者画像と衣服画像を合成した仮想試着画像を生成するステップと、
    を備える仮想試着方法。
  14. 教師試着者画像を入力データとし、前記教師試着者画像によって示される試着者の体型を示す体型パラメータおよび前記教師試着者画像における衣服画像の合成位置情報を出力データとする学習モデルを、試着者の三次元データを用いた機械学習によって学習するステップと、
    試着者画像を取得するステップと、
    前記試着者画像と前記学習モデルを用いて、前記試着者画像によって示される試着者の前記出力データを導出するステップと、
    導出された前記出力データを用いて、前記試着者画像と衣服画像を合成した仮想試着画像を生成するステップと、
    をコンピュータに実行させるためのプログラム。
  15. 教師試着者画像を入力データとし、前記教師試着者画像によって示される試着者の体型を示す体型パラメータおよび前記教師試着者画像における衣服画像の合成位置情報を出力データとする学習モデルを、試着者の三次元データを用いた機械学習によって学習する学習部と、
    試着者画像を取得する取得部と、
    前記試着者画像と前記学習モデルを用いて、前記試着者画像によって示される試着者の前記出力データを導出する導出部と、
    導出された前記出力データを用いて、前記試着者画像と衣服画像を合成した仮想試着画像を生成する生成部と、
    を備える情報処理装置。
  16. 教師試着者画像を含む入力データと、前記教師試着者画像によって示される試着者の三次元データに基づいて導出された、前記教師試着者画像に対応する出力データと、を対応付けた、複数の教師データを含む、学習データ。
JP2018029041A 2018-02-21 2018-02-21 仮想試着システム、仮想試着方法、仮想試着プログラム、および情報処理装置 Active JP6921768B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018029041A JP6921768B2 (ja) 2018-02-21 2018-02-21 仮想試着システム、仮想試着方法、仮想試着プログラム、および情報処理装置
PCT/JP2018/041860 WO2019163218A1 (ja) 2018-02-21 2018-11-12 仮想試着システム、仮想試着方法、仮想試着プログラム、情報処理装置、および学習データ
CN201880089852.9A CN111742350B (zh) 2018-02-21 2018-11-12 虚拟试穿系统、虚拟试穿方法、信息处理装置、以及存储介质
US16/995,873 US12223541B2 (en) 2018-02-21 2020-08-18 Virtual try-on system, virtual try-on method, computer program product, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018029041A JP6921768B2 (ja) 2018-02-21 2018-02-21 仮想試着システム、仮想試着方法、仮想試着プログラム、および情報処理装置

Publications (2)

Publication Number Publication Date
JP2019144890A true JP2019144890A (ja) 2019-08-29
JP6921768B2 JP6921768B2 (ja) 2021-08-18

Family

ID=67687622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018029041A Active JP6921768B2 (ja) 2018-02-21 2018-02-21 仮想試着システム、仮想試着方法、仮想試着プログラム、および情報処理装置

Country Status (4)

Country Link
US (1) US12223541B2 (ja)
JP (1) JP6921768B2 (ja)
CN (1) CN111742350B (ja)
WO (1) WO2019163218A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062777A (zh) * 2019-12-10 2020-04-24 中山大学 一种可保留示例衣服细节的虚拟试穿方法及系统
KR20210090456A (ko) * 2020-01-10 2021-07-20 (주)내스타일 멀티 포즈를 지원하는 이미지 기반 자세보존 가상피팅 시스템
WO2022009821A1 (ja) * 2020-07-07 2022-01-13 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022019538A (ja) * 2020-07-17 2022-01-27 株式会社フジクラ 検査装置、検査方法、検査プログラム、機械学習装置、機械学習方法、機械学習プログラム、及び、構造体の製造方法
KR102374141B1 (ko) * 2021-03-03 2022-03-15 (주)내스타일 유연한 가상 피팅 이미지 생성을 위한 의상영역 제거 방법
KR20220118095A (ko) * 2021-02-18 2022-08-25 엔에이치엔클라우드 주식회사 딥러닝 기반의 의류 가상 착용 방법 및 그 시스템
CN117035942A (zh) * 2023-08-28 2023-11-10 南京邮电大学 一种基于虚拟现实的产品试用方法及系统
JP2023549240A (ja) * 2021-01-28 2023-11-22 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像生成方法、画像生成装置、コンピュータ機器、及びコンピュータプログラム
WO2024043526A1 (ko) * 2022-08-25 2024-02-29 삼성전자 주식회사 디지털 아이템에 대응되는 가상 이미지를 제공하는 방법 및 증강 현실 장치
JP7705996B1 (ja) * 2024-09-26 2025-07-10 Scsk株式会社 生成システム、及び生成プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020171237A1 (ja) * 2019-02-22 2020-08-27 国立大学法人東京大学 画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および、画像処理プログラム
US11250572B2 (en) * 2019-10-21 2022-02-15 Salesforce.Com, Inc. Systems and methods of generating photorealistic garment transference in images
KR102341763B1 (ko) * 2020-02-04 2021-12-22 엔에이치엔 주식회사 딥러닝 기반의 의류 가상 착용 서비스 방법 및 그 장치
CN112242007B (zh) * 2020-10-12 2023-06-20 新疆爱华盈通信息技术有限公司 一种虚拟试穿方法
CN112528736A (zh) * 2020-11-01 2021-03-19 泰州市出彩网络科技有限公司 应用定制数据处理的操控简化系统
WO2022137307A1 (ja) * 2020-12-21 2022-06-30 株式会社データグリッド 仮想試着方法、仮想試着システムおよびプログラム
CN113012303B (zh) * 2021-03-10 2022-04-08 浙江大学 一种可保持服装纹理特征的多种类变尺度虚拟试衣方法
CN114067088A (zh) * 2021-11-16 2022-02-18 百果园技术(新加坡)有限公司 虚拟穿戴方法、装置、设备、存储介质及程序产品
US12042037B2 (en) * 2021-12-29 2024-07-23 Ann Marie Benison Virtual wig display assembly

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015015021A (ja) * 2013-06-21 2015-01-22 株式会社東芝 被写体の三次元表現を生成する方法およびシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2327061A4 (en) * 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
US8700477B2 (en) * 2009-05-26 2014-04-15 Embodee Corp. Garment fit portrayal system and method
WO2013123306A1 (en) * 2012-02-16 2013-08-22 Brown University System and method for simulating realistic clothing
CN103886117B (zh) * 2012-12-20 2016-08-24 上海工程技术大学 一种提高三维试衣软件中虚拟人体建模精度的方法
JP6002058B2 (ja) 2013-02-22 2016-10-05 株式会社東芝 画像処理装置、方法、及びプログラム
GB201406539D0 (en) * 2014-04-11 2014-05-28 Metail Ltd Garment size recommendation
JP6392114B2 (ja) 2014-12-25 2018-09-19 株式会社東芝 仮想試着システム
CN104978762B (zh) * 2015-07-13 2017-12-08 北京航空航天大学 服装三维模型生成方法及系统
CN105354876B (zh) * 2015-10-20 2018-10-09 何家颖 一种基于移动终端的实时立体试衣方法
CN105787751A (zh) * 2016-01-06 2016-07-20 湖南拓视觉信息技术有限公司 三维人体虚拟试衣方法和系统
WO2017130158A1 (en) * 2016-01-27 2017-08-03 Vats Nitin Virtually trying cloths on realistic body model of user
CN107481082A (zh) * 2017-06-26 2017-12-15 珠海格力电器股份有限公司 一种虚拟试衣方法及其装置、电子设备及虚拟试衣系统
EP3425446B1 (de) * 2017-07-06 2019-10-30 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung
US11250639B2 (en) * 2018-12-19 2022-02-15 Seddi, Inc. Learning-based animation of clothing for virtual try-on
WO2020171237A1 (ja) * 2019-02-22 2020-08-27 国立大学法人東京大学 画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および、画像処理プログラム
KR20210030747A (ko) * 2019-09-10 2021-03-18 김윤성 가상 피팅 이미지 생성을 위한 이미지 합성 방법 및 시스템
GB201914924D0 (en) * 2019-10-15 2019-11-27 Anthropics Tech Limited Methods of image manipulation for clothing visualisation
WO2021122768A1 (en) * 2019-12-17 2021-06-24 Essilor International Apparatus, method, and computer-readable storage medium for contextualized equipment recommendation
KR102341763B1 (ko) * 2020-02-04 2021-12-22 엔에이치엔 주식회사 딥러닝 기반의 의류 가상 착용 서비스 방법 및 그 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015015021A (ja) * 2013-06-21 2015-01-22 株式会社東芝 被写体の三次元表現を生成する方法およびシステム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
大山芽依 ほか: "着衣人物の単一深度画像からの体型推定", 電子情報通信学会技術研究報告, vol. 第117巻, 第392号, JPN6019002406, 11 January 2018 (2018-01-11), JP, pages 189 - 194, ISSN: 0004513287 *
山田裕貴 ほか: "体型を考慮した衣服画像の変形による画像ベース仮想試着システム", 情報処理学会研究報告 グラフィクスとCAD(CG), JPN6019002409, 13 February 2014 (2014-02-13), JP, pages 1 - 8, ISSN: 0004513290 *
繁木結衣 ほか: "単眼着衣画像からの非着衣人体三次元モデル推定", 情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM), JPN6019002407, 1 November 2017 (2017-11-01), JP, pages 1 - 8, ISSN: 0004513288 *
関根真弘 ほか: "仮想試着システムにおける体型推定を用いた衣服画像合成技術", 東芝レビュー, vol. 第70巻, 第5号, JPN6019002408, 1 May 2015 (2015-05-01), pages 42 - 45, ISSN: 0004513289 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062777A (zh) * 2019-12-10 2020-04-24 中山大学 一种可保留示例衣服细节的虚拟试穿方法及系统
KR20210090456A (ko) * 2020-01-10 2021-07-20 (주)내스타일 멀티 포즈를 지원하는 이미지 기반 자세보존 가상피팅 시스템
KR102326902B1 (ko) * 2020-01-10 2021-11-17 (주)내스타일 멀티 포즈를 지원하는 이미지 기반 자세보존 가상피팅 시스템
CN115997103A (zh) * 2020-07-07 2023-04-21 索尼半导体解决方案公司 信息处理设备、信息处理方法及程序
JP7775196B2 (ja) 2020-07-07 2025-11-25 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2022009821A1 (ja) * 2020-07-07 2022-01-13
WO2022009821A1 (ja) * 2020-07-07 2022-01-13 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
US20230298194A1 (en) * 2020-07-07 2023-09-21 Sony Semiconductor Solutions Corporation Information processing device, information processing method, and program
JP2022019538A (ja) * 2020-07-17 2022-01-27 株式会社フジクラ 検査装置、検査方法、検査プログラム、機械学習装置、機械学習方法、機械学習プログラム、及び、構造体の製造方法
JP7681423B2 (ja) 2020-07-17 2025-05-22 株式会社フジクラ 検査装置、検査方法、検査プログラム、機械学習装置、機械学習方法、機械学習プログラム、及び、構造体の製造方法
JP2023549240A (ja) * 2021-01-28 2023-11-22 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像生成方法、画像生成装置、コンピュータ機器、及びコンピュータプログラム
JP7475772B2 (ja) 2021-01-28 2024-04-30 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像生成方法、画像生成装置、コンピュータ機器、及びコンピュータプログラム
KR20220118095A (ko) * 2021-02-18 2022-08-25 엔에이치엔클라우드 주식회사 딥러닝 기반의 의류 가상 착용 방법 및 그 시스템
KR102528960B1 (ko) 2021-02-18 2023-05-03 엔에이치엔클라우드 주식회사 딥러닝 기반의 의류 가상 착용 방법 및 그 시스템
KR102374141B1 (ko) * 2021-03-03 2022-03-15 (주)내스타일 유연한 가상 피팅 이미지 생성을 위한 의상영역 제거 방법
WO2024043526A1 (ko) * 2022-08-25 2024-02-29 삼성전자 주식회사 디지털 아이템에 대응되는 가상 이미지를 제공하는 방법 및 증강 현실 장치
CN117035942A (zh) * 2023-08-28 2023-11-10 南京邮电大学 一种基于虚拟现实的产品试用方法及系统
JP7705996B1 (ja) * 2024-09-26 2025-07-10 Scsk株式会社 生成システム、及び生成プログラム

Also Published As

Publication number Publication date
US12223541B2 (en) 2025-02-11
WO2019163218A1 (ja) 2019-08-29
CN111742350B (zh) 2024-12-13
CN111742350A (zh) 2020-10-02
JP6921768B2 (ja) 2021-08-18
US20200380594A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP6921768B2 (ja) 仮想試着システム、仮想試着方法、仮想試着プログラム、および情報処理装置
JP7604687B2 (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
JP6490430B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6972043B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7278724B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US11450075B2 (en) Virtually trying cloths on realistic body model of user
CN106210504A (zh) 图像处理装置、图像处理系统及图像处理方法
JP2022036963A (ja) サイズ測定システム
US10152827B2 (en) Three-dimensional modeling method and electronic apparatus thereof
US20160071321A1 (en) Image processing device, image processing system and storage medium
CN114119855B (zh) 一种虚拟换装方法、装置、电子设备及存储介质
KR102688664B1 (ko) 화상미팅 프로그램 기반의 가상 피팅 방법 및 그 시스템
CN107680166A (zh) 一种智能定制服装的方法和装置
KR20220066564A (ko) 가상 피팅 서비스를 제공하는 방법 및 이를 위한 시스템
CN107609946B (zh) 一种显示控制方法及计算设备
KR102468306B1 (ko) 신체 치수 측정 방법 및 장치
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
JP6826862B2 (ja) 画像処理システム、およびプログラム。
JP7715095B2 (ja) 情報処理方法及び情報処理装置
CN120526010B (zh) 一种数字人生成方法及相关装置
JP7713733B2 (ja) 衣服の試着シミュレーションシステム及びプログラム
CN114125271B (zh) 图像处理方法、装置及电子设备
KR101277553B1 (ko) 아바타를 이용한 온라인 쇼핑몰에서의 착장 이미지 제공 방법 및 시스템
JP2025105087A (ja) 画像生成プログラム、画像生成システム、及び画像生成方法
CN117351148A (zh) 人体数据的智能测量及三维重建方法、装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R150 Certificate of patent or registration of utility model

Ref document number: 6921768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150