[go: up one dir, main page]

JP2026019738A - system - Google Patents

system

Info

Publication number
JP2026019738A
JP2026019738A JP2024121486A JP2024121486A JP2026019738A JP 2026019738 A JP2026019738 A JP 2026019738A JP 2024121486 A JP2024121486 A JP 2024121486A JP 2024121486 A JP2024121486 A JP 2024121486A JP 2026019738 A JP2026019738 A JP 2026019738A
Authority
JP
Japan
Prior art keywords
user
server
data
try
clothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024121486A
Other languages
Japanese (ja)
Inventor
小野高志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Group Corp
Original Assignee
SoftBank Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Group Corp filed Critical SoftBank Group Corp
Priority to JP2024121486A priority Critical patent/JP2026019738A/en
Publication of JP2026019738A publication Critical patent/JP2026019738A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】システムを提供する。
【解決手段】ユーザの体型情報を入力する手段と、
ユーザの全身写真を複数角度から撮影し、アップロードする手段と、
販売されている衣服のデータを収集する手段と、
生成されたユーザの3Dモデルに対して衣服を合成する手段と、
ユーザの端末に試着イメージを提示する手段と、
を含むシステム。
【選択図】図1

A system is provided.
A means for inputting user's body type information;
A means for taking and uploading full-body photographs of the user from multiple angles;
a means of collecting data on the clothing being sold;
means for synthesizing clothing onto the generated 3D model of the user;
means for displaying try-on images on a user's device;
A system including:
[Selected Figure] Figure 1

Description

本開示の技術は、システムに関する。 The technology disclosed herein relates to a system.

特許文献1には、少なくとも一つのプロセッサにより遂行される、ペルソナチャットボット制御方法であって、ユーザ発話を受信するステップと、前記ユーザ発話を、チャットボットのキャラクターに関する説明と関連した指示文を含むプロンプトに追加するステップと前記プロンプトをエンコードするステップと、前記エンコードしたプロンプトを言語モデルに入力して、前記ユーザ発話に応答するチャットボット発話を生成するステップ、を含む、方法が開示されている。 Patent document 1 discloses a persona chatbot control method executed by at least one processor, the method including the steps of receiving a user utterance, adding the user utterance to a prompt including an instruction sentence related to a description of the chatbot's character, encoding the prompt, and inputting the encoded prompt into a language model to generate a chatbot utterance in response to the user utterance.

特開2022-180282号公報Japanese Patent Application Laid-Open No. 2022-180282

現在、多くの社会人は忙しくて店舗に行く時間が取れず、ネットショッピングで衣服を購入することが増えている。しかし、実際に購入してみるとサイズやイメージが異なることがあり、不安や不満を抱えている。また、試着ができないために、コーディネートの全体としてどう見えるかを確認することができない。これにより、購入後に返品を余儀なくされる場合が多く、ユーザや販売者の双方にとって時間とコストの無駄が発生している。本発明は、これらの課題を解決することを目的としている。 Today, many working people are too busy to find time to go to stores, and are increasingly purchasing clothing online. However, when they actually purchase something, the size or image may differ from what they expected, leaving them feeling anxious and dissatisfied. Furthermore, since they cannot try on the clothes, they are unable to see how the overall outfit will look. This often forces them to return the item after purchase, resulting in wasted time and money for both the user and the seller. The present invention aims to solve these problems.

本発明は、ユーザが自身の体型情報を入力し、複数角度から撮影した全身写真をアップロードする手段を提供する。また、ネットストアで販売されている衣服のデータを収集する手段を設け、これにより、ユーザの体型情報および撮影した写真データを基にユーザの3Dモデルを生成する。その3Dモデルに対して衣服を合成する手段を備えることで、ユーザが自身の端末上で精度の高い試着イメージを確認できるようにする。さらに、ユーザがコーディネートの提案を販売員にリクエストし、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段を提供することで、ユーザが自分に合ったトータルなコーディネートをオンラインで楽しむことができる。 The present invention provides a means for users to input their own body type information and upload full-body photos taken from multiple angles. It also provides a means for collecting data on clothing sold in online stores, which generates a 3D model of the user based on the user's body type information and photographic data. By providing a means for overlaying clothing onto the 3D model, users can accurately view images of how the clothing will look when tried on on their own device. Furthermore, by providing a means for users to request coordination suggestions from a salesperson, generate images of the suggested coordination to try on, and display them on the user's device, users can enjoy creating a total outfit that suits them online.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなど、ユーザの具体的な身体の寸法を指すものである。 "User's body type information" refers to the user's specific body measurements, such as the user's height, weight, and three sizes.

「全身写真」とは、ユーザが複数の角度から撮影した前面、背面、側面の写真データを指すものである。 "Full-body photos" refer to photo data of the front, back, and side taken by the user from multiple angles.

「衣服のデータ」とは、ネットストアで販売されている衣服についての画像、サイズ、素材、カラーなどの詳細情報を指すものである。 "Clothing data" refers to detailed information about clothing sold in online stores, such as images, sizes, materials, and colors.

「3Dモデル」とは、ユーザの体型情報および全身写真データを基にして生成された、高解像度の三次元的表現である。 A "3D model" is a high-resolution three-dimensional representation generated based on the user's body shape information and full-body photograph data.

「試着イメージ」とは、ユーザの3Dモデルに対して選択された衣服を合成して生成される、仮想的な着用画像を指すものである。 "Try-on image" refers to a virtual image of the garment being worn, generated by combining the selected garment with the user's 3D model.

「コーディネート提案」とは、販売員がユーザの体型情報や好みに基づいて提案する、複数の衣服やアクセサリーの組み合わせを指すものである。 "Coordination suggestions" refer to combinations of multiple items of clothing and accessories that a salesperson suggests based on the user's body type and preferences.

「販売員」とは、ユーザに対してコーディネート提案を行うオンラインのファッションアドバイザーを指すものである。 "Salesperson" refers to an online fashion advisor who provides coordination suggestions to users.

第1実施形態に係るデータ処理システムの構成の一例を示す概念図である。1 is a conceptual diagram showing an example of the configuration of a data processing system according to a first embodiment. 第1実施形態に係るデータ処理装置及びスマートデバイスの要部機能の一例を示す概念図である。1 is a conceptual diagram showing an example of main functions of a data processing device and a smart device according to a first embodiment. 第2実施形態に係るデータ処理システムの構成の一例を示す概念図である。FIG. 10 is a conceptual diagram illustrating an example of the configuration of a data processing system according to a second embodiment. 第2実施形態に係るデータ処理装置及びスマート眼鏡の要部機能の一例を示す概念図である。FIG. 10 is a conceptual diagram showing an example of main functions of a data processing device and smart glasses according to a second embodiment. 第3実施形態に係るデータ処理システムの構成の一例を示す概念図である。FIG. 10 is a conceptual diagram illustrating an example of the configuration of a data processing system according to a third embodiment. 第3実施形態に係るデータ処理装置及びヘッドセット型端末の要部機能の一例を示す概念図である。FIG. 11 is a conceptual diagram showing an example of main functions of a data processing device and a headset-type terminal according to a third embodiment. 第4実施形態に係るデータ処理システムの構成の一例を示す概念図である。FIG. 10 is a conceptual diagram illustrating an example of the configuration of a data processing system according to a fourth embodiment. 第4実施形態に係るデータ処理装置及びロボットの要部機能の一例を示す概念図である。FIG. 10 is a conceptual diagram showing an example of main functions of a data processing device and a robot according to a fourth embodiment. 複数の感情がマッピングされる感情マップを示す。1 shows an emotion map onto which multiple emotions are mapped. 複数の感情がマッピングされる感情マップを示す。1 shows an emotion map onto which multiple emotions are mapped. 実施例1におけるデータ処理システムの処理の流れを示すシーケンス図である。FIG. 2 is a sequence diagram illustrating a processing flow of the data processing system according to the first embodiment. 応用例1におけるデータ処理システムの処理の流れを示すシーケンス図である。FIG. 10 is a sequence diagram showing the flow of processing in the data processing system in application example 1. 感情エンジンを組み合わせた場合の実施例2におけるデータ処理システムの処理の流れを示すシーケンス図である。FIG. 10 is a sequence diagram showing the flow of processing of the data processing system in the second embodiment when an emotion engine is combined. 感情エンジンを組み合わせた場合の応用例2におけるデータ処理システムの処理の流れを示すシーケンス図である。FIG. 10 is a sequence diagram showing the flow of processing in the data processing system in Application Example 2 when an emotion engine is combined.

以下、添付図面に従って本開示の技術に係るシステムの実施形態の一例について説明する。 Below, an example of an embodiment of a system relating to the technology disclosed herein will be described with reference to the accompanying drawings.

先ず、以下の説明で使用される文言について説明する。 First, let me explain the terminology used in the following explanation.

以下の実施形態において、符号付きのプロセッサ(以下、単に「プロセッサ」と称する)は、1つの演算装置であってもよいし、複数の演算装置の組み合わせであってもよい。また、プロセッサは、1種類の演算装置であってもよいし、複数種類の演算装置の組み合わせであってもよい。演算装置の一例としては、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-Purpose computing on Graphics Processing Units)、APU(Accelerated Processing Unit)等が挙げられる。 In the following embodiments, a coded processor (hereinafter simply referred to as a "processor") may be a single arithmetic unit or a combination of multiple arithmetic units. Furthermore, a processor may be a single type of arithmetic unit or a combination of multiple types of arithmetic units. Examples of arithmetic units include a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a GPGPU (General-Purpose Computing on Graphics Processing Units), an APU (Accelerated Processing Unit), etc.

以下の実施形態において、符号付きのRAM(Random Access Memory)は、一時的に情報が格納されるメモリであり、プロセッサによってワークメモリとして用いられる。 In the following embodiments, coded random access memory (RAM) is memory in which information is temporarily stored and is used by the processor as work memory.

以下の実施形態において、符号付きのストレージは、各種プログラム及び各種パラメータ等を記憶する1つ又は複数の不揮発性の記憶装置である。不揮発性の記憶装置の一例としては、フラッシュメモリ(SSD(Solid State Drive))、磁気ディスク(例えば、ハードディスク)、又は磁気テープ等が挙げられる。 In the following embodiments, the coded storage refers to one or more non-volatile storage devices that store various programs, parameters, etc. Examples of non-volatile storage devices include flash memory (SSD (Solid State Drive)), magnetic disks (e.g., hard disks), and magnetic tapes.

以下の実施形態において、符号付きの通信I/F(Interface)は、通信プロセッサ及びアンテナ等を含むインタフェースである。通信I/Fは、複数のコンピュータ間での通信を司る。通信I/Fに対して適用される通信規格の一例としては、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、又はBluetooth(登録商標)等を含む無線通信規格が挙げられる。 In the following embodiments, a communication I/F (Interface) with a symbol is an interface that includes a communication processor, an antenna, etc. The communication I/F controls communication between multiple computers. Examples of communication standards that can be applied to the communication I/F include wireless communication standards such as 5G (5th Generation Mobile Communication System), Wi-Fi (registered trademark), or Bluetooth (registered trademark).

以下の実施形態において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。 In the following embodiments, "A and/or B" is synonymous with "at least one of A and B." In other words, "A and/or B" means that it may be just A, just B, or a combination of A and B. Furthermore, in this specification, the same concept as "A and/or B" also applies when three or more things are expressed connected by "and/or."

[第1実施形態] [First embodiment]

図1には、第1実施形態に係るデータ処理システム10の構成の一例が示されている。 Figure 1 shows an example of the configuration of a data processing system 10 according to the first embodiment.

図1に示すように、データ処理システム10は、データ処理装置12及びスマートデバイス14を備えている。データ処理装置12の一例としては、サーバが挙げられる。 As shown in FIG. 1, the data processing system 10 includes a data processing device 12 and a smart device 14. An example of the data processing device 12 is a server.

データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。 The data processing device 12 includes a computer 22, a database 24, and a communication I/F 26. The computer 22 is an example of a "computer" according to the technology of the present disclosure. The computer 22 includes a processor 28, RAM 30, and storage 32. The processor 28, RAM 30, and storage 32 are connected to a bus 34. The database 24 and communication I/F 26 are also connected to the bus 34. The communication I/F 26 is connected to a network 54. Examples of the network 54 include a WAN (Wide Area Network) and/or a LAN (Local Area Network).

スマートデバイス14は、コンピュータ36、受付装置38、出力装置40、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、受付装置38、出力装置40、及びカメラ42も、バス52に接続されている。 The smart device 14 includes a computer 36, a reception device 38, an output device 40, a camera 42, and a communication I/F 44. The computer 36 includes a processor 46, RAM 48, and storage 50. The processor 46, RAM 48, and storage 50 are connected to a bus 52. The reception device 38, output device 40, and camera 42 are also connected to the bus 52.

受付装置38は、タッチパネル38A及びマイクロフォン38B等を備えており、ユーザ入力を受け付ける。タッチパネル38Aは、指示体(例えば、ペン又は指等)の接触を検出することにより、指示体の接触によるユーザ入力を受け付ける。マイクロフォン38Bは、ユーザの音声を検出することにより、音声によるユーザ入力を受け付ける。制御部46Aは、タッチパネル38A及びマイクロフォン38Bによって受け付けたユーザ入力を示すデータをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が、ユーザ入力を示すデータを取得する。 The reception device 38 is equipped with a touch panel 38A, a microphone 38B, etc., and receives user input. The touch panel 38A detects contact with an indicator (e.g., a pen or finger) to receive user input via the indicator. The microphone 38B detects the user's voice to receive user input via voice. The control unit 46A transmits data indicating the user input received by the touch panel 38A and the microphone 38B to the data processing device 12. In the data processing device 12, the specific processing unit 290 acquires the data indicating the user input.

出力装置40は、ディスプレイ40A及びスピーカ40B等を備えており、データをユーザ20が知覚可能な表現形(例えば、音声及び/又はテキスト)で出力することでデータをユーザ20に対して提示する。ディスプレイ40Aは、プロセッサ46からの指示に従ってテキスト及び画像等の可視情報を表示する。スピーカ40Bは、プロセッサ46からの指示に従って音声を出力する。カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラである。 The output device 40 is equipped with a display 40A and a speaker 40B, and presents data to the user 20 by outputting the data in a form perceptible by the user 20 (e.g., audio and/or text). The display 40A displays visible information such as text and images in accordance with instructions from the processor 46. The speaker 40B outputs audio in accordance with instructions from the processor 46. The camera 42 is a compact digital camera equipped with an optical system including a lens, aperture, and shutter, and an imaging element such as a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.

通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。 The communication I/F 44 is connected to the network 54. The communication I/Fs 44 and 26 are responsible for the exchange of various information between the processor 46 and the processor 28 via the network 54.

図2には、データ処理装置12及びスマートデバイス14の要部機能の一例が示されている。 Figure 2 shows an example of the main functions of the data processing device 12 and smart device 14.

図2に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って特定処理部290として動作することによって実現される。 As shown in FIG. 2, in the data processing device 12, specific processing is performed by the processor 28. A specific processing program 56 is stored in the storage 32. The specific processing program 56 is an example of a "program" according to the technology of the present disclosure. The processor 28 reads the specific processing program 56 from the storage 32 and executes the read specific processing program 56 on the RAM 30. The specific processing is realized by the processor 28 operating as a specific processing unit 290 in accordance with the specific processing program 56 executed on the RAM 30.

ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。 Storage 32 stores a data generation model 58 and an emotion identification model 59. The data generation model 58 and the emotion identification model 59 are used by the identification processing unit 290.

スマートデバイス14では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。受付出力プログラム60は、データ処理システム10によって特定処理プログラム56と併用される。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。 In the smart device 14, the processor 46 performs the reception output processing. The storage 50 stores a reception output program 60. The reception output program 60 is used in conjunction with the specific processing program 56 by the data processing system 10. The processor 46 reads the reception output program 60 from the storage 50 and executes the read reception output program 60 on the RAM 48. The reception output processing is realized by the processor 46 operating as the control unit 46A in accordance with the reception output program 60 executed on the RAM 48.

次に、データ処理装置12の特定処理部290による特定処理について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。 Next, we will explain the specific processing performed by the specific processing unit 290 of the data processing device 12. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart device 14 will be referred to as the "terminal."

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードすることから始まる。続いて、システムは収集した衣服のデータを基に生成AIモデルを活用し、ユーザの3Dモデルに衣服を合成し、仮想的な試着イメージを提示する。さらに、ユーザは販売員からのコーディネート提案を受け、より楽しみながら衣服を選び購入することができる。 This invention is a virtual try-on system that uses the user's body type information and full-body photos taken from multiple angles to generate a fitting image tailored to the user. The system begins by the user entering body type information and uploading a full-body photo using their own device. The system then utilizes a generative AI model based on the collected clothing data to synthesize the clothing onto the user's 3D model and present a virtual fitting image. In addition, users can receive coordination suggestions from sales staff, making the process of selecting and purchasing clothing even more enjoyable.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as their height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

端末は、ユーザが入力した体型情報と撮影した全身写真をサーバに送信する。 The device sends the body type information entered by the user and the full-body photo taken to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server collects data about clothing sold online (images, sizes, materials, colors, etc.) using APIs or web scraping technology from partner online stores and stores it in a database.

3. 3Dモデルの生成および合成 3. 3D model generation and synthesis

サーバは、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する。 The server analyzes the user's body shape information and uploaded full-body photos to generate a high-resolution 3D model of the user.

サーバは、生成AIモデルを活用して3Dモデルに対してユーザが選択した衣服を合成する。この際、衣服のフィット感やテクスチャをリアルに再現するためのディープラーニング技術を使用する。 The server uses a generative AI model to synthesize the user's selected clothing onto the 3D model, using deep learning techniques to realistically recreate the clothing's fit and texture.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 Users can review the displayed try-on images and, if necessary, request images from different angles or images of other garments.

5. コーディネート提案および購入手続き 5. Coordination suggestions and purchasing procedures

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。 The server generates images of the suggested outfits to try on and displays them on the user's device.

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

本発明により、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、提案されたコーディネートを確認しながら、オンラインでスムーズに購入手続きを行うことが可能である。 This invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying it on. Furthermore, they can smoothly complete the online purchase process while checking suggested outfits.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。この解析には、画像認識アルゴリズムを使用する。 The server analyzes the received body shape information and full-body photo data to generate a high-resolution 3D model of the user. This analysis is performed using image recognition algorithms.

ステップ4: Step 4:

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いて、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses APIs or web scraping technology from partner online stores to collect data on the clothing being sold (images, sizes, materials, colors, etc.) and stores it in a database.

ステップ5: Step 5:

サーバは、生成されたユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを使用して衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using a generative AI model to realistically recreate the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度の試着イメージや他の衣服の試着イメージをリクエストする。 The user reviews the displayed try-on images. If necessary, they can request try-on images from different angles or images of other garments.

ステップ9: Step 9:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ10: Step 10:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ11: Step 11:

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

ステップ12: Step 12:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。 The server generates images of the suggested outfits to try on and sends them to the user's device.

ステップ13: Step 13:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ14: Step 14:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ15: Step 15:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ16: Step 16:

サーバは、購入情報を記録し、ネットストアの決済システムに連携する。 The server records purchase information and connects it to the online store's payment system.

ステップ17: Step 17:

サーバは、ユーザに注文確認と配送情報を通知する。 The server notifies the user of the order confirmation and delivery information.

ステップ18: Step 18:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例1) (Example 1)

次に、実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。 Next, we will explain Example 1. In the following explanation, the data processing device 12 will be referred to as a "server" and the smart device 14 will be referred to as a "terminal."

従来のオンラインショッピングにおいては、ユーザが実際に試着しないと衣服のフィット感やデザインが自身にどのように見えるかを正確に把握できないという問題があった。また、ユーザの好みに合わせたコーディネート提案や、試着イメージの確認が不十分であり、ユーザの購買意欲を阻害する要因となっていた。これにより、オンラインショッピングに対するユーザの満足度が低下することが課題であった。 Traditional online shopping has the problem that users cannot accurately understand how clothes will fit or how the design will look on them unless they actually try them on. Furthermore, coordination suggestions tailored to the user's preferences and the ability to check how the clothes will look when tried on are insufficient, which discourages users from making a purchase. This has led to a decline in user satisfaction with online shopping.

実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、オンラインで販売されている衣服のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣服を合成する手段と、生成された試着イメージをユーザの端末に送信する手段と、ユーザの端末に試着イメージを表示する手段と、を含む。これにより、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることが可能となる。また、コーディネート提案を販売員にリクエストし、提案された試着イメージを確認することができるため、ユーザの購買意欲を向上させることができる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing sold online, means for combining clothing with the generated high-resolution 3D model of the user, means for sending the generated try-on images to the user's device, and means for displaying the try-on images on the user's device. This allows users to easily select clothing that fits their body type and experience the virtual try-on experience as if they were actually trying on the clothes. In addition, users can request coordination suggestions from a salesperson and check the suggested try-on images, which increases the user's desire to purchase.

「ユーザ」とは、システムを利用して体型情報を入力し、全身写真を撮影およびアップロードする個人を指す。 "User" refers to an individual who uses the system to enter body type information and take and upload full-body photos.

「体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体に関する詳細なデータを指す。 "Body type information" refers to detailed data about the user's body, such as their height, weight, and measurements.

「全身写真」とは、ユーザの身体を前面、背面、側面の複数角度から撮影した画像を指す。 "Full-body photos" refer to images of the user's body taken from multiple angles, including the front, back, and side.

「オンラインで販売されている衣服のデータ」とは、インターネット上の販売サイトやストアから収集される衣服の画像、サイズ、素材、カラーなどの情報を指す。 "Data on clothing sold online" refers to information such as clothing images, sizes, materials, and colors collected from online sales sites and stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基に生成された、ユーザの身体を詳細に再現した三次元のコンピュータグラフィックスモデルを指す。 "High-resolution 3D model" refers to a three-dimensional computer graphics model that reproduces the user's body in detail, generated based on the user's body shape information and a full-body photograph.

「生成AIモデル」とは、ディープラーニング技術を用いて、ユーザの3Dモデルに衣服をリアルに合成するためにトレーニングされた人工知能モデルを指す。 "Generative AI model" refers to an artificial intelligence model trained using deep learning technology to realistically synthesize clothing onto a user's 3D model.

「試着イメージ」とは、生成AIモデルを用いてユーザの3Dモデルに選択された衣服を合成した画像を指す。 "Try-on image" refers to an image created by combining the selected clothing onto the user's 3D model using a generative AI model.

「ユーザの端末」とは、スマートフォン、タブレット、パソコンなどユーザが使用する電子機器を指す。 "User's device" refers to the electronic device used by the user, such as a smartphone, tablet, or PC.

「コーディネート提案」とは、ユーザの体型情報や好みに基づいて、販売員が推奨する複数の衣服の組み合わせを指す。 "Coordination suggestions" refer to combinations of multiple items of clothing recommended by a salesperson based on the user's body type information and preferences.

「販売員」とは、システムを通じてユーザに対してコーディネート提案を行う業務を担当する者を指す。 "Salesperson" refers to a person in charge of making outfit suggestions to users through the system.

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、以下のような手順でプログラムが実行される。 This invention is a virtual try-on system that uses the user's body type information and full-body photographs taken from multiple angles to generate a fitting image tailored to the user. In this system, the program is executed in the following steps:

まず、ユーザは、スマートフォンやPC上で専用のアプリケーションを起動し、自身の体型情報を入力する。体型情報には身長、体重、スリーサイズが含まれる。その後、ユーザは前面、背面、および側面の全身写真を撮影し、アプリケーションにアップロードする。このアップロードされたデータは、端末を介してサーバに送信される。 First, the user launches a dedicated application on their smartphone or PC and enters their body information, including height, weight, and measurements. The user then takes full-body photos of the front, back, and side and uploads them to the application. This uploaded data is then sent to the server via the device.

端末は、入力およびアップロードされたデータをHTTPSプロトコルを利用して安全にサーバに送信する。サーバは、これらのデータを受け取り、高精度にユーザの体型を解析するために、画像解析技術であるOpenCVを使用する。解析されたデータを基に、高解像度の3Dモデルを生成するためにディープラーニングフレームワークのTensorFlowやPyTorchを用いる。 The device securely transmits input and uploaded data to the server using the HTTPS protocol. The server receives this data and uses the image analysis technology OpenCV to analyze the user's body shape with high accuracy. The deep learning frameworks TensorFlow and PyTorch are used to generate a high-resolution 3D model based on the analyzed data.

サーバは、ユーザのために3Dモデルを生成した後、提携ネットストアのAPIまたはウェブスクレイピング技術を使用して、オンラインで販売されている衣服のデータを収集する。このデータには、衣服の画像、サイズ、素材、カラーなどが含まれる。これらのデータはデータベースに保存され、ユーザの3Dモデルに対して衣服を合成する際に使用される。 After generating a 3D model for the user, the server uses APIs or web scraping technology from partner online stores to collect data about clothing sold online. This data includes clothing images, sizes, materials, colors, etc. This data is stored in a database and used to synthesize clothing onto the user's 3D model.

サーバは、生成された3Dモデルに対して、ユーザが選択した衣服を生成AIモデルを用いて合成する。生成AIモデルは、ディープラーニング技術によってトレーニングされており、衣服のフィット感やテクスチャをリアルに再現する。この際、TensorFlowやPyTorchを利用したディープラーニングアルゴリズムを適用する。 The server then uses a generative AI model to synthesize the clothing selected by the user onto the generated 3D model. The generative AI model is trained using deep learning technology to realistically reproduce the fit and texture of the clothing. Deep learning algorithms using TensorFlow and PyTorch are used in this process.

生成された試着イメージは、複数の角度から撮影され、JPEGまたはPNG形式の画像ファイルとしてユーザの端末に送信される。端末は、受信した試着イメージをアプリケーションのユーザインタフェースに表示する。ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 The generated try-on images are photographed from multiple angles and sent to the user's device as JPEG or PNG image files. The device displays the received try-on images on the application's user interface. The user can review the displayed try-on images and request images from different angles or try-on images of other garments as needed.

さらに、ユーザはコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。サーバは、コーディネート提案を担当する販売員にリクエストを送信し、販売員はユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。このフィードバックを基にサーバは新たな試着イメージを生成し、ユーザの端末に提示する。ユーザは最終的に、提案されたコーディネートを確認し、購入を決定する場合は「購入」ボタンをクリックする。この購入情報は、端末を介してサーバに送信され、ネットストアの決済システムと連携して購入手続きが行われる。 Furthermore, if the user wishes to receive outfit suggestions, they click the "Request outfit suggestions" button. The server sends a request to the salesperson in charge of outfit suggestions, who then suggests an appropriate outfit based on the user's body type and preferences and sends feedback to the server. Based on this feedback, the server generates a new try-on image and displays it on the user's device. Finally, the user checks the suggested outfit and clicks the "Purchase" button if they decide to purchase. This purchase information is sent to the server via the device, and the purchase process is carried out in conjunction with the online store's payment system.

具体例 Specific examples

例えば、ユーザが「青色のジーンズ」と「白いTシャツ」の試着を希望する場合、 For example, if a user wants to try on "blue jeans" and a "white T-shirt,"

1. ユーザは、身長170cm、体重65kg、スリーサイズ90-75-90と入力し、前面、背面、および側面の全身写真をアップロードする。 1. The user enters their height as 170cm, weight as 65kg, and measurements as 90-75-90, and uploads full-body photos of the front, back, and side.

2. 端末は、これらの情報をサーバに送信する。 2. The device sends this information to the server.

3. サーバは、「青色のジーンズ」と「白いTシャツ」のデータをウェブスクレイピング技術を用いて収集し、データベースに保存する。 3. The server uses web scraping technology to collect data on "blue jeans" and "white T-shirts" and stores it in a database.

4. サーバは、画像解析技術を用いてユーザの高解像度3Dモデルを生成し、生成AIモデルを使って3Dモデルに対してジーンズとTシャツを合成する。 4. The server uses image analysis technology to generate a high-resolution 3D model of the user, and then uses a generative AI model to synthesize jeans and a T-shirt onto the 3D model.

5. サーバは、複数の角度からの試着イメージを生成し、ユーザの端末に送信する。 5. The server generates try-on images from multiple angles and sends them to the user's device.

6. ユーザは、新しく生成された試着イメージを確認し、さらに「このコーディネートで購入」と決定することができる。 6. The user can check the newly generated try-on image and then decide to "purchase this outfit."

プロンプト文の例 Example prompt

「ユーザの身長、体重、スリーサイズのデータを入力し、前面、背面、側面から撮影した全身写真をアップロードしてください。」 "Enter your height, weight, and measurements, and upload full-body photos taken from the front, back, and side."

このシステムにより、ユーザは自分の体型にフィットする衣服を簡単に見つけ、バーチャル試着を通じて実際に試着するかのような体験を得ることができる。また、コーディネート提案をリクエストし、提案された試着イメージを確認することで、オンラインでの衣服購入がよりスムーズかつ満足のいくものになる。 This system allows users to easily find clothes that fit their body type and experience the same sensation of trying them on in real life through virtual try-on. They can also request outfit suggestions and check the suggested try-on images, making online clothing shopping a smoother and more satisfying experience.

実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 will be explained using Figure 11.

ステップ1: Step 1:

ユーザがアプリケーションを起動する。 The user launches the application.

具体的動作:ユーザはスマートフォンやPC上で専用アプリケーションをタップまたはクリックして起動し、最初の画面に遷移する。 Specific operation: The user taps or clicks on the dedicated application on their smartphone or PC to launch it and proceeds to the first screen.

入力:なし Input: None

出力:アプリケーションが起動し、ユーザが体型情報を入力できる画面が表示される。 Output: The application launches and displays a screen where the user can enter body information.

ステップ2: Step 2:

ユーザが体型情報を入力する。 The user enters body type information.

具体的動作:ユーザは、身長、体重、スリーサイズなどの体型情報をアプリケーションのフォームに入力する。また、前面、背面、側面から撮影した全身写真を用意する。 Specific operation: The user enters body information such as height, weight, and measurements into the application form. They also provide full-body photos taken from the front, back, and side.

入力:身長、体重、スリーサイズなどの体型情報 Input: Body information such as height, weight, and measurements

出力:入力された体型情報と全身写真の表示 Output: Display of entered body shape information and full-body photo

ステップ3: Step 3:

ユーザが全身写真をアップロードする。 Users upload full-body photos.

具体的動作:ユーザは前面、背面、側面の全身写真をアプリケーション内のアップロード機能を用いてアップロードする。 Specific operation: The user uploads full-body photos of the front, back, and side using the upload function within the application.

入力:前面、背面、側面の全身写真 Input: Full-body photos (front, back, and side)

出力:全身写真のアップロード完了メッセージ Output: Full-body photo upload complete message

ステップ4: Step 4:

端末が入力データをサーバに送信する。 The device sends the input data to the server.

具体的動作:端末がユーザの体型情報および全身写真をHTTPSプロトコルでサーバに送信する。 Specific operation: The device sends the user's body shape information and full-body photo to the server via the HTTPS protocol.

入力:ユーザの体型情報および全身写真 Input: User's body type information and full-body photo

出力:データがサーバに送信され、処理待ち状態になる。 Output: The data is sent to the server and awaits processing.

ステップ5: Step 5:

サーバが体型情報と全身写真を解析する。 The server analyzes body shape information and full-body photos.

具体的動作:サーバは、OpenCVを用いて画像解析を行い、ユーザの体型情報を基に3Dモデルの作成に必要な特徴を抽出する。 Specific operation: The server performs image analysis using OpenCV and extracts the features necessary to create a 3D model based on the user's body shape information.

入力:体型情報および全身写真 Input: Body information and full-body photo

出力:特徴抽出済みのデータ Output: Feature-extracted data

ステップ6: Step 6:

サーバが高解像度3Dモデルを生成する。 The server generates a high-resolution 3D model.

具体的動作:サーバがTensorFlowやPyTorchを利用してディープラーニングを行い、ユーザの体型に基づく高解像度の3Dモデルを生成する。 Specific operation: The server uses TensorFlow and PyTorch for deep learning to generate a high-resolution 3D model based on the user's body shape.

入力:特徴抽出済みのデータ Input: Feature-extracted data

出力:高解像度3Dモデル Output: High-resolution 3D model

ステップ7: Step 7:

サーバがオンラインで販売されている衣服のデータを収集する。 The server collects data on clothing sold online.

具体的動作:サーバは提携ネットストアのAPIを呼び出し、またはウェブスクレイピングを使用して最新の衣服データ(画像、サイズ、素材、カラーなど)を収集する。 Specific operation: The server calls the API of partner online stores or uses web scraping to collect the latest clothing data (images, sizes, materials, colors, etc.).

入力:提携ネットストアのAPIエンドポイントまたはスクレイピングターゲットのURL Input: API endpoint of affiliated online store or URL of scraping target

出力:衣服データベースに保存された最新の衣服データ Output: Latest clothing data stored in the clothing database

ステップ8: Step 8:

サーバが生成AIモデルを用いて衣服を3Dモデルに合成する。 The server uses a generative AI model to synthesize the clothing onto the 3D model.

具体的動作:サーバは生成AIモデルを使用し、収集された衣服データを基にユーザの3Dモデルに衣服を合成する。 Specific operation: The server uses a generative AI model to synthesize clothing onto the user's 3D model based on the collected clothing data.

入力:3Dモデルおよび衣服データ Input: 3D model and clothing data

出力:複数の角度から見た試着イメージ Output: Try-on images from multiple angles

ステップ9: Step 9:

サーバが生成された試着イメージを端末に送信する。 The server sends the generated try-on image to the device.

具体的動作:サーバは試着イメージをJPEGまたはPNG形式で生成し、ユーザの端末に送信する。CDN経由での高速なデータ転送を行うこともある。 Specific operation: The server generates try-on images in JPEG or PNG format and sends them to the user's device. High-speed data transfer may also be performed via a CDN.

入力:試着イメージ Input: Try-on image

出力:端末に送信された試着イメージ Output: Try-on image sent to the device

ステップ10: Step 10:

端末が試着イメージをユーザインタフェースに表示する。 The device displays the try-on image on the user interface.

具体的動作:端末は受信した試着イメージをアプリケーションのユーザインタフェースに表示し、ユーザが操作できるようにする。 Specific operation: The device displays the received try-on images on the application's user interface, allowing the user to operate them.

入力:試着イメージ Input: Try-on image

出力:ユーザインタフェースに表示された試着イメージ Output: Try-on image displayed on the user interface

ステップ11: Step 11:

ユーザが試着イメージを確認し、必要に応じてリクエストを送信する。 Users can check the fitting images and submit requests if necessary.

具体的動作:ユーザは試着イメージを確認し、異なる角度からのイメージや他の衣服の試着イメージをリクエストする場合、アプリケーション内の対応するボタンをクリックする。 Specific operation: The user reviews the try-on images and, if they wish to request images from different angles or images of other garments being tried on, clicks the corresponding button in the application.

入力:ユーザのリクエスト Input: User request

出力:リクエスト内容がサーバに送信される Output: The request is sent to the server.

ステップ12: Step 12:

ユーザがコーディネート提案をリクエストする。 The user requests outfit suggestions.

具体的動作:ユーザがコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 Specific operation: If the user would like outfit suggestions, they click the "Request outfit suggestions" button.

入力:ユーザのコーディネート提案リクエスト Input: User's outfit suggestion request

出力:リクエストがサーバに送信される。 Output: The request is sent to the server.

ステップ13: Step 13:

サーバが販売員にリクエストを送信する。 The server sends the request to the salesperson.

具体的動作:サーバはコーディネート提案リクエストを販売員に送信し、必要なユーザ情報も併せて提供する。 Specific operation: The server sends a coordination suggestion request to the salesperson, along with the necessary user information.

入力:ユーザのリクエスト Input: User request

出力:リクエストが販売員に送信される Output: The request is sent to the salesperson.

ステップ14: Step 14:

販売員が提案をフィードバックする。 Salespeople will provide feedback on suggestions.

具体的動作:販売員はユーザの体型情報や好みに基づいて適切なコーディネートを考え、サーバにフィードバックを送信する。 Specific operation: The salesperson considers the appropriate outfit based on the user's body type and preferences, and sends feedback to the server.

入力:ユーザの体型情報および好み Input: User's body type and preferences

出力:コーディネート提案のフィードバック Output: Feedback on outfit suggestions

ステップ15: Step 15:

サーバがコーディネート試着イメージを生成する。 The server generates images of outfits to try on.

具体的動作:サーバは販売員からのフィードバックを基に新たな試着イメージを生成し、ユーザの端末に送信する。 Specific operation: The server generates new try-on images based on feedback from the salesperson and sends them to the user's device.

入力:コーディネート提案のフィードバック Input: Feedback on outfit suggestions

出力:端末に送信されたコーディネート試着イメージ Output: Try-on image of outfit sent to device

ステップ16: Step 16:

ユーザが提案を確認し、購入を決定する。 The user reviews the offer and decides to purchase.

具体的動作:ユーザは新しく生成されたコーディネート試着イメージを確認し、気に入った場合は「購入」ボタンをクリックする。 Specific operation: The user checks the newly generated outfit try-on image and, if they like it, clicks the "Purchase" button.

入力:コーディネート試着イメージ Input: Coordination try-on image

出力:購入リクエストがサーバに送信される Output: Purchase request sent to server

ステップ17: Step 17:

端末が購入情報をサーバに送信し、ネットストアと連携する。 The device sends purchase information to the server and connects with the online store.

具体的動作:端末は購入情報をサーバに送信し、サーバはネットストアの決済システムと連携して購入手続きを行う。 Specific operation: The terminal sends purchase information to the server, and the server works with the online store's payment system to complete the purchase process.

入力:購入情報 Enter: Purchase information

出力:購入手続きが完了し、ユーザに確認通知が送信される Output: The purchase is completed and a confirmation is sent to the user.

(応用例1) (Application Example 1)

次に、応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。 Next, we will explain Application Example 1. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart device 14 will be referred to as the "terminal."

従来の実店舗での試着には、時間と手間がかかるという問題があった。また、実際に試着できる衣服の種類も限られており、多くの選択肢を試すことが困難であった。さらに、オンラインショッピングにおいては、実際の商品がどのように見えるかを確認することができないため、購入後の返品や交換が多発するという課題があった。これらの問題を解決するためには、ユーザが簡単に衣服を試着し、自身の体型に合った最適な衣服を選択できるシステムが必要である。 Traditionally, trying on clothes in physical stores was time-consuming and labor-intensive. Additionally, the types of clothing that could be tried on were limited, making it difficult to try out many options. Furthermore, with online shopping, customers were unable to see how the actual product would look, leading to frequent returns and exchanges after purchase. To solve these problems, a system was needed that allowed users to easily try on clothes and select the best fit for their body type.

応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Application Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、購入可能な物品のデータを収集する手段と、生成されたユーザの3Dモデルに対して物品を合成する手段と、ユーザの端末にバーチャル試着イメージを提示する手段と、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードする手段と、提携オンラインストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている物品のデータを収集し、保存する手段と、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する手段と、複数の角度から試着イメージを生成し、ユーザの端末に送信する手段と、を含む。これにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことが可能となり、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能となる。 In this invention, the server includes means for inputting a user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on available items, means for overlaying items onto the generated 3D model of the user, means for presenting virtual try-on images to the user's device, means for the user to input body type information and upload a full-body photo using their own device, means for collecting and saving data on items sold online using the API or web scraping technology of affiliated online stores, means for analyzing the user's body type information and uploaded full-body photos and generating a high-resolution 3D model of the user, and means for generating try-on images from multiple angles and sending them to the user's device. This allows users to smoothly try on clothes virtually in a physical store, shortening the time it takes to actually try them on and combining the convenience of online shopping with the experience of a physical store.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体的な寸法および特徴を指す。 "User's body type information" refers to the user's physical measurements and characteristics, such as height, weight, and three sizes.

「全身写真」とは、ユーザの体全体が写った写真であり、前面、背面および側面から撮影された複数の写真を含む。 A "full-body photo" is a photo that shows the user's entire body, and includes multiple photos taken from the front, back, and side.

「購入可能な物品のデータ」とは、提携オンラインストアや店舗で販売されている衣服やアクセサリーなどの商品の情報であり、画像、サイズ、素材、カラーなどの属性を含む。 "Purchasable Item Data" refers to information about products such as clothing and accessories sold at affiliated online stores and in-store, including attributes such as images, size, material, and color.

「3Dモデル」とは、ユーザの体型情報および全身写真を基に生成される高解像度の三次元デジタルモデルを指す。 "3D model" refers to a high-resolution three-dimensional digital model generated based on the user's body shape information and full-body photograph.

「物品を合成する手段」とは、生成されたユーザの3Dモデルに対して、選択された衣服やアクセサリーを仮想的に適用し、リアルな試着イメージを生成するプロセスを指す。 "Means for synthesizing items" refers to the process of virtually applying selected clothing and accessories to the generated 3D model of the user to generate a realistic try-on image.

「バーチャル試着イメージ」とは、ユーザの3Dモデルに選択された衣服やアクセサリーを合成した画像であり、複数の角度から表示される試着のシミュレーション画像を指す。 "Virtual try-on image" refers to an image that combines selected clothing and accessories with a 3D model of the user, simulating trying on the clothing and accessories from multiple angles.

「提携オンラインストアのAPI」とは、提携しているオンラインストアから販売されている商品のデータを自動的に取得するためのアプリケーションプログラミングインターフェースを指す。 "Affiliated Online Store API" refers to an application programming interface for automatically obtaining data on products sold by affiliated online stores.

「ウェブスクレイピング技術」とは、ウェブサイトから自動的にデータを抽出する技術を指す。 "Web scraping technology" refers to technology that automatically extracts data from websites.

「高解像度3Dモデルを生成する手段」とは、ユーザの体型情報および全身写真を解析し、高精度な三次元デジタルモデルを作成するプロセスを指す。 "Means for generating a high-resolution 3D model" refers to the process of analyzing a user's body shape information and full-body photograph to create a highly accurate three-dimensional digital model.

「コーディネートの提案をリクエストする手段」とは、ユーザが自身の好みに基づいたコーディネートの提案を販売員に依頼するための機能を指す。 "Means to request outfit suggestions" refers to the function that allows a user to request outfit suggestions from a salesperson based on the user's preferences.

「バーチャル試着を行う」とは、ユーザが実際に物品を試着する代わりにデジタルモデル上で試すことを可能にする行為を指す。 "Virtual try-on" refers to the act of allowing a user to try on an item on a digital model instead of actually trying it on.

本発明は、実店舗での試着体験を向上させるために、ユーザの体型情報および全身写真を使用してバーチャル試着を実現するシステムである。このシステムは、ユーザの端末(スマートフォン)と、一連のサーバ、および提携オンラインストアのAPIまたはウェブスクレイピング技術を用いて構築される。 This invention is a system that uses a user's body type information and full-body photograph to enable virtual try-on, improving the fitting experience in physical stores. The system is built using the user's device (smartphone), a series of servers, and APIs or web scraping technologies from affiliated online stores.

プログラムの生成 Program generation

システムは、以下のハードウェアおよびソフトウェアを用いる: The system uses the following hardware and software:

ユーザ端末(スマートフォン):AndroidやiOSデバイス、カメラ機能を持つ User device (smartphone): Android or iOS device with camera functionality

サーバ:データ処理および生成AIモデルを実行(TensorFlowやPyTorchを使用) Server: Data processing and generative AI model execution (using TensorFlow or PyTorch)

提携オンラインストアのAPIまたはウェブスクレイピング技術(Beautiful Soup、Scrapyなど) Partner online store API or web scraping technology (Beautiful Soup, Scrapy, etc.)

データベース:MySQLまたはPostgreSQL Database: MySQL or PostgreSQL

プログラムの処理概要 Program processing overview

サーバは、まずユーザが端末から送信した体型情報と全身写真を受け取り、画像解析技術を使用してユーザの高解像度3Dモデルを生成する。この3Dモデルは、ディープラーニングを用いて精密に作成され、ユーザの体型に対するリアルなフィット感を再現する。 The server first receives the body shape information and full-body photo sent by the user from their device, and then uses image analysis technology to generate a high-resolution 3D model of the user. This 3D model is precisely created using deep learning, recreating a realistic fit to the user's body shape.

次に、サーバは提携オンラインストアから収集した衣服データを用いて、ユーザの3Dモデルに選択された衣服を合成する。この合成プロセスは、生成AIモデルを活用し、衣服のテクスチャやフィット感を高度に再現する。複数の角度から撮影された試着イメージが生成され、ユーザの端末に送信される。 The server then uses clothing data collected from partner online stores to synthesize the selected clothing onto the user's 3D model. This synthesis process utilizes generative AI models to accurately reproduce the texture and fit of the clothing. Try-on images taken from multiple angles are generated and sent to the user's device.

ユーザは端末上でバーチャル試着イメージを確認し、気に入った場合は購入プロセスに進むことができる。また、ユーザはコーディネート提案を希望する場合、販売員にリクエストを送信することができる。販売員が提案したコーディネートは再度バーチャル試着イメージとして生成され、ユーザに提示される。 Users can check the virtual try-on images on their devices and, if they like them, proceed with the purchase process. Furthermore, if users would like a coordination suggestion, they can send a request to the salesperson. The coordination suggested by the salesperson is then regenerated as a virtual try-on image and presented to the user.

具体例とプロンプト文 Examples and prompts

具体的なプロンプト文として、提携オンラインストアのAPIを使用して衣服データを収集する際には、以下のようなコマンドを実行する: As a specific prompt, when collecting clothing data using the API of a partner online store, run the following command:

curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY" curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY"

また、ウェブスクレイピング技術を用いる場合は、PythonのBeautiful Soupを使用し、指定されたURLから商品のデータを抽出するスクリプトが以下のようになる: Also, if you use web scraping technology, here's a script that uses Python's Beautiful Soup to extract product data from a specified URL:

from bs4 import BeautifulSoup from bs4 import BeautifulSoup

import requests Import requests

url = "https://netstore.com/products" url = "https://netstore.com/products"

response = requests.get(url) response = requests.get(url)

soup = BeautifulSoup(response.content, 'html.parser') soup = BeautifulSoup(response.content, 'html.parser')

for product in soup.find_all('div', class_='product'): for product in soup.find_all('div', class_='product'):

product_name = product.find('h2').get_text() product_name = product.find('h2').get_text()

product_price = product.find('span', class_='price').get_text() product_price = product.find('span', class_='price').get_text()

print(product_name, product_price) print(product_name, product_price)

このシステムにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことができ、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能になる。 This system allows users to seamlessly try on clothes virtually in a physical store, shortening the time spent trying them on in person and combining the convenience of online with the experience of a physical store.

応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in Application Example 1 will be explained using Figure 12.

ステップ1: Step 1:

ユーザは自身の体型情報を端末に入力する。ユーザは身長、体重、スリーサイズといった身体の属性を端末に入力し、入力されたデータはサーバに送信される。この時点での入力はユーザの身体的な数値データであり、出力はサーバに送信される生のデータである。 The user enters their body type information into the terminal. The user enters physical attributes such as height, weight, and measurements into the terminal, and the entered data is sent to the server. At this point, the input is the user's physical numerical data, and the output is raw data sent to the server.

ステップ2: Step 2:

ユーザは複数角度から全身写真を撮影し、端末を通じてアップロードする。ユーザは前面、背面および側面からの写真を端末のカメラで撮影し、それらの画像データをサーバに送信する。この時点での入力は複数の画像ファイルであり、出力はサーバに保存された画像データである。 The user takes full-body photos from multiple angles and uploads them via their device. The user takes photos from the front, back, and side using the device's camera and sends the image data to the server. At this point, the input is multiple image files, and the output is image data stored on the server.

ステップ3: Step 3:

サーバは提携オンラインストアのAPIまたはウェブスクレイピング技術を使用して、販売されている物品のデータを収集する。具体的には、サーバがAPIエンドポイントにリクエストを送り、レスポンスとして商品情報を受け取る。または、ウェブページを解析して必要な商品データを取得する。この時点での入力はAPIリクエストまたはHTMLコンテンツであり、出力は商品データのセットである。 The server uses the API of a partner online store or web scraping technology to collect data on the items being sold. Specifically, the server sends a request to an API endpoint and receives product information in response, or parses a web page to obtain the required product data. At this point, the input is the API request or HTML content, and the output is a set of product data.

ステップ4: Step 4:

サーバはユーザの体型情報および全身写真を解析し、高解像度の3Dモデルを生成する。収集した画像データと体型情報をディープラーニングモデル(TensorFlowやPyTorchを用いる)を使って解析し、ユーザの高精度3Dモデルを作成する。この時点での入力は体型情報と画像データであり、出力は3Dモデルである。 The server analyzes the user's body shape information and full-body photo to generate a high-resolution 3D model. The collected image data and body shape information are analyzed using a deep learning model (using TensorFlow and PyTorch) to create a highly accurate 3D model of the user. At this point, the input is body shape information and image data, and the output is a 3D model.

ステップ5: Step 5:

サーバは生成AIモデルを用いて、3Dモデルに選択された物品を合成する。収集された商品データからユーザが選んだものを、3Dモデルに合成し、仮想試着イメージを作成する。生成AIモデルにより、衣服のテクスチャやフィット感を高精度に再現する。この時点での入力は3Dモデルと商品データであり、出力は試着イメージである。 The server uses a generative AI model to synthesize the selected item onto a 3D model. The user selects from the collected product data and synthesizes it onto the 3D model to create a virtual try-on image. The generative AI model reproduces the texture and fit of the clothing with high accuracy. At this point, the input is the 3D model and product data, and the output is a try-on image.

ステップ6: Step 6:

サーバは生成された試着イメージを複数の角度から撮影した状態でユーザの端末に送信する。ユーザの端末ではこれらのイメージが表示され、ユーザはバーチャル試着イメージを確認することができる。この時点での入力は試着イメージデータであり、出力はユーザの端末に表示されるバーチャル試着イメージである。 The server then sends the generated try-on images, photographed from multiple angles, to the user's device. These images are displayed on the user's device, allowing the user to check the virtual try-on image. At this point, the input is the try-on image data, and the output is the virtual try-on image displayed on the user's device.

ステップ7: Step 7:

ユーザはコーディネートの提案をリクエストする場合、端末からサーバにリクエストを送信する。サーバはこのリクエストを受け取り、担当する販売員に通知する。この時点での入力はユーザからのリクエストであり、出力は販売員への通知である。 When a user requests a coordination suggestion, they send a request from their terminal to the server. The server receives this request and notifies the salesperson in charge. At this point, the input is the request from the user, and the output is a notification to the salesperson.

ステップ8: Step 8:

販売員はコーディネート提案を作成し、サーバにフィードバックを送信する。サーバは再度ユーザの3Dモデルに基づいて、提案されたコーディネートの仮想試着イメージを生成する。この時点での入力は販売員からのコーディネート提案であり、出力は新しい試着イメージである。 The salesperson creates a coordination suggestion and sends feedback to the server. The server again generates a virtual try-on image of the suggested coordination based on the user's 3D model. At this point, the input is the coordination suggestion from the salesperson, and the output is a new try-on image.

ステップ9: Step 9:

サーバは生成されたコーディネート試着イメージをユーザの端末に送信し、ユーザはこれを確認する。ユーザが購入を決定した場合、端末から「購入」ボタンをクリックし、購入情報がサーバに送信される。この時点での入力は仮想試着イメージとユーザの購入決定であり、出力は購入手続きの進行である。 The server sends the generated coordinated try-on image to the user's device, where the user confirms it. If the user decides to purchase, they click the "Purchase" button on their device, and the purchase information is sent to the server. The input at this point is the virtual try-on image and the user's purchase decision, and the output is the progress of the purchase procedure.

更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。 Furthermore, an emotion engine that estimates the user's emotion may be combined. That is, the identification processing unit 290 may estimate the user's emotion using the emotion identification model 59 and perform identification processing using the user's emotion.

本発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣服を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたものである。このシステムにより、ユーザの感情に応じた衣服やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention combines a virtual try-on system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits that correspond to the user's emotions, providing a more personalized shopping experience.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力する。さらに、複数角度から撮影した全身写真をアップロードする。 Users launch the application and enter their body information (height, weight, measurements, etc.). They also upload full-body photos taken from multiple angles.

端末は、これらの体型情報と全身写真をサーバに送信する。 The device sends this body shape information and a full-body photo to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

3. 3Dモデルの生成および衣服合成 3. 3D model generation and clothing synthesis

サーバは、ユーザの体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。これには、最新の画像認識アルゴリズムを使用する。 The server analyzes the user's body shape information and full-body photo data to generate a high-resolution 3D model of the user, using the latest image recognition algorithms.

サーバは、生成AIモデルを用いて3Dモデルに対して選択した衣服を合成する。このプロセスでは、衣服のフィット感や質感をリアルに再現するためにディープラーニング技術を活用する。 The server uses a generative AI model to synthesize the selected clothing onto the 3D model. This process utilizes deep learning techniques to realistically recreate the fit and texture of the clothing.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度の試着イメージや他の衣服の試着をリクエストする。 The user can review the displayed try-on images and, if necessary, request images from different angles or to try on other garments.

5. 感情エンジンによる感情認識 5. Emotion Recognition Using an Emotion Engine

端末は、ユーザの表情や音声を感情エンジンにより解析し、ユーザの感情状態を識別する。これには、カメラやマイクを使用してリアルタイムでデータを取得する。 The device uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. This is done by capturing data in real time using a camera and microphone.

サーバは、感情エンジンからの感情データを基にし、試着イメージに対するユーザの反応を評価する。 The server evaluates the user's reaction to the try-on images based on emotional data from the emotion engine.

6. コーディネート提案および調整 6. Coordination proposals and adjustments

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報、好み、および感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and displays them on the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

7. 購入手続き 7. Purchase Procedure

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

本発明のシステムにより、ユーザは自分の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、感情エンジンを活用してユーザの感情状態に基づいた提案を行うことで、よりパーソナライズされたショッピング体験が実現する。こうした一連の処理により、ユーザの満足度を高め、ネットショッピングでの購買体験を向上させることができる。 The system of the present invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying it on. Furthermore, by utilizing an emotion engine to make suggestions based on the user's emotional state, a more personalized shopping experience is realized. This series of processes increases user satisfaction and improves the online shopping experience.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。さらに、前面、背面、側面から撮影した全身写真をアプリケーションにアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side to the application.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、画像認識アルゴリズムを用いてユーザの高解像度3Dモデルを生成する。 The server analyzes the received body shape information and full-body photo data and uses image recognition algorithms to generate a high-resolution 3D model of the user.

ステップ4: Step 4:

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

ステップ5: Step 5:

サーバは、生成したユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを用いて衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using the generative AI model to realistically reproduce the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度からの試着イメージや他の衣服の試着をリクエストする。 The user reviews the displayed try-on images. If necessary, they can request images from different angles or try on other garments.

ステップ9: Step 9:

端末は、ユーザの表情をカメラで撮影し、または音声をマイクで収集し、それらのデータを感情エンジンに送信する。 The device captures the user's facial expressions with a camera or collects their voice with a microphone, and then sends this data to the emotion engine.

ステップ10: Step 10:

サーバは、感情エンジンを使用して、ユーザの表情や音声を解析し、ユーザの感情状態を識別する。例えば、ユーザが笑顔であれば「満足」、眉をひそめていれば「不安」と識別する。 The server uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. For example, if the user is smiling, it will be identified as "satisfied," and if they are frowning, it will be identified as "anxious."

ステップ11: Step 11:

サーバは、感情エンジンからの感情状態データを基に、次のアクションを決定する。例えば、ユーザが満足している場合は提案をそのまま継続し、不安を感じている場合は別のオプションを提示する。 The server determines the next action based on the emotional state data from the emotion engine. For example, if the user is satisfied, it continues with the suggestion, but if they are anxious, it presents a different option.

ステップ12: Step 12:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ13: Step 13:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ14: Step 14:

販売員は、ユーザの体型情報、好み、感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

ステップ15: Step 15:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and sends them to the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

ステップ16: Step 16:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ17: Step 17:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ18: Step 18:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ19: Step 19:

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

ステップ20: Step 20:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例2) (Example 2)

次に、実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。 Next, we will explain Example 2. In the following explanation, the data processing device 12 will be referred to as a "server" and the smart device 14 will be referred to as a "terminal."

近年、オンラインショッピングの普及に伴い、リモートでの試着やパーソナライズされたショッピング体験の需要が高まっている。しかし、現行のシステムでは、実際に衣服を試着する場合のフィット感や質感を十分に再現することが難しく、ユーザの感情に基づいた提案を行うことができなかった。そのため、ユーザの体験を向上させるためのよりリアルなバーチャル試着システムが求められている。 In recent years, with the spread of online shopping, there has been an increasing demand for remote try-on and personalized shopping experiences. However, current systems have difficulty adequately reproducing the fit and texture of clothing when actually trying on, and are unable to make suggestions based on the user's emotions. Therefore, there is a need for a more realistic virtual try-on system to improve the user experience.

実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 2 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身画像を複数方向から撮影し、アップロードする手段と、販売されている衣服のデータを収集する手段と、生成されたユーザの三次元モデルに対して衣料品を合成する手段と、ユーザの端末に試着イメージを提示する手段と、ユーザの表情や音声を解析し感情を認識する手段と、感情に基づいて提案を調整する手段と、を含む。これにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body images of the user from multiple angles, means for collecting data on clothing available for sale, means for combining clothing items with the generated three-dimensional model of the user, means for presenting images of the items to be tried on on the user's device, means for analyzing the user's facial expressions and voice to recognize emotions, and means for adjusting suggestions based on emotions. This allows the user to virtually try on clothing that fits their body type and receive personalized suggestions based on their emotional state.

「ユーザの体型情報を入力する手段」とは、ユーザの身長、体重、スリーサイズなどの体型に関するデータを入力するためのインターフェースおよびシステムを指す。 "Means for inputting user's body type information" refers to an interface and system for inputting data related to the user's body type, such as height, weight, and measurements.

「ユーザの全身画像を複数方向から撮影し、アップロードする手段」とは、ユーザの全身を異なる角度から撮影し、その画像データをシステムにアップロードするためのカメラおよびアップロード機能を指す。 "Means for taking and uploading full-body images of the user from multiple angles" refers to the camera and upload function for taking images of the user's entire body from different angles and uploading that image data to the system.

「販売されている衣服のデータを収集する手段」とは、ネットストアやその他の情報源から、販売されている衣服の画像、サイズ、素材、カラーなどのデータを収集し、保存するための技術を指す。 "Means for collecting data on clothing for sale" refers to technology for collecting and storing data such as images, sizes, materials, and colors of clothing for sale from online stores and other sources.

「生成されたユーザの三次元モデルに対して衣料品を合成する手段」とは、ユーザの体型情報および全身画像を基にして生成された三次元モデルに、選択された衣服をリアルに合成するためのアルゴリズムおよびシステムを指す。 "Means for combining clothing items with a generated 3D model of the user" refers to an algorithm and system for realistically combining selected clothing items with a 3D model generated based on the user's body shape information and full-body image.

「ユーザの端末に試着イメージを提示する手段」とは、生成された試着イメージをユーザの端末(スマートフォン、タブレット、PCなど)の画面に表示するためのインターフェースおよびシステムを指す。 "Means for presenting try-on images on the user's device" refers to the interface and system for displaying the generated try-on images on the screen of the user's device (smartphone, tablet, PC, etc.).

「ユーザの表情や音声を解析し感情を認識する手段」とは、カメラやマイクなどのデバイスを使用して取得したユーザの表情や音声データを解析し、ユーザの感情状態を識別するためのアルゴリズムおよびシステムを指す。 "Means for analyzing a user's facial expressions and voice to recognize emotions" refers to algorithms and systems that analyze a user's facial expressions and voice data acquired using devices such as cameras and microphones, and identify the user's emotional state.

「感情に基づいて提案を調整する手段」とは、ユーザの感情データを基にして、提案される衣服やコーディネートをリアルタイムで変更・調整するための技術およびシステムを指す。 "Means for adjusting suggestions based on emotions" refers to technology and systems for changing and adjusting suggested clothing and outfits in real time based on the user's emotional data.

本発明は、バーチャル試着システムであり、ユーザの体型情報および全身画像を基に高解像度の三次元モデルを生成し、これに衣服をリアルに合成する。さらに、ユーザの表情や音声から感情を解析し、それに基づいて衣服の提案を調整する機能を有する。 This invention is a virtual fitting system that generates a high-resolution three-dimensional model based on the user's body type information and full-body image, and then realistically combines clothing onto it. It also has the ability to analyze the user's emotions from their facial expressions and voice, and adjust clothing suggestions based on that.

このシステムは、以下のハードウェアおよびソフトウェアを用いる: This system uses the following hardware and software:

ユーザの体型情報を入力するためのインターフェース(スマートフォンやPCなど) An interface for inputting the user's body shape information (such as a smartphone or PC)

ユーザの全身画像を撮影するカメラ(スマートフォン内蔵カメラなど) A camera that captures a full-body image of the user (such as a camera built into a smartphone)

販売されている衣服のデータを収集するためのAPIまたはウェブスクレイピングツール API or web scraping tool for collecting data on clothing for sale

三次元モデルを生成するための生成AIモデル(例:Pythonで構築されたディープラーニングモデル) Generative AI models for generating 3D models (e.g., deep learning models built in Python)

合成された試着イメージを提示するユーザインタフェース A user interface that displays synthesized try-on images

ユーザの表情や音声を解析するための感情認識エンジン(例:感情解析API) Emotion recognition engine for analyzing user facial expressions and voice (e.g., emotion analysis API)

このシステムは、以下の処理を実施する: This system performs the following processes:

ユーザは、起動したアプリケーションを通じて体型情報を入力し、全身画像を複数方向から撮影してアップロードする。端末はこれらのデータをサーバに送信する。サーバは、ネットストアからAPIまたはウェブスクレイピング技術を使用して販売されている衣服のデータを収集し、データベースに保存する。サーバは、ユーザの体型情報と全身画像を解析し、生成AIモデルを使用してユーザの高解像度三次元モデルを生成する。ユーザが選択した衣服を三次元モデルに合成し、リアルな試着イメージを生成する。この試着イメージは、ユーザの端末に送信され、表示される。 The user enters their body type information through the launched application and takes and uploads full-body images from multiple angles. The device then sends this data to the server. The server then collects data on clothing for sale from online stores using APIs or web scraping technology and stores it in a database. The server analyzes the user's body type information and full-body images and uses a generative AI model to generate a high-resolution 3D model of the user. The server then combines the clothing selected by the user into the 3D model to generate a realistic try-on image. This try-on image is then sent to the user's device and displayed.

さらに、端末はカメラやマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンを用いて感情を解析する。サーバは、この感情データを基にして、提案する衣服やコーディネートをリアルタイムで調整する。 In addition, the device uses a camera and microphone to capture the user's facial expressions and voice in real time, and analyzes their emotions using an emotion recognition engine. The server then uses this emotional data to adjust the suggested clothing and outfits in real time.

具体例として、ユーザは身長170cm、体重65kg、スリーサイズ(B:95cm、W:75cm、H:95cm)を入力し、前面および側面から全身画像をアップロードしたとする。これに基づき、サーバはユーザの三次元モデルを生成し、ネイビーのジャケットを合成する。この段階のプロンプト文の例は次の通りである:「ユーザの身長が170cm、体重が65kg、スリーサイズ(B95, W75, H95)で、前面と側面の全身写真を基に三次元モデルを生成し、ネイビーのジャケットを高解像度で合成してください。また、ユーザの笑顔の表情からポジティブな感情を認識して、さらにおすすめのコーディネートを提案してください。」 As a concrete example, suppose a user inputs their height (170cm), weight (65kg), and measurements (B:95cm, W:75cm, H:95cm), and uploads full-body images from the front and side. Based on this, the server generates a 3D model of the user and synthesizes a navy jacket. An example prompt for this stage is: "Based on the user's height of 170cm, weight (65kg), and measurements (B:95, W:75, H:95), generate a 3D model based on full-body front and side photos and synthesize a high-resolution navy jacket. Also, recognize positive emotions from the user's smiling face and suggest further outfit recommendations."

このシステムにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 The system allows users to virtually try on clothes that fit their body type and receive personalized suggestions based on their emotional state.

実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 will be explained using Figure 13.

プログラムの処理の流れ Program processing flow

ステップ1: Step 1:

ユーザがアプリケーションを起動し、体型情報を入力する。 The user launches the application and enters their body type information.

入力:ユーザの体型情報(身長、体重、スリーサイズなど) Input: User's body information (height, weight, measurements, etc.)

出力:体型情報がシステムに保存される。 Output: Body shape information is saved in the system.

具体的な動作:ユーザは、アプリケーションの入力フィールドに体型情報を入力し、「送信」ボタンをクリックする。この情報は端末を通じてサーバに送信される。 Specific operation: The user enters body type information into the application's input fields and clicks the "Submit" button. This information is sent to the server via the device.

ステップ2: Step 2:

ユーザが全身画像を複数方向から撮影し、アップロードする。 Users take full-body images from multiple angles and upload them.

入力:ユーザの前面および側面から撮影した全身画像 Input: Full-body images of the user taken from the front and side

出力:全身画像がシステムに保存される。 Output: The whole-body image is saved to the system.

具体的な動作:ユーザは、スマートフォンのカメラを使用して自分の全身画像を複数の角度から撮影し、アプリケーション内で画像を選択して「アップロード」ボタンをクリックする。画像データは端末を通じてサーバに送信される。 Specific operation: The user uses the smartphone camera to take full-body images of themselves from multiple angles, selects the images in the application, and clicks the "Upload" button. The image data is sent to the server via the device.

ステップ3: Step 3:

サーバが提携ネットストアから衣服データを収集する。 The server collects clothing data from affiliated online stores.

入力:ネットストアのAPI情報またはウェブページのURL Input: Online store API information or web page URL

出力:衣服データ(画像、サイズ、素材、カラーなど)がデータベースに保存される。 Output: Garment data (images, size, material, color, etc.) is saved in a database.

具体的な動作:サーバはAPIやウェブスクレイピングツールを用いて、ネットストアの衣服データを自動収集する。データ収集の際には、重複や欠損チェックも行われる。 Specific operation: The server automatically collects clothing data from online stores using APIs and web scraping tools. When collecting data, it also checks for duplicates and missing data.

ステップ4: Step 4:

サーバがユーザの体型情報と全身画像を解析し、生成AIモデルを使用して三次元モデルを生成する。 The server analyzes the user's body shape information and full-body image, and generates a 3D model using a generative AI model.

入力:ユーザの体型情報および全身画像 Input: User's body shape information and full-body image

出力:ユーザの高解像度三次元モデル Output: High-resolution 3D model of the user

具体的な動作:サーバは、ディープラーニングアルゴリズムを使用してユーザの体型情報と全身画像を解析し、三次元モデルを生成する。このプロセスでは、GPUを活用して計算を高速化する。 How it works: The server uses deep learning algorithms to analyze the user's body shape information and full-body image to generate a 3D model. This process utilizes a GPU to speed up calculations.

ステップ5: Step 5:

サーバがユーザが選択した衣服を三次元モデルに合成する。 The server synthesizes the user's selected clothing onto a 3D model.

入力:ユーザの三次元モデルおよび選択された衣服データ Input: User's 3D model and selected clothing data

出力:合成された試着イメージ Output: Composite fitting image

具体的な動作:サーバは、生成AIモデルを用いて、ユーザの三次元モデルに選択された衣服をフィット感や質感をリアルに再現する形で合成する。この結果、試着イメージが生成される。 Specific operation: The server uses a generative AI model to synthesize the selected clothing onto the user's 3D model in a way that realistically reproduces the fit and texture. As a result, a fitting image is generated.

ステップ6: Step 6:

サーバが生成された試着イメージをユーザの端末に送信する。 The server sends the generated try-on image to the user's device.

入力:合成された試着イメージ Input: Synthesized fitting image

出力:ユーザの端末に表示される試着イメージ Output: Try-on image displayed on the user's device

具体的な動作:試着イメージは複数角度から撮影した画像としてエンコードされ、サーバから端末に送信される。端末は、これをユーザインタフェースに表示する。 Specific operation: The try-on image is encoded as images taken from multiple angles and sent from the server to the device. The device displays it on the user interface.

ステップ7: Step 7:

端末がユーザの表情や音声をキャプチャし、感情認識エンジンで解析する。 The device captures the user's facial expressions and voice and analyzes them using an emotion recognition engine.

入力:ユーザの表情および音声データ Input: User's facial and voice data

出力:ユーザの感情データ Output: User emotion data

具体的な動作:端末はカメラおよびマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンでこれらのデータを解析して感情状態を識別する。 Specific operation: The device uses a camera and microphone to capture the user's facial expressions and voice in real time, and then analyzes this data with an emotion recognition engine to identify the user's emotional state.

ステップ8: Step 8:

サーバが感情データを解析し、提案内容をリアルタイムで調整する。 The server analyzes the emotional data and adjusts the suggestions in real time.

入力:ユーザの感情データ Input: User emotion data

出力:調整された提案内容 Output: Adjusted proposal content

具体的な動作:サーバは感情データに基づき、試着イメージやコーディネートの提案内容をリアルタイムで変更・調整し、最適な提案を行う。 Specific operation: Based on the emotional data, the server changes and adjusts the fitting images and outfit suggestions in real time to provide optimal suggestions.

ステップ9: Step 9:

ユーザが提案されたコーディネートを選び、購入手続きを行う。 The user selects the suggested outfit and completes the purchase process.

入力:ユーザの購入決定情報 Input: User purchase decision information

出力:購入確認および配送情報 Output: Purchase confirmation and shipping information

具体的な動作:ユーザは「購入」ボタンをクリックすると、端末はこの情報をサーバに送信する。サーバは購入情報をネットストアの決済システムに連携し、購入手続きを行う。その後、注文確認と配送情報がユーザに通知される。 Specific operation: When the user clicks the "Purchase" button, the device sends this information to the server. The server then links the purchase information to the online store's payment system and completes the purchase process. The user is then notified of order confirmation and delivery information.

これにより、ユーザは自分の体型に合った衣服をバーチャルで試着し、感情に基づいたパーソナライズされた提案を受け、最適な購入体験を享受することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized suggestions based on their emotions, and enjoy an optimal shopping experience.

(応用例2) (Application Example 2)

次に、応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。 Next, we will explain Application Example 2. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart device 14 will be referred to as the "terminal."

従来のバーチャル試着システムでは、ユーザの体型情報を基にした試着イメージの生成は可能であるが、ユーザの感情を考慮に入れた提案を行うことはできなかった。そのため、ユーザが選択した衣服やコーディネートに対する満足度を向上させることが難しかった。また、リアルタイムでの感情フィードバックに基づくコーディネートの調整が欠如していたため、ユーザの個別のニーズに応えることが十分にできなかった。 Conventional virtual try-on systems were able to generate fitting images based on the user's body type information, but were unable to make suggestions that took the user's emotions into account. This made it difficult to improve the user's satisfaction with the clothing and outfits they selected. Furthermore, the lack of coordination adjustments based on real-time emotional feedback meant they were unable to fully meet the individual needs of users.

応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、販売されている衣類のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣類を合成する手段と、ユーザの感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段と、ユーザの端末に試着イメージを提示する手段と、を含む。これにより、ユーザの感情に応じたパーソナライズされた衣服やコーディネートの提案が可能となり、ユーザの満足度が向上する。さらに、リアルタイムでの感情フィードバックによって提案内容を調整することで、ユーザの個別のニーズにより適切に応えることができる。 The identification processing by the identification processing unit 290 of the data processing device 12 in Application Example 2 is realized by the following means. In this invention, the server includes means for inputting the user's physique information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing for sale, means for combining clothing with the generated high-resolution 3D model of the user, means for analyzing the user's emotions and suggesting clothing and outfits based on the emotion data, and means for presenting images of the clothing to be tried on on the user's device. This makes it possible to suggest personalized clothing and outfits based on the user's emotions, improving user satisfaction. Furthermore, by adjusting the suggestions based on real-time emotion feedback, it is possible to more appropriately meet the individual needs of the user.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体寸法に関するデータである。 "User's body type information" refers to data related to the user's body measurements, such as height, weight, and three sizes.

「全身写真」とは、ユーザの全体像を複数の角度(前面、背面、側面など)から撮影した画像である。 A "full-body photo" is an image of the user taken from multiple angles (front, back, side, etc.).

「販売されている衣類のデータ」とは、提携ネットストアなどから収集される衣類の画像、サイズ、素材、カラーなどの詳細情報である。 "Data on clothing for sale" refers to detailed information such as clothing images, sizes, materials, and colors collected from affiliated online stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基にして生成される、細部まで詳細に表現された3Dモデルである。 A "high-resolution 3D model" is a 3D model that is generated based on the user's body type information and a full-body photograph, and is rendered in great detail.

「衣類を合成する手段」とは、生成された高解像度3Dモデルに対して、販売されている衣類のデータを用いてリアルに衣類を表示する技術である。 "Clothing synthesis" is a technology that uses data on clothing for sale to realistically display clothing on the generated high-resolution 3D model.

「感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段」とは、ユーザの表情や音声を解析し、そこから得られた感情データを基に、ユーザに最適な衣類やコーディネートを提案する技術である。 "Means for analyzing emotions and suggesting clothing and outfits based on emotional data" refers to technology that analyzes a user's facial expressions and voice, and then suggests the most suitable clothing and outfits for the user based on the emotional data obtained from this.

「試着イメージを提示する手段」とは、生成されたバーチャル試着のイメージをユーザの端末に表示する技術である。 "Means for presenting try-on images" refers to technology that displays the generated virtual try-on images on the user's device.

「感情データ」とは、ユーザの表情や音声の解析結果から得られる喜び、驚き、不満などの感情状態を表すデータである。 "Emotional data" is data that represents emotional states such as joy, surprise, and dissatisfaction obtained from the analysis of the user's facial expressions and voice.

「コーディネート」とは、ユーザの衣類の組み合わせを意味し、その選定プロセスを含むものである。 "Coordination" refers to the user's clothing combination and includes the selection process.

「フィードバック」とは、ユーザの感情データに基づき、提案内容を調整して再提案するプロセスである。 "Feedback" is the process of adjusting and re-proposing suggestions based on the user's emotional data.

この発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣類を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたシステムである。このシステムにより、ユーザの感情に応じた衣類やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention is a virtual fitting system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, combined with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits based on the user's emotions, providing a more personalized shopping experience.

サーバは、次のような技術を統合してこのシステムを実現する。まず、サーバはユーザの体型情報を入力する手段を提供する。この手段により、ユーザは自分の身長、体重、スリーサイズなどの情報を入力できる。さらに、複数の角度から撮影された全身写真をアップロードする手段も提供する。これにより、ユーザは自分の前面、側面、背面を撮影した写真をアップロードできる。 The server realizes this system by integrating the following technologies: First, the server provides a means for users to input their body type information. This allows users to enter information such as their height, weight, and three sizes. It also provides a means for users to upload full-body photos taken from multiple angles. This allows users to upload photos of their front, side, and back.

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータを収集する手段を持つ。このデータには、衣類の画像、サイズ、素材、カラーなどの詳細情報が含まれる。次に、サーバは最新の画像認識アルゴリズム(例:TensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この3Dモデルに対して、ディープラーニング技術を活用して衣類を合成する手段を使用して、リアルな試着イメージを生成する。 The server has a means of collecting data on clothing for sale from online stores and other data sources. This data includes detailed information such as clothing images, sizes, materials, and colors. The server then uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data to generate a high-resolution 3D model. This 3D model is then used to synthesize clothing using deep learning technology to generate realistic try-on images.

さらに、感情エンジン(例:Affectiva API)を用いて、ユーザの表情や音声を解析し、感情データを取得する手段を持つ。感情データに基づいて、ユーザに最適な衣類やコーディネートを提案する手段も組み込まれる。これにより、ユーザの感情に応じた適切な提案をリアルタイムで行うことが可能である。 Furthermore, it has a means of analyzing the user's facial expressions and voice using an emotion engine (e.g., Affectiva API) to obtain emotional data. It also incorporates a means of suggesting the most suitable clothing and outfits for the user based on the emotional data. This makes it possible to make appropriate suggestions in real time based on the user's emotions.

ユーザの端末に試着イメージを提示する手段も整備されている。これによって、ユーザは生成されたバーチャル試着イメージを複数の角度から確認することができる。試着イメージが表示された後、ユーザはその場で感情データをフィードバックし、必要に応じてコーディネートを調整することができる。 A means of displaying try-on images on the user's device has also been developed, allowing the user to view the generated virtual try-on image from multiple angles. After the try-on image is displayed, the user can provide feedback on their emotional data on the spot and adjust their outfit as needed.

具体例として、ユーザが自分の身長と体重をアプリに入力し、3枚の全身写真(前面、背面、側面)をアップロードする。写真撮影が終了した後、感情解析によりユーザが喜んでいる場合、明るい色や最新ファッションのコーディネートを提案する。一方で、ユーザが不満を感じている場合、新たなコーディネートを提案するようにシステムが調整を行う。 For example, a user enters their height and weight into the app and uploads three full-body photos (front, back, and side). After the photo shoot is complete, emotion analysis is performed and if the user is happy, the system will suggest outfits in bright colors and the latest fashions. On the other hand, if the user is unhappy, the system will adjust to suggest new outfits.

プロンプト文の例として、以下のようになる。 An example of a prompt statement is as follows:

ユーザの身長は170cmで、体重は65kgです。前面、背面、側面の写真がアップロードされました。感情解析により、ユーザは現在「喜び」を感じています。これに基づいて、明るい色と最新ファッションの複数のコーディネートを提案してください。 The user is 170cm tall and weighs 65kg. Front, back, and side photos have been uploaded. Sentiment analysis indicates that the user is currently feeling "joy." Based on this, suggest multiple outfits in bright colors and the latest fashions.

このようにして、ユーザは自分の体型に最適な衣類を選び、バーチャル試着の体験を通じて実際に試着するかのような感覚を得ることができる。リアルタイムでの感情フィードバックによって、さらにパーソナライズされたショッピング体験が提供される。 In this way, users can choose the clothing that best suits their body type and get the feeling of trying it on in real life through a virtual try-on experience. Real-time emotional feedback provides a more personalized shopping experience.

応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in Application Example 2 will be explained using Figure 14.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力し、複数角度から撮影した全身写真(前面、背面、側面)をアップロードする。入力されるデータは体型情報と写真データであり、これらは端末からサーバに送信される。その結果、ユーザの体型や全身写真に関するデータがサーバに保存される。 Users launch the application, enter their body type information (height, weight, measurements, etc.), and upload full-body photos taken from multiple angles (front, back, side). The entered data consists of body type information and photo data, which are sent from the device to the server. As a result, data related to the user's body type and full-body photos is stored on the server.

ステップ2: Step 2:

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータ(画像、サイズ、素材、カラーなど)を収集する。この収集は、APIまたはウェブスクレイピング技術を使用する。取得したデータは、サーバのデータベースに保存される。入力は衣類のデータであり、出力はデータベースに保存された衣類データである。 The server collects data about clothing sold (images, sizes, materials, colors, etc.) from online stores and other data sources. This collection is done using APIs or web scraping technology. The acquired data is stored in a database on the server. The input is clothing data, and the output is clothing data stored in the database.

ステップ3: Step 3:

サーバは、最新の画像認識アルゴリズム(例えばTensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この過程で、ユーザの各写真はピクセル解析され、3Dモデルの形状を作成する。このステップでの入力はユーザの体型情報と写真データ、出力は高解像度3Dモデルである。 The server uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data and generate a high-resolution 3D model. During this process, each user's photo is pixel-analyzed to create the shape of the 3D model. The input for this step is the user's body shape information and photo data, and the output is a high-resolution 3D model.

ステップ4: Step 4:

サーバは生成AIモデルを用いて、生成された3Dモデルに対して販売されている衣類を合成する。ディープラーニング技術を活用し、衣類のフィット感や質感をリアルに再現するデータ加工を行う。入力は高解像度3Dモデルと衣類データ、出力は試着イメージである。 The server uses a generative AI model to synthesize clothing for sale onto the generated 3D model. Utilizing deep learning technology, data processing is performed to realistically reproduce the fit and texture of the clothing. The input is a high-resolution 3D model and clothing data, and the output is a try-on image.

ステップ5: Step 5:

端末は、感情エンジン(例えばAffectiva API)でユーザの表情と音声をリアルタイムで解析し、感情データを取得する。撮影された表情データや音声データが入力となり、解析された感情データが出力される。このステップでは端末がカメラやマイクを使用してデータを取得する。 The device uses an emotion engine (e.g., Affectiva API) to analyze the user's facial expressions and voice in real time and obtain emotional data. Captured facial and voice data is input, and analyzed emotional data is output. In this step, the device obtains data using the camera and microphone.

ステップ6: Step 6:

サーバは、感情データに基づいてユーザに最適な衣類やコーディネートを提案する。入力は感情データであり、出力はユーザの好みに合わせたコーディネート提案である。この提案は動的に行われ、リアルタイムで調整される。 The server suggests optimal clothing and outfits for the user based on emotional data. The input is emotional data, and the output is outfit suggestions tailored to the user's preferences. These suggestions are made dynamically and adjusted in real time.

ステップ7: Step 7:

ユーザの端末は、サーバから送信された試着イメージを表示する。入力は試着イメージであり、出力はユーザインタフェースに表示された試着イメージである。ユーザは表示された試着イメージを確認し、必要に応じて異なる角度のイメージや他の衣類の試着をリクエストすることができる。 The user's device displays the try-on images sent from the server. The input is the try-on image, and the output is the try-on image displayed on the user interface. The user can review the displayed try-on image and, if necessary, request images from different angles or to try on other clothing items.

ステップ8: Step 8:

ユーザが提案されたコーディネートを気に入った場合、購入手続きを行う。ユーザは「購入」ボタンをクリックし、端末は購入情報をサーバに送信する。入力は購入情報であり、出力は購入確認と配送情報である。サーバは、ネットストアの決済システムと連携し、注文を記録し、確認通知をユーザに送信する。 If the user likes the suggested outfit, they proceed with the purchase. The user clicks the "Purchase" button, and the device sends the purchase information to the server. The input is the purchase information, and the output is purchase confirmation and delivery information. The server connects with the online store's payment system, records the order, and sends a confirmation to the user.

これにより、ユーザは自分の体型にフィットする衣類をバーチャル試着し、感情データに基づいたパーソナライズされたコーディネート提案を受け、最終的に購入することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized outfit suggestions based on emotional data, and ultimately make a purchase.

特定処理部290は、特定処理の結果をスマートデバイス14に送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して特定処理の結果を出力させる。マイクロフォン38Bは、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン38Bによって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。 The specific processing unit 290 transmits the results of the specific processing to the smart device 14. In the smart device 14, the control unit 46A causes the output device 40 to output the results of the specific processing. The microphone 38B acquires audio indicating the user input regarding the results of the specific processing. The control unit 46A transmits audio data indicating the user input acquired by the microphone 38B to the data processing device 12. In the data processing device 12, the specific processing unit 290 acquires the audio data.

データ生成モデル58は、いわゆる生成系AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。 Data generation model 58 is what is known as generative AI (artificial intelligence). Examples of data generation model 58 include generative AI such as ChatGPT (Internet search <URL: https://openai.com/blog/chatgpt>) and Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>). Data generation model 58 is obtained by performing deep learning on a neural network. A prompt containing an instruction is input to data generation model 58, and inference data such as voice data indicating speech, text data indicating text, and image data indicating an image is also input. Data generation model 58 performs inference on the input inference data in accordance with the instructions indicated by the prompt, and outputs the inference results in the form of data such as voice data and text data. Here, inference refers to, for example, analysis, classification, prediction, and/or summarization.

上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、スマートデバイス14によって特定処理が行われるようにしてもよい。 In the above embodiment, an example was given in which the specific processing was performed by the data processing device 12, but the technology disclosed herein is not limited to this, and the specific processing may also be performed by the smart device 14.

[第2実施形態] [Second embodiment]

図3には、第2実施形態に係るデータ処理システム210の構成の一例が示されている。 Figure 3 shows an example of the configuration of a data processing system 210 according to the second embodiment.

図3に示すように、データ処理システム210は、データ処理装置12及びスマート眼鏡214を備えている。データ処理装置12の一例としては、サーバが挙げられる。 As shown in FIG. 3, the data processing system 210 includes a data processing device 12 and smart glasses 214. An example of the data processing device 12 is a server.

データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。 The data processing device 12 includes a computer 22, a database 24, and a communication I/F 26. The computer 22 is an example of a "computer" according to the technology of the present disclosure. The computer 22 includes a processor 28, RAM 30, and storage 32. The processor 28, RAM 30, and storage 32 are connected to a bus 34. The database 24 and communication I/F 26 are also connected to the bus 34. The communication I/F 26 is connected to a network 54. Examples of the network 54 include a WAN (Wide Area Network) and/or a LAN (Local Area Network).

スマート眼鏡214は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、及びカメラ42も、バス52に接続されている。 The smart glasses 214 include a computer 36, a microphone 238, a speaker 240, a camera 42, and a communication I/F 44. The computer 36 includes a processor 46, RAM 48, and storage 50. The processor 46, RAM 48, and storage 50 are connected to a bus 52. The microphone 238, speaker 240, and camera 42 are also connected to the bus 52.

マイクロフォン238は、ユーザ20が発する音声を受け付けることで、ユーザ20から指示等を受け付ける。マイクロフォン238は、ユーザ20が発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。 The microphone 238 receives instructions and the like from the user 20 by receiving voice uttered by the user 20. The microphone 238 captures the voice uttered by the user 20, converts the captured voice into audio data, and outputs it to the processor 46. The speaker 240 outputs audio in accordance with instructions from the processor 46.

カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザ20の周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。 Camera 42 is a small digital camera equipped with an optical system including a lens, aperture, and shutter, and an imaging element such as a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor, and captures images of the user 20's surroundings (e.g., an imaging range defined by an angle of view equivalent to the field of vision of a typical healthy person).

通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。 The communication I/F 44 is connected to the network 54. The communication I/Fs 44 and 26 are responsible for the exchange of various information between the processor 46 and the processor 28 via the network 54. The exchange of various information between the processor 46 and the processor 28 using the communication I/Fs 44 and 26 is carried out in a secure manner.

図4には、データ処理装置12及びスマート眼鏡214の要部機能の一例が示されている。図4に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。 Figure 4 shows an example of the main functions of the data processing device 12 and smart glasses 214. As shown in Figure 4, in the data processing device 12, specific processing is performed by the processor 28. A specific processing program 56 is stored in the storage 32.

特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。 The specific processing program 56 is an example of a "program" according to the technology of the present disclosure. The processor 28 reads the specific processing program 56 from the storage 32 and executes the read specific processing program 56 on the RAM 30. The specific processing is realized by the processor 28 operating as the specific processing unit 290 in accordance with the specific processing program 56 executed on the RAM 30.

ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。 Storage 32 stores a data generation model 58 and an emotion identification model 59. The data generation model 58 and the emotion identification model 59 are used by the identification processing unit 290.

スマート眼鏡214では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。 In the smart glasses 214, the reception output process is performed by the processor 46. A reception output program 60 is stored in the storage 50. The processor 46 reads the reception output program 60 from the storage 50 and executes the read reception output program 60 on the RAM 48. The reception output process is realized by the processor 46 operating as the control unit 46A in accordance with the reception output program 60 executed on the RAM 48.

次に、データ処理装置12の特定処理部290による特定処理について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。 Next, we will explain the identification process performed by the identification processing unit 290 of the data processing device 12. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart glasses 214 will be referred to as the "terminal."

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードすることから始まる。続いて、システムは収集した衣服のデータを基に生成AIモデルを活用し、ユーザの3Dモデルに衣服を合成し、仮想的な試着イメージを提示する。さらに、ユーザは販売員からのコーディネート提案を受け、より楽しみながら衣服を選び購入することができる。 This invention is a virtual try-on system that uses the user's body type information and full-body photos taken from multiple angles to generate a fitting image tailored to the user. The system begins by the user entering body type information and uploading a full-body photo using their own device. The system then utilizes a generative AI model based on the collected clothing data to synthesize the clothing onto the user's 3D model and present a virtual fitting image. In addition, users can receive coordination suggestions from sales staff, making the process of selecting and purchasing clothing even more enjoyable.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as their height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

端末は、ユーザが入力した体型情報と撮影した全身写真をサーバに送信する。 The device sends the body type information entered by the user and the full-body photo taken to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server collects data about clothing sold online (images, sizes, materials, colors, etc.) using APIs or web scraping technology from partner online stores and stores it in a database.

3. 3Dモデルの生成および合成 3. 3D model generation and synthesis

サーバは、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する。 The server analyzes the user's body shape information and uploaded full-body photos to generate a high-resolution 3D model of the user.

サーバは、生成AIモデルを活用して3Dモデルに対してユーザが選択した衣服を合成する。この際、衣服のフィット感やテクスチャをリアルに再現するためのディープラーニング技術を使用する。 The server uses a generative AI model to synthesize the user's selected clothing onto the 3D model, using deep learning techniques to realistically recreate the clothing's fit and texture.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 Users can review the displayed try-on images and, if necessary, request images from different angles or images of other garments.

5. コーディネート提案および購入手続き 5. Coordination suggestions and purchasing procedures

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。 The server generates images of the suggested outfits to try on and displays them on the user's device.

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

本発明により、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、提案されたコーディネートを確認しながら、オンラインでスムーズに購入手続きを行うことが可能である。 This invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying it on. Furthermore, they can smoothly complete the online purchase process while checking suggested outfits.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。この解析には、画像認識アルゴリズムを使用する。 The server analyzes the received body shape information and full-body photo data to generate a high-resolution 3D model of the user. This analysis is performed using image recognition algorithms.

ステップ4: Step 4:

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いて、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses APIs or web scraping technology from partner online stores to collect data on the clothing being sold (images, sizes, materials, colors, etc.) and stores it in a database.

ステップ5: Step 5:

サーバは、生成されたユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを使用して衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using a generative AI model to realistically recreate the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度の試着イメージや他の衣服の試着イメージをリクエストする。 The user reviews the displayed try-on images. If necessary, they can request try-on images from different angles or images of other garments.

ステップ9: Step 9:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ10: Step 10:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ11: Step 11:

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

ステップ12: Step 12:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。 The server generates images of the suggested outfits to try on and sends them to the user's device.

ステップ13: Step 13:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ14: Step 14:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ15: Step 15:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ16: Step 16:

サーバは、購入情報を記録し、ネットストアの決済システムに連携する。 The server records purchase information and connects it to the online store's payment system.

ステップ17: Step 17:

サーバは、ユーザに注文確認と配送情報を通知する。 The server notifies the user of the order confirmation and delivery information.

ステップ18: Step 18:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例1) (Example 1)

次に、実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。 Next, we will explain Example 1. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart glasses 214 will be referred to as the "terminal."

従来のオンラインショッピングにおいては、ユーザが実際に試着しないと衣服のフィット感やデザインが自身にどのように見えるかを正確に把握できないという問題があった。また、ユーザの好みに合わせたコーディネート提案や、試着イメージの確認が不十分であり、ユーザの購買意欲を阻害する要因となっていた。これにより、オンラインショッピングに対するユーザの満足度が低下することが課題であった。 Traditional online shopping has the problem that users cannot accurately understand how clothes will fit or how the design will look on them unless they actually try them on. Furthermore, coordination suggestions tailored to the user's preferences and the ability to check how the clothes will look when tried on are insufficient, which discourages users from making a purchase. This has led to a decline in user satisfaction with online shopping.

実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、オンラインで販売されている衣服のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣服を合成する手段と、生成された試着イメージをユーザの端末に送信する手段と、ユーザの端末に試着イメージを表示する手段と、を含む。これにより、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることが可能となる。また、コーディネート提案を販売員にリクエストし、提案された試着イメージを確認することができるため、ユーザの購買意欲を向上させることができる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing sold online, means for combining clothing with the generated high-resolution 3D model of the user, means for sending the generated try-on images to the user's device, and means for displaying the try-on images on the user's device. This allows users to easily select clothing that fits their body type and experience the virtual try-on experience as if they were actually trying on the clothes. In addition, users can request coordination suggestions from a salesperson and check the suggested try-on images, which increases the user's desire to purchase.

「ユーザ」とは、システムを利用して体型情報を入力し、全身写真を撮影およびアップロードする個人を指す。 "User" refers to an individual who uses the system to enter body type information and take and upload full-body photos.

「体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体に関する詳細なデータを指す。 "Body type information" refers to detailed data about the user's body, such as their height, weight, and measurements.

「全身写真」とは、ユーザの身体を前面、背面、側面の複数角度から撮影した画像を指す。 "Full-body photos" refer to images of the user's body taken from multiple angles, including the front, back, and side.

「オンラインで販売されている衣服のデータ」とは、インターネット上の販売サイトやストアから収集される衣服の画像、サイズ、素材、カラーなどの情報を指す。 "Data on clothing sold online" refers to information such as clothing images, sizes, materials, and colors collected from online sales sites and stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基に生成された、ユーザの身体を詳細に再現した三次元のコンピュータグラフィックスモデルを指す。 "High-resolution 3D model" refers to a three-dimensional computer graphics model that reproduces the user's body in detail, generated based on the user's body shape information and a full-body photograph.

「生成AIモデル」とは、ディープラーニング技術を用いて、ユーザの3Dモデルに衣服をリアルに合成するためにトレーニングされた人工知能モデルを指す。 "Generative AI model" refers to an artificial intelligence model trained using deep learning technology to realistically synthesize clothing onto a user's 3D model.

「試着イメージ」とは、生成AIモデルを用いてユーザの3Dモデルに選択された衣服を合成した画像を指す。 "Try-on image" refers to an image created by combining the selected clothing onto the user's 3D model using a generative AI model.

「ユーザの端末」とは、スマートフォン、タブレット、パソコンなどユーザが使用する電子機器を指す。 "User's device" refers to the electronic device used by the user, such as a smartphone, tablet, or PC.

「コーディネート提案」とは、ユーザの体型情報や好みに基づいて、販売員が推奨する複数の衣服の組み合わせを指す。 "Coordination suggestions" refer to combinations of multiple items of clothing recommended by a salesperson based on the user's body type information and preferences.

「販売員」とは、システムを通じてユーザに対してコーディネート提案を行う業務を担当する者を指す。 "Salesperson" refers to a person in charge of making outfit suggestions to users through the system.

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、以下のような手順でプログラムが実行される。 This invention is a virtual try-on system that uses the user's body type information and full-body photographs taken from multiple angles to generate a fitting image tailored to the user. In this system, the program is executed in the following steps:

まず、ユーザは、スマートフォンやPC上で専用のアプリケーションを起動し、自身の体型情報を入力する。体型情報には身長、体重、スリーサイズが含まれる。その後、ユーザは前面、背面、および側面の全身写真を撮影し、アプリケーションにアップロードする。このアップロードされたデータは、端末を介してサーバに送信される。 First, the user launches a dedicated application on their smartphone or PC and enters their body information, including height, weight, and measurements. The user then takes full-body photos of the front, back, and side and uploads them to the application. This uploaded data is then sent to the server via the device.

端末は、入力およびアップロードされたデータをHTTPSプロトコルを利用して安全にサーバに送信する。サーバは、これらのデータを受け取り、高精度にユーザの体型を解析するために、画像解析技術であるOpenCVを使用する。解析されたデータを基に、高解像度の3Dモデルを生成するためにディープラーニングフレームワークのTensorFlowやPyTorchを用いる。 The device securely transmits input and uploaded data to the server using the HTTPS protocol. The server receives this data and uses the image analysis technology OpenCV to analyze the user's body shape with high accuracy. The deep learning frameworks TensorFlow and PyTorch are used to generate a high-resolution 3D model based on the analyzed data.

サーバは、ユーザのために3Dモデルを生成した後、提携ネットストアのAPIまたはウェブスクレイピング技術を使用して、オンラインで販売されている衣服のデータを収集する。このデータには、衣服の画像、サイズ、素材、カラーなどが含まれる。これらのデータはデータベースに保存され、ユーザの3Dモデルに対して衣服を合成する際に使用される。 After generating a 3D model for the user, the server uses APIs or web scraping technology from partner online stores to collect data about clothing sold online. This data includes clothing images, sizes, materials, colors, etc. This data is stored in a database and used to synthesize clothing onto the user's 3D model.

サーバは、生成された3Dモデルに対して、ユーザが選択した衣服を生成AIモデルを用いて合成する。生成AIモデルは、ディープラーニング技術によってトレーニングされており、衣服のフィット感やテクスチャをリアルに再現する。この際、TensorFlowやPyTorchを利用したディープラーニングアルゴリズムを適用する。 The server then uses a generative AI model to synthesize the clothing selected by the user onto the generated 3D model. The generative AI model is trained using deep learning technology to realistically reproduce the fit and texture of the clothing. Deep learning algorithms using TensorFlow and PyTorch are used in this process.

生成された試着イメージは、複数の角度から撮影され、JPEGまたはPNG形式の画像ファイルとしてユーザの端末に送信される。端末は、受信した試着イメージをアプリケーションのユーザインタフェースに表示する。ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 The generated try-on images are photographed from multiple angles and sent to the user's device as JPEG or PNG image files. The device displays the received try-on images on the application's user interface. The user can review the displayed try-on images and request images from different angles or try-on images of other garments as needed.

さらに、ユーザはコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。サーバは、コーディネート提案を担当する販売員にリクエストを送信し、販売員はユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。このフィードバックを基にサーバは新たな試着イメージを生成し、ユーザの端末に提示する。ユーザは最終的に、提案されたコーディネートを確認し、購入を決定する場合は「購入」ボタンをクリックする。この購入情報は、端末を介してサーバに送信され、ネットストアの決済システムと連携して購入手続きが行われる。 Furthermore, if the user wishes to receive outfit suggestions, they click the "Request outfit suggestions" button. The server sends a request to the salesperson in charge of outfit suggestions, who then suggests an appropriate outfit based on the user's body type and preferences and sends feedback to the server. Based on this feedback, the server generates a new try-on image and displays it on the user's device. Finally, the user checks the suggested outfit and clicks the "Purchase" button if they decide to purchase. This purchase information is sent to the server via the device, and the purchase process is carried out in conjunction with the online store's payment system.

具体例 Specific examples

例えば、ユーザが「青色のジーンズ」と「白いTシャツ」の試着を希望する場合、 For example, if a user wants to try on "blue jeans" and a "white T-shirt,"

1. ユーザは、身長170cm、体重65kg、スリーサイズ90-75-90と入力し、前面、背面、および側面の全身写真をアップロードする。 1. The user enters their height as 170cm, weight as 65kg, and measurements as 90-75-90, and uploads full-body photos of the front, back, and side.

2. 端末は、これらの情報をサーバに送信する。 2. The device sends this information to the server.

3. サーバは、「青色のジーンズ」と「白いTシャツ」のデータをウェブスクレイピング技術を用いて収集し、データベースに保存する。 3. The server uses web scraping technology to collect data on "blue jeans" and "white T-shirts" and stores it in a database.

4. サーバは、画像解析技術を用いてユーザの高解像度3Dモデルを生成し、生成AIモデルを使って3Dモデルに対してジーンズとTシャツを合成する。 4. The server uses image analysis technology to generate a high-resolution 3D model of the user, and then uses a generative AI model to synthesize jeans and a T-shirt onto the 3D model.

5. サーバは、複数の角度からの試着イメージを生成し、ユーザの端末に送信する。 5. The server generates try-on images from multiple angles and sends them to the user's device.

6. ユーザは、新しく生成された試着イメージを確認し、さらに「このコーディネートで購入」と決定することができる。 6. The user can check the newly generated try-on image and then decide to "purchase this outfit."

プロンプト文の例 Example prompt

「ユーザの身長、体重、スリーサイズのデータを入力し、前面、背面、側面から撮影した全身写真をアップロードしてください。」 "Enter your height, weight, and measurements, and upload full-body photos taken from the front, back, and side."

このシステムにより、ユーザは自分の体型にフィットする衣服を簡単に見つけ、バーチャル試着を通じて実際に試着するかのような体験を得ることができる。また、コーディネート提案をリクエストし、提案された試着イメージを確認することで、オンラインでの衣服購入がよりスムーズかつ満足のいくものになる。 This system allows users to easily find clothes that fit their body type and experience the same sensation of trying them on in real life through virtual try-on. They can also request outfit suggestions and check the suggested try-on images, making online clothing shopping a smoother and more satisfying experience.

実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 will be explained using Figure 11.

ステップ1: Step 1:

ユーザがアプリケーションを起動する。 The user launches the application.

具体的動作:ユーザはスマートフォンやPC上で専用アプリケーションをタップまたはクリックして起動し、最初の画面に遷移する。 Specific operation: The user taps or clicks on the dedicated application on their smartphone or PC to launch it and proceeds to the first screen.

入力:なし Input: None

出力:アプリケーションが起動し、ユーザが体型情報を入力できる画面が表示される。 Output: The application launches and displays a screen where the user can enter body information.

ステップ2: Step 2:

ユーザが体型情報を入力する。 The user enters body type information.

具体的動作:ユーザは、身長、体重、スリーサイズなどの体型情報をアプリケーションのフォームに入力する。また、前面、背面、側面から撮影した全身写真を用意する。 Specific operation: The user enters body information such as height, weight, and measurements into the application form. They also provide full-body photos taken from the front, back, and side.

入力:身長、体重、スリーサイズなどの体型情報 Input: Body information such as height, weight, and measurements

出力:入力された体型情報と全身写真の表示 Output: Display of entered body shape information and full-body photo

ステップ3: Step 3:

ユーザが全身写真をアップロードする。 Users upload full-body photos.

具体的動作:ユーザは前面、背面、側面の全身写真をアプリケーション内のアップロード機能を用いてアップロードする。 Specific operation: The user uploads full-body photos of the front, back, and side using the upload function within the application.

入力:前面、背面、側面の全身写真 Input: Full-body photos (front, back, and side)

出力:全身写真のアップロード完了メッセージ Output: Full-body photo upload complete message

ステップ4: Step 4:

端末が入力データをサーバに送信する。 The device sends the input data to the server.

具体的動作:端末がユーザの体型情報および全身写真をHTTPSプロトコルでサーバに送信する。 Specific operation: The device sends the user's body shape information and full-body photo to the server via the HTTPS protocol.

入力:ユーザの体型情報および全身写真 Input: User's body type information and full-body photo

出力:データがサーバに送信され、処理待ち状態になる。 Output: The data is sent to the server and awaits processing.

ステップ5: Step 5:

サーバが体型情報と全身写真を解析する。 The server analyzes body shape information and full-body photos.

具体的動作:サーバは、OpenCVを用いて画像解析を行い、ユーザの体型情報を基に3Dモデルの作成に必要な特徴を抽出する。 Specific operation: The server performs image analysis using OpenCV and extracts the features necessary to create a 3D model based on the user's body shape information.

入力:体型情報および全身写真 Input: Body information and full-body photo

出力:特徴抽出済みのデータ Output: Feature-extracted data

ステップ6: Step 6:

サーバが高解像度3Dモデルを生成する。 The server generates a high-resolution 3D model.

具体的動作:サーバがTensorFlowやPyTorchを利用してディープラーニングを行い、ユーザの体型に基づく高解像度の3Dモデルを生成する。 Specific operation: The server uses TensorFlow and PyTorch for deep learning to generate a high-resolution 3D model based on the user's body shape.

入力:特徴抽出済みのデータ Input: Feature-extracted data

出力:高解像度3Dモデル Output: High-resolution 3D model

ステップ7: Step 7:

サーバがオンラインで販売されている衣服のデータを収集する。 The server collects data on clothing sold online.

具体的動作:サーバは提携ネットストアのAPIを呼び出し、またはウェブスクレイピングを使用して最新の衣服データ(画像、サイズ、素材、カラーなど)を収集する。 Specific operation: The server calls the API of partner online stores or uses web scraping to collect the latest clothing data (images, sizes, materials, colors, etc.).

入力:提携ネットストアのAPIエンドポイントまたはスクレイピングターゲットのURL Input: API endpoint of affiliated online store or URL of scraping target

出力:衣服データベースに保存された最新の衣服データ Output: Latest clothing data stored in the clothing database

ステップ8: Step 8:

サーバが生成AIモデルを用いて衣服を3Dモデルに合成する。 The server uses a generative AI model to synthesize the clothing onto the 3D model.

具体的動作:サーバは生成AIモデルを使用し、収集された衣服データを基にユーザの3Dモデルに衣服を合成する。 Specific operation: The server uses a generative AI model to synthesize clothing onto the user's 3D model based on the collected clothing data.

入力:3Dモデルおよび衣服データ Input: 3D model and clothing data

出力:複数の角度から見た試着イメージ Output: Try-on images from multiple angles

ステップ9: Step 9:

サーバが生成された試着イメージを端末に送信する。 The server sends the generated try-on image to the device.

具体的動作:サーバは試着イメージをJPEGまたはPNG形式で生成し、ユーザの端末に送信する。CDN経由での高速なデータ転送を行うこともある。 Specific operation: The server generates try-on images in JPEG or PNG format and sends them to the user's device. High-speed data transfer may also be performed via a CDN.

入力:試着イメージ Input: Try-on image

出力:端末に送信された試着イメージ Output: Try-on image sent to the device

ステップ10: Step 10:

端末が試着イメージをユーザインタフェースに表示する。 The device displays the try-on image on the user interface.

具体的動作:端末は受信した試着イメージをアプリケーションのユーザインタフェースに表示し、ユーザが操作できるようにする。 Specific operation: The device displays the received try-on image on the application's user interface, allowing the user to operate it.

入力:試着イメージ Input: Try-on image

出力:ユーザインタフェースに表示された試着イメージ Output: Try-on image displayed on the user interface

ステップ11: Step 11:

ユーザが試着イメージを確認し、必要に応じてリクエストを送信する。 Users can check the fitting images and submit requests if necessary.

具体的動作:ユーザは試着イメージを確認し、異なる角度からのイメージや他の衣服の試着イメージをリクエストする場合、アプリケーション内の対応するボタンをクリックする。 Specific operation: The user reviews the try-on images and, if they wish to request images from different angles or images of other garments being tried on, clicks the corresponding button in the application.

入力:ユーザのリクエスト Input: User request

出力:リクエスト内容がサーバに送信される Output: The request is sent to the server.

ステップ12: Step 12:

ユーザがコーディネート提案をリクエストする。 The user requests outfit suggestions.

具体的動作:ユーザがコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 Specific operation: If the user would like outfit suggestions, they click the "Request outfit suggestions" button.

入力:ユーザのコーディネート提案リクエスト Input: User's outfit suggestion request

出力:リクエストがサーバに送信される。 Output: The request is sent to the server.

ステップ13: Step 13:

サーバが販売員にリクエストを送信する。 The server sends the request to the salesperson.

具体的動作:サーバはコーディネート提案リクエストを販売員に送信し、必要なユーザ情報も併せて提供する。 Specific operation: The server sends a coordination suggestion request to the salesperson, along with the necessary user information.

入力:ユーザのリクエスト Input: User request

出力:リクエストが販売員に送信される Output: The request is sent to the salesperson.

ステップ14: Step 14:

販売員が提案をフィードバックする。 Salespeople will provide feedback on suggestions.

具体的動作:販売員はユーザの体型情報や好みに基づいて適切なコーディネートを考え、サーバにフィードバックを送信する。 Specific operation: The salesperson considers the appropriate outfit based on the user's body type and preferences, and sends feedback to the server.

入力:ユーザの体型情報および好み Input: User's body type and preferences

出力:コーディネート提案のフィードバック Output: Feedback on outfit suggestions

ステップ15: Step 15:

サーバがコーディネート試着イメージを生成する。 The server generates images of outfits to try on.

具体的動作:サーバは販売員からのフィードバックを基に新たな試着イメージを生成し、ユーザの端末に送信する。 Specific operation: The server generates new try-on images based on feedback from the salesperson and sends them to the user's device.

入力:コーディネート提案のフィードバック Input: Feedback on outfit suggestions

出力:端末に送信されたコーディネート試着イメージ Output: Try-on image of outfit sent to device

ステップ16: Step 16:

ユーザが提案を確認し、購入を決定する。 The user reviews the offer and decides to purchase.

具体的動作:ユーザは新しく生成されたコーディネート試着イメージを確認し、気に入った場合は「購入」ボタンをクリックする。 Specific operation: The user checks the newly generated outfit try-on image and clicks the "Purchase" button if they like it.

入力:コーディネート試着イメージ Input: Coordination try-on image

出力:購入リクエストがサーバに送信される Output: Purchase request sent to server

ステップ17: Step 17:

端末が購入情報をサーバに送信し、ネットストアと連携する。 The device sends purchase information to the server and connects with the online store.

具体的動作:端末は購入情報をサーバに送信し、サーバはネットストアの決済システムと連携して購入手続きを行う。 Specific operation: The terminal sends purchase information to the server, and the server works with the online store's payment system to complete the purchase process.

入力:購入情報 Enter: Purchase information

出力:購入手続きが完了し、ユーザに確認通知が送信される Output: The purchase is completed and a confirmation is sent to the user.

(応用例1) (Application Example 1)

次に、応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。 Next, we will explain Application Example 1. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart glasses 214 will be referred to as the "terminal."

従来の実店舗での試着には、時間と手間がかかるという問題があった。また、実際に試着できる衣服の種類も限られており、多くの選択肢を試すことが困難であった。さらに、オンラインショッピングにおいては、実際の商品がどのように見えるかを確認することができないため、購入後の返品や交換が多発するという課題があった。これらの問題を解決するためには、ユーザが簡単に衣服を試着し、自身の体型に合った最適な衣服を選択できるシステムが必要である。 Traditionally, trying on clothes in physical stores was time-consuming and labor-intensive. Additionally, the types of clothing that could be tried on were limited, making it difficult to try out many options. Furthermore, with online shopping, customers were unable to see how the actual product would look, leading to frequent returns and exchanges after purchase. To solve these problems, a system was needed that allowed users to easily try on clothes and select the best fit for their body type.

応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Application Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、購入可能な物品のデータを収集する手段と、生成されたユーザの3Dモデルに対して物品を合成する手段と、ユーザの端末にバーチャル試着イメージを提示する手段と、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードする手段と、提携オンラインストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている物品のデータを収集し、保存する手段と、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する手段と、複数の角度から試着イメージを生成し、ユーザの端末に送信する手段と、を含む。これにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことが可能となり、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能となる。 In this invention, the server includes means for inputting a user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on available items, means for overlaying items onto the generated 3D model of the user, means for presenting virtual try-on images to the user's device, means for the user to input body type information and upload a full-body photo using their own device, means for collecting and saving data on items sold online using the API or web scraping technology of affiliated online stores, means for analyzing the user's body type information and uploaded full-body photos and generating a high-resolution 3D model of the user, and means for generating try-on images from multiple angles and sending them to the user's device. This allows users to smoothly try on clothes virtually in a physical store, shortening the time it takes to actually try them on and combining the convenience of online shopping with the experience of a physical store.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体的な寸法および特徴を指す。 "User's body type information" refers to the user's physical measurements and characteristics, such as height, weight, and three sizes.

「全身写真」とは、ユーザの体全体が写った写真であり、前面、背面および側面から撮影された複数の写真を含む。 A "full-body photo" is a photo that shows the user's entire body, including multiple photos taken from the front, back, and side.

「購入可能な物品のデータ」とは、提携オンラインストアや店舗で販売されている衣服やアクセサリーなどの商品の情報であり、画像、サイズ、素材、カラーなどの属性を含む。 "Purchasable Item Data" refers to information about products such as clothing and accessories sold at affiliated online stores and in-store, including attributes such as images, size, material, and color.

「3Dモデル」とは、ユーザの体型情報および全身写真を基に生成される高解像度の三次元デジタルモデルを指す。 "3D model" refers to a high-resolution three-dimensional digital model generated based on the user's body shape information and full-body photograph.

「物品を合成する手段」とは、生成されたユーザの3Dモデルに対して、選択された衣服やアクセサリーを仮想的に適用し、リアルな試着イメージを生成するプロセスを指す。 "Means for synthesizing items" refers to the process of virtually applying selected clothing and accessories to the generated 3D model of the user to generate a realistic try-on image.

「バーチャル試着イメージ」とは、ユーザの3Dモデルに選択された衣服やアクセサリーを合成した画像であり、複数の角度から表示される試着のシミュレーション画像を指す。 "Virtual try-on image" refers to an image that combines selected clothing and accessories with a 3D model of the user, simulating trying on the clothing and accessories from multiple angles.

「提携オンラインストアのAPI」とは、提携しているオンラインストアから販売されている商品のデータを自動的に取得するためのアプリケーションプログラミングインターフェースを指す。 "Affiliated Online Store API" refers to an application programming interface for automatically obtaining data on products sold by affiliated online stores.

「ウェブスクレイピング技術」とは、ウェブサイトから自動的にデータを抽出する技術を指す。 "Web scraping technology" refers to technology that automatically extracts data from websites.

「高解像度3Dモデルを生成する手段」とは、ユーザの体型情報および全身写真を解析し、高精度な三次元デジタルモデルを作成するプロセスを指す。 "Means for generating a high-resolution 3D model" refers to the process of analyzing a user's body shape information and full-body photograph to create a highly accurate three-dimensional digital model.

「コーディネートの提案をリクエストする手段」とは、ユーザが自身の好みに基づいたコーディネートの提案を販売員に依頼するための機能を指す。 "Means to request outfit suggestions" refers to the function that allows a user to request outfit suggestions from a salesperson based on the user's preferences.

「バーチャル試着を行う」とは、ユーザが実際に物品を試着する代わりにデジタルモデル上で試すことを可能にする行為を指す。 "Performing a virtual try-on" refers to the act of allowing a user to try on an item on a digital model instead of actually trying it on.

本発明は、実店舗での試着体験を向上させるために、ユーザの体型情報および全身写真を使用してバーチャル試着を実現するシステムである。このシステムは、ユーザの端末(スマートフォン)と、一連のサーバ、および提携オンラインストアのAPIまたはウェブスクレイピング技術を用いて構築される。 This invention is a system that uses a user's body type information and full-body photograph to enable virtual try-on, improving the fitting experience in physical stores. The system is built using the user's device (smartphone), a series of servers, and APIs or web scraping technologies from affiliated online stores.

プログラムの生成 Program generation

システムは、以下のハードウェアおよびソフトウェアを用いる: The system uses the following hardware and software:

ユーザ端末(スマートフォン):AndroidやiOSデバイス、カメラ機能を持つ User device (smartphone): Android or iOS device with camera functionality

サーバ:データ処理および生成AIモデルを実行(TensorFlowやPyTorchを使用) Server: Data processing and generative AI model execution (using TensorFlow or PyTorch)

提携オンラインストアのAPIまたはウェブスクレイピング技術(Beautiful Soup、Scrapyなど) Partner online store API or web scraping technology (Beautiful Soup, Scrapy, etc.)

データベース:MySQLまたはPostgreSQL Database: MySQL or PostgreSQL

プログラムの処理概要 Program processing overview

サーバは、まずユーザが端末から送信した体型情報と全身写真を受け取り、画像解析技術を使用してユーザの高解像度3Dモデルを生成する。この3Dモデルは、ディープラーニングを用いて精密に作成され、ユーザの体型に対するリアルなフィット感を再現する。 The server first receives the body shape information and full-body photo sent by the user from their device, and then uses image analysis technology to generate a high-resolution 3D model of the user. This 3D model is precisely created using deep learning, recreating a realistic fit to the user's body shape.

次に、サーバは提携オンラインストアから収集した衣服データを用いて、ユーザの3Dモデルに選択された衣服を合成する。この合成プロセスは、生成AIモデルを活用し、衣服のテクスチャやフィット感を高度に再現する。複数の角度から撮影された試着イメージが生成され、ユーザの端末に送信される。 The server then uses clothing data collected from partner online stores to synthesize the selected clothing onto the user's 3D model. This synthesis process utilizes generative AI models to accurately reproduce the texture and fit of the clothing. Try-on images taken from multiple angles are generated and sent to the user's device.

ユーザは端末上でバーチャル試着イメージを確認し、気に入った場合は購入プロセスに進むことができる。また、ユーザはコーディネート提案を希望する場合、販売員にリクエストを送信することができる。販売員が提案したコーディネートは再度バーチャル試着イメージとして生成され、ユーザに提示される。 Users can check the virtual try-on images on their devices and, if they like them, proceed with the purchase process. Furthermore, if users would like a coordination suggestion, they can send a request to the salesperson. The coordination suggested by the salesperson is then regenerated as a virtual try-on image and presented to the user.

具体例とプロンプト文 Examples and prompts

具体的なプロンプト文として、提携オンラインストアのAPIを使用して衣服データを収集する際には、以下のようなコマンドを実行する: As a specific prompt, when collecting clothing data using the API of a partner online store, run the following command:

curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY" curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY"

また、ウェブスクレイピング技術を用いる場合は、PythonのBeautiful Soupを使用し、指定されたURLから商品のデータを抽出するスクリプトが以下のようになる: Also, if you use web scraping technology, here's a script that uses Python's Beautiful Soup to extract product data from a specified URL:

from bs4 import BeautifulSoup from bs4 import BeautifulSoup

import requests Import requests

url = "https://netstore.com/products" url = "https://netstore.com/products"

response = requests.get(url) response = requests.get(url)

soup = BeautifulSoup(response.content, 'html.parser') soup = BeautifulSoup(response.content, 'html.parser')

for product in soup.find_all('div', class_='product'): for product in soup.find_all('div', class_='product'):

product_name = product.find('h2').get_text() product_name = product.find('h2').get_text()

product_price = product.find('span', class_='price').get_text() product_price = product.find('span', class_='price').get_text()

print(product_name, product_price) print(product_name, product_price)

このシステムにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことができ、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能になる。 This system allows users to seamlessly try on clothes virtually in a physical store, shortening the time spent trying them on in person and combining the convenience of online shopping with the experience of a physical store.

応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the identification process in Application Example 1 will be explained using Figure 12.

ステップ1: Step 1:

ユーザは自身の体型情報を端末に入力する。ユーザは身長、体重、スリーサイズといった身体の属性を端末に入力し、入力されたデータはサーバに送信される。この時点での入力はユーザの身体的な数値データであり、出力はサーバに送信される生のデータである。 The user enters their body type information into the terminal. The user enters physical attributes such as height, weight, and measurements into the terminal, and the entered data is sent to the server. At this point, the input is the user's physical numerical data, and the output is raw data sent to the server.

ステップ2: Step 2:

ユーザは複数角度から全身写真を撮影し、端末を通じてアップロードする。ユーザは前面、背面および側面からの写真を端末のカメラで撮影し、それらの画像データをサーバに送信する。この時点での入力は複数の画像ファイルであり、出力はサーバに保存された画像データである。 The user takes full-body photos from multiple angles and uploads them via their device. The user takes photos from the front, back, and side using the device's camera and sends the image data to the server. At this point, the input is multiple image files, and the output is image data stored on the server.

ステップ3: Step 3:

サーバは提携オンラインストアのAPIまたはウェブスクレイピング技術を使用して、販売されている物品のデータを収集する。具体的には、サーバがAPIエンドポイントにリクエストを送り、レスポンスとして商品情報を受け取る。または、ウェブページを解析して必要な商品データを取得する。この時点での入力はAPIリクエストまたはHTMLコンテンツであり、出力は商品データのセットである。 The server uses the API of a partner online store or web scraping technology to collect data on the items being sold. Specifically, the server sends a request to an API endpoint and receives product information in response, or parses a web page to obtain the required product data. At this point, the input is the API request or HTML content, and the output is a set of product data.

ステップ4: Step 4:

サーバはユーザの体型情報および全身写真を解析し、高解像度の3Dモデルを生成する。収集した画像データと体型情報をディープラーニングモデル(TensorFlowやPyTorchを用いる)を使って解析し、ユーザの高精度3Dモデルを作成する。この時点での入力は体型情報と画像データであり、出力は3Dモデルである。 The server analyzes the user's body shape information and full-body photo to generate a high-resolution 3D model. The collected image data and body shape information are analyzed using a deep learning model (using TensorFlow and PyTorch) to create a highly accurate 3D model of the user. At this point, the input is body shape information and image data, and the output is a 3D model.

ステップ5: Step 5:

サーバは生成AIモデルを用いて、3Dモデルに選択された物品を合成する。収集された商品データからユーザが選んだものを、3Dモデルに合成し、仮想試着イメージを作成する。生成AIモデルにより、衣服のテクスチャやフィット感を高精度に再現する。この時点での入力は3Dモデルと商品データであり、出力は試着イメージである。 The server uses a generative AI model to synthesize the selected item onto a 3D model. The user selects from the collected product data and synthesizes it onto the 3D model to create a virtual try-on image. The generative AI model reproduces the texture and fit of the clothing with high accuracy. At this point, the input is the 3D model and product data, and the output is a try-on image.

ステップ6: Step 6:

サーバは生成された試着イメージを複数の角度から撮影した状態でユーザの端末に送信する。ユーザの端末ではこれらのイメージが表示され、ユーザはバーチャル試着イメージを確認することができる。この時点での入力は試着イメージデータであり、出力はユーザの端末に表示されるバーチャル試着イメージである。 The server then sends the generated try-on images, photographed from multiple angles, to the user's device. These images are displayed on the user's device, allowing the user to check the virtual try-on image. At this point, the input is the try-on image data, and the output is the virtual try-on image displayed on the user's device.

ステップ7: Step 7:

ユーザはコーディネートの提案をリクエストする場合、端末からサーバにリクエストを送信する。サーバはこのリクエストを受け取り、担当する販売員に通知する。この時点での入力はユーザからのリクエストであり、出力は販売員への通知である。 When a user requests a coordination suggestion, they send a request from their terminal to the server. The server receives this request and notifies the salesperson in charge. At this point, the input is the request from the user, and the output is a notification to the salesperson.

ステップ8: Step 8:

販売員はコーディネート提案を作成し、サーバにフィードバックを送信する。サーバは再度ユーザの3Dモデルに基づいて、提案されたコーディネートの仮想試着イメージを生成する。この時点での入力は販売員からのコーディネート提案であり、出力は新しい試着イメージである。 The salesperson creates a coordination suggestion and sends feedback to the server. The server again generates a virtual try-on image of the suggested coordination based on the user's 3D model. At this point, the input is the coordination suggestion from the salesperson, and the output is a new try-on image.

ステップ9: Step 9:

サーバは生成されたコーディネート試着イメージをユーザの端末に送信し、ユーザはこれを確認する。ユーザが購入を決定した場合、端末から「購入」ボタンをクリックし、購入情報がサーバに送信される。この時点での入力は仮想試着イメージとユーザの購入決定であり、出力は購入手続きの進行である。 The server sends the generated coordinated try-on image to the user's device, where the user confirms it. If the user decides to purchase, they click the "Purchase" button on their device, and the purchase information is sent to the server. The input at this point is the virtual try-on image and the user's purchase decision, and the output is the progress of the purchase procedure.

なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。 It is also possible to further combine an emotion engine that estimates the user's emotion. That is, the identification processing unit 290 may estimate the user's emotion using the emotion identification model 59 and perform identification processing using the user's emotion.

本発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣服を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたものである。このシステムにより、ユーザの感情に応じた衣服やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention combines a virtual try-on system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits that correspond to the user's emotions, providing a more personalized shopping experience.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力する。さらに、複数角度から撮影した全身写真をアップロードする。 Users launch the application and enter their body information (height, weight, measurements, etc.). They also upload full-body photos taken from multiple angles.

端末は、これらの体型情報と全身写真をサーバに送信する。 The device sends this body shape information and a full-body photo to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

3. 3Dモデルの生成および衣服合成 3. 3D model generation and clothing synthesis

サーバは、ユーザの体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。これには、最新の画像認識アルゴリズムを使用する。 The server analyzes the user's body shape information and full-body photo data to generate a high-resolution 3D model of the user, using the latest image recognition algorithms.

サーバは、生成AIモデルを用いて3Dモデルに対して選択した衣服を合成する。このプロセスでは、衣服のフィット感や質感をリアルに再現するためにディープラーニング技術を活用する。 The server uses a generative AI model to synthesize the selected clothing onto the 3D model. This process utilizes deep learning techniques to realistically recreate the fit and texture of the clothing.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度の試着イメージや他の衣服の試着をリクエストする。 The user can review the displayed try-on images and, if necessary, request images from different angles or to try on other garments.

5. 感情エンジンによる感情認識 5. Emotion Recognition Using an Emotion Engine

端末は、ユーザの表情や音声を感情エンジンにより解析し、ユーザの感情状態を識別する。これには、カメラやマイクを使用してリアルタイムでデータを取得する。 The device uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. This is done by capturing data in real time using a camera and microphone.

サーバは、感情エンジンからの感情データを基にし、試着イメージに対するユーザの反応を評価する。 The server evaluates the user's reaction to the try-on images based on emotional data from the emotion engine.

6. コーディネート提案および調整 6. Coordination proposals and adjustments

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報、好み、および感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and displays them on the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

7. 購入手続き 7. Purchase Procedure

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

本発明のシステムにより、ユーザは自分の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、感情エンジンを活用してユーザの感情状態に基づいた提案を行うことで、よりパーソナライズされたショッピング体験が実現する。こうした一連の処理により、ユーザの満足度を高め、ネットショッピングでの購買体験を向上させることができる。 The system of the present invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying it on. Furthermore, by utilizing an emotion engine to make suggestions based on the user's emotional state, a more personalized shopping experience is realized. This series of processes increases user satisfaction and improves the online shopping experience.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。さらに、前面、背面、側面から撮影した全身写真をアプリケーションにアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side to the application.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、画像認識アルゴリズムを用いてユーザの高解像度3Dモデルを生成する。 The server analyzes the received body shape information and full-body photo data and uses image recognition algorithms to generate a high-resolution 3D model of the user.

ステップ4: Step 4:

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

ステップ5: Step 5:

サーバは、生成したユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを用いて衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using the generative AI model to realistically reproduce the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度からの試着イメージや他の衣服の試着をリクエストする。 The user reviews the displayed try-on images. If necessary, they can request images from different angles or try on other garments.

ステップ9: Step 9:

端末は、ユーザの表情をカメラで撮影し、または音声をマイクで収集し、それらのデータを感情エンジンに送信する。 The device captures the user's facial expressions with a camera or collects their voice with a microphone, and then sends this data to the emotion engine.

ステップ10: Step 10:

サーバは、感情エンジンを使用して、ユーザの表情や音声を解析し、ユーザの感情状態を識別する。例えば、ユーザが笑顔であれば「満足」、眉をひそめていれば「不安」と識別する。 The server uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. For example, if the user is smiling, it will be identified as "satisfied," and if they are frowning, it will be identified as "anxious."

ステップ11: Step 11:

サーバは、感情エンジンからの感情状態データを基に、次のアクションを決定する。例えば、ユーザが満足している場合は提案をそのまま継続し、不安を感じている場合は別のオプションを提示する。 The server determines the next action based on the emotional state data from the emotion engine. For example, if the user is satisfied, it continues with the suggestion, but if they are anxious, it presents a different option.

ステップ12: Step 12:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ13: Step 13:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ14: Step 14:

販売員は、ユーザの体型情報、好み、感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

ステップ15: Step 15:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and sends them to the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

ステップ16: Step 16:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ17: Step 17:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ18: Step 18:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ19: Step 19:

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

ステップ20: Step 20:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例2) (Example 2)

次に、実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。 Next, we will explain Example 2. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart glasses 214 will be referred to as the "terminal."

近年、オンラインショッピングの普及に伴い、リモートでの試着やパーソナライズされたショッピング体験の需要が高まっている。しかし、現行のシステムでは、実際に衣服を試着する場合のフィット感や質感を十分に再現することが難しく、ユーザの感情に基づいた提案を行うことができなかった。そのため、ユーザの体験を向上させるためのよりリアルなバーチャル試着システムが求められている。 In recent years, with the spread of online shopping, there has been an increasing demand for remote try-on and personalized shopping experiences. However, current systems have difficulty adequately reproducing the fit and texture of clothing when actually trying on, and are unable to make suggestions based on the user's emotions. Therefore, there is a need for a more realistic virtual try-on system to improve the user experience.

実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 2 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身画像を複数方向から撮影し、アップロードする手段と、販売されている衣服のデータを収集する手段と、生成されたユーザの三次元モデルに対して衣料品を合成する手段と、ユーザの端末に試着イメージを提示する手段と、ユーザの表情や音声を解析し感情を認識する手段と、感情に基づいて提案を調整する手段と、を含む。これにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body images of the user from multiple angles, means for collecting data on clothing available for sale, means for combining clothing items with the generated three-dimensional model of the user, means for presenting images of the items to be tried on on the user's device, means for analyzing the user's facial expressions and voice to recognize emotions, and means for adjusting suggestions based on emotions. This allows the user to virtually try on clothing that fits their body type and receive personalized suggestions based on their emotional state.

「ユーザの体型情報を入力する手段」とは、ユーザの身長、体重、スリーサイズなどの体型に関するデータを入力するためのインターフェースおよびシステムを指す。 "Means for inputting user's body type information" refers to an interface and system for inputting data related to the user's body type, such as height, weight, and measurements.

「ユーザの全身画像を複数方向から撮影し、アップロードする手段」とは、ユーザの全身を異なる角度から撮影し、その画像データをシステムにアップロードするためのカメラおよびアップロード機能を指す。 "Means for taking and uploading full-body images of the user from multiple angles" refers to the camera and upload function for taking images of the user's entire body from different angles and uploading that image data to the system.

「販売されている衣服のデータを収集する手段」とは、ネットストアやその他の情報源から、販売されている衣服の画像、サイズ、素材、カラーなどのデータを収集し、保存するための技術を指す。 "Means for collecting data on clothing for sale" refers to technology for collecting and storing data such as images, sizes, materials, and colors of clothing for sale from online stores and other sources.

「生成されたユーザの三次元モデルに対して衣料品を合成する手段」とは、ユーザの体型情報および全身画像を基にして生成された三次元モデルに、選択された衣服をリアルに合成するためのアルゴリズムおよびシステムを指す。 "Means for combining clothing items with a generated 3D model of the user" refers to an algorithm and system for realistically combining selected clothing items with a 3D model generated based on the user's body shape information and full-body image.

「ユーザの端末に試着イメージを提示する手段」とは、生成された試着イメージをユーザの端末(スマートフォン、タブレット、PCなど)の画面に表示するためのインターフェースおよびシステムを指す。 "Means for presenting try-on images on the user's device" refers to the interface and system for displaying the generated try-on images on the screen of the user's device (smartphone, tablet, PC, etc.).

「ユーザの表情や音声を解析し感情を認識する手段」とは、カメラやマイクなどのデバイスを使用して取得したユーザの表情や音声データを解析し、ユーザの感情状態を識別するためのアルゴリズムおよびシステムを指す。 "Means for analyzing a user's facial expressions and voice to recognize emotions" refers to algorithms and systems that analyze a user's facial expressions and voice data acquired using devices such as cameras and microphones, and identify the user's emotional state.

「感情に基づいて提案を調整する手段」とは、ユーザの感情データを基にして、提案される衣服やコーディネートをリアルタイムで変更・調整するための技術およびシステムを指す。 "Means for adjusting suggestions based on emotions" refers to technology and systems for changing and adjusting suggested clothing and outfits in real time based on the user's emotional data.

本発明は、バーチャル試着システムであり、ユーザの体型情報および全身画像を基に高解像度の三次元モデルを生成し、これに衣服をリアルに合成する。さらに、ユーザの表情や音声から感情を解析し、それに基づいて衣服の提案を調整する機能を有する。 This invention is a virtual fitting system that generates a high-resolution three-dimensional model based on the user's body type information and full-body image, and then realistically combines clothing onto it. It also has the ability to analyze the user's emotions from their facial expressions and voice, and adjust clothing suggestions based on that.

このシステムは、以下のハードウェアおよびソフトウェアを用いる: This system uses the following hardware and software:

ユーザの体型情報を入力するためのインターフェース(スマートフォンやPCなど) An interface for inputting the user's body shape information (such as a smartphone or PC)

ユーザの全身画像を撮影するカメラ(スマートフォン内蔵カメラなど) A camera that captures a full-body image of the user (such as a camera built into a smartphone)

販売されている衣服のデータを収集するためのAPIまたはウェブスクレイピングツール API or web scraping tool for collecting data on clothing for sale

三次元モデルを生成するための生成AIモデル(例:Pythonで構築されたディープラーニングモデル) Generative AI models for generating 3D models (e.g., deep learning models built in Python)

合成された試着イメージを提示するユーザインタフェース A user interface that displays synthesized try-on images

ユーザの表情や音声を解析するための感情認識エンジン(例:感情解析API) Emotion recognition engine for analyzing user facial expressions and voice (e.g., emotion analysis API)

このシステムは、以下の処理を実施する: This system performs the following processes:

ユーザは、起動したアプリケーションを通じて体型情報を入力し、全身画像を複数方向から撮影してアップロードする。端末はこれらのデータをサーバに送信する。サーバは、ネットストアからAPIまたはウェブスクレイピング技術を使用して販売されている衣服のデータを収集し、データベースに保存する。サーバは、ユーザの体型情報と全身画像を解析し、生成AIモデルを使用してユーザの高解像度三次元モデルを生成する。ユーザが選択した衣服を三次元モデルに合成し、リアルな試着イメージを生成する。この試着イメージは、ユーザの端末に送信され、表示される。 The user enters their body type information through the launched application and takes and uploads full-body images from multiple angles. The device then sends this data to the server. The server then collects data on clothing for sale from online stores using APIs or web scraping technology and stores it in a database. The server analyzes the user's body type information and full-body images and uses a generative AI model to generate a high-resolution 3D model of the user. The server then combines the clothing selected by the user into the 3D model to generate a realistic try-on image. This try-on image is then sent to the user's device and displayed.

さらに、端末はカメラやマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンを用いて感情を解析する。サーバは、この感情データを基にして、提案する衣服やコーディネートをリアルタイムで調整する。 In addition, the device uses a camera and microphone to capture the user's facial expressions and voice in real time, and analyzes their emotions using an emotion recognition engine. The server then uses this emotional data to adjust the suggested clothing and outfits in real time.

具体例として、ユーザは身長170cm、体重65kg、スリーサイズ(B:95cm、W:75cm、H:95cm)を入力し、前面および側面から全身画像をアップロードしたとする。これに基づき、サーバはユーザの三次元モデルを生成し、ネイビーのジャケットを合成する。この段階のプロンプト文の例は次の通りである:「ユーザの身長が170cm、体重が65kg、スリーサイズ(B95, W75, H95)で、前面と側面の全身写真を基に三次元モデルを生成し、ネイビーのジャケットを高解像度で合成してください。また、ユーザの笑顔の表情からポジティブな感情を認識して、さらにおすすめのコーディネートを提案してください。」 As a concrete example, suppose a user inputs their height (170cm), weight (65kg), and measurements (B:95cm, W:75cm, H:95cm), and uploads full-body images from the front and side. Based on this, the server generates a 3D model of the user and synthesizes a navy jacket. An example prompt for this stage is: "Based on the user's height of 170cm, weight (65kg), and measurements (B:95, W:75, H:95), generate a 3D model based on full-body front and side photos and synthesize a high-resolution navy jacket. Also, recognize positive emotions from the user's smiling face and suggest further outfit recommendations."

このシステムにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 The system allows users to virtually try on clothes that fit their body type and receive personalized suggestions based on their emotional state.

実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 will be explained using Figure 13.

プログラムの処理の流れ Program processing flow

ステップ1: Step 1:

ユーザがアプリケーションを起動し、体型情報を入力する。 The user launches the application and enters their body type information.

入力:ユーザの体型情報(身長、体重、スリーサイズなど) Input: User's body information (height, weight, measurements, etc.)

出力:体型情報がシステムに保存される。 Output: Body shape information is saved in the system.

具体的な動作:ユーザは、アプリケーションの入力フィールドに体型情報を入力し、「送信」ボタンをクリックする。この情報は端末を通じてサーバに送信される。 Specific operation: The user enters body type information into the application's input fields and clicks the "Submit" button. This information is sent to the server via the device.

ステップ2: Step 2:

ユーザが全身画像を複数方向から撮影し、アップロードする。 Users take full-body images from multiple angles and upload them.

入力:ユーザの前面および側面から撮影した全身画像 Input: Full-body images of the user taken from the front and side

出力:全身画像がシステムに保存される。 Output: The whole-body image is saved to the system.

具体的な動作:ユーザは、スマートフォンのカメラを使用して自分の全身画像を複数の角度から撮影し、アプリケーション内で画像を選択して「アップロード」ボタンをクリックする。画像データは端末を通じてサーバに送信される。 Specific operation: The user uses the smartphone camera to take full-body images of themselves from multiple angles, selects the images in the application, and clicks the "Upload" button. The image data is sent to the server via the device.

ステップ3: Step 3:

サーバが提携ネットストアから衣服データを収集する。 The server collects clothing data from affiliated online stores.

入力:ネットストアのAPI情報またはウェブページのURL Input: Online store API information or web page URL

出力:衣服データ(画像、サイズ、素材、カラーなど)がデータベースに保存される。 Output: Garment data (images, size, material, color, etc.) is saved in a database.

具体的な動作:サーバはAPIやウェブスクレイピングツールを用いて、ネットストアの衣服データを自動収集する。データ収集の際には、重複や欠損チェックも行われる。 Specific operation: The server automatically collects clothing data from online stores using APIs and web scraping tools. When collecting data, it also checks for duplicates and missing data.

ステップ4: Step 4:

サーバがユーザの体型情報と全身画像を解析し、生成AIモデルを使用して三次元モデルを生成する。 The server analyzes the user's body shape information and full-body image, and generates a 3D model using a generative AI model.

入力:ユーザの体型情報および全身画像 Input: User's body shape information and full-body image

出力:ユーザの高解像度三次元モデル Output: High-resolution 3D model of the user

具体的な動作:サーバは、ディープラーニングアルゴリズムを使用してユーザの体型情報と全身画像を解析し、三次元モデルを生成する。このプロセスでは、GPUを活用して計算を高速化する。 How it works: The server uses deep learning algorithms to analyze the user's body shape information and full-body image to generate a 3D model. This process utilizes a GPU to speed up calculations.

ステップ5: Step 5:

サーバがユーザが選択した衣服を三次元モデルに合成する。 The server synthesizes the user's selected clothing onto a 3D model.

入力:ユーザの三次元モデルおよび選択された衣服データ Input: User's 3D model and selected clothing data

出力:合成された試着イメージ Output: Composite fitting image

具体的な動作:サーバは、生成AIモデルを用いて、ユーザの三次元モデルに選択された衣服をフィット感や質感をリアルに再現する形で合成する。この結果、試着イメージが生成される。 Specific operation: The server uses a generative AI model to synthesize the selected clothing onto the user's 3D model in a way that realistically reproduces the fit and texture. As a result, a fitting image is generated.

ステップ6: Step 6:

サーバが生成された試着イメージをユーザの端末に送信する。 The server sends the generated try-on image to the user's device.

入力:合成された試着イメージ Input: Synthesized fitting image

出力:ユーザの端末に表示される試着イメージ Output: Try-on image displayed on the user's device

具体的な動作:試着イメージは複数角度から撮影した画像としてエンコードされ、サーバから端末に送信される。端末は、これをユーザインタフェースに表示する。 Specific operation: The try-on image is encoded as images taken from multiple angles and sent from the server to the device. The device displays this on the user interface.

ステップ7: Step 7:

端末がユーザの表情や音声をキャプチャし、感情認識エンジンで解析する。 The device captures the user's facial expressions and voice and analyzes them using an emotion recognition engine.

入力:ユーザの表情および音声データ Input: User's facial and voice data

出力:ユーザの感情データ Output: User emotion data

具体的な動作:端末はカメラおよびマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンでこれらのデータを解析して感情状態を識別する。 Specific operation: The device uses a camera and microphone to capture the user's facial expressions and voice in real time, and then analyzes this data with an emotion recognition engine to identify the user's emotional state.

ステップ8: Step 8:

サーバが感情データを解析し、提案内容をリアルタイムで調整する。 The server analyzes the emotional data and adjusts the suggestions in real time.

入力:ユーザの感情データ Input: User emotion data

出力:調整された提案内容 Output: Adjusted proposal content

具体的な動作:サーバは感情データに基づき、試着イメージやコーディネートの提案内容をリアルタイムで変更・調整し、最適な提案を行う。 Specific operation: Based on the emotional data, the server changes and adjusts the fitting images and outfit suggestions in real time to provide optimal suggestions.

ステップ9: Step 9:

ユーザが提案されたコーディネートを選び、購入手続きを行う。 The user selects the suggested outfit and completes the purchase process.

入力:ユーザの購入決定情報 Input: User purchase decision information

出力:購入確認および配送情報 Output: Purchase confirmation and shipping information

具体的な動作:ユーザは「購入」ボタンをクリックすると、端末はこの情報をサーバに送信する。サーバは購入情報をネットストアの決済システムに連携し、購入手続きを行う。その後、注文確認と配送情報がユーザに通知される。 Specific operation: When the user clicks the "Purchase" button, the device sends this information to the server. The server then links the purchase information to the online store's payment system and completes the purchase process. The user is then notified of order confirmation and delivery information.

これにより、ユーザは自分の体型に合った衣服をバーチャルで試着し、感情に基づいたパーソナライズされた提案を受け、最適な購入体験を享受することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized suggestions based on their emotions, and enjoy an optimal shopping experience.

(応用例2) (Application Example 2)

次に、応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。 Next, we will explain Application Example 2. In the following explanation, the data processing device 12 will be referred to as the "server" and the smart glasses 214 will be referred to as the "terminal."

従来のバーチャル試着システムでは、ユーザの体型情報を基にした試着イメージの生成は可能であるが、ユーザの感情を考慮に入れた提案を行うことはできなかった。そのため、ユーザが選択した衣服やコーディネートに対する満足度を向上させることが難しかった。また、リアルタイムでの感情フィードバックに基づくコーディネートの調整が欠如していたため、ユーザの個別のニーズに応えることが十分にできなかった。 Conventional virtual try-on systems were able to generate fitting images based on the user's body type information, but were unable to make suggestions that took the user's emotions into account. This made it difficult to improve the user's satisfaction with the clothing and outfits they selected. Furthermore, the lack of coordination adjustments based on real-time emotional feedback meant they were unable to fully meet the individual needs of users.

応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、販売されている衣類のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣類を合成する手段と、ユーザの感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段と、ユーザの端末に試着イメージを提示する手段と、を含む。これにより、ユーザの感情に応じたパーソナライズされた衣服やコーディネートの提案が可能となり、ユーザの満足度が向上する。さらに、リアルタイムでの感情フィードバックによって提案内容を調整することで、ユーザの個別のニーズにより適切に応えることができる。 The identification processing by the identification processing unit 290 of the data processing device 12 in Application Example 2 is realized by the following means. In this invention, the server includes means for inputting the user's physique information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing for sale, means for combining clothing with the generated high-resolution 3D model of the user, means for analyzing the user's emotions and suggesting clothing and outfits based on the emotion data, and means for presenting images of the clothing to be tried on on the user's device. This makes it possible to suggest personalized clothing and outfits based on the user's emotions, improving user satisfaction. Furthermore, by adjusting the suggestions based on real-time emotion feedback, it is possible to more appropriately meet the individual needs of the user.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体寸法に関するデータである。 "User's body type information" refers to data related to the user's body measurements, such as height, weight, and three sizes.

「全身写真」とは、ユーザの全体像を複数の角度(前面、背面、側面など)から撮影した画像である。 A "full-body photo" is an image of the user taken from multiple angles (front, back, side, etc.).

「販売されている衣類のデータ」とは、提携ネットストアなどから収集される衣類の画像、サイズ、素材、カラーなどの詳細情報である。 "Data on clothing for sale" refers to detailed information such as clothing images, sizes, materials, and colors collected from affiliated online stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基にして生成される、細部まで詳細に表現された3Dモデルである。 A "high-resolution 3D model" is a 3D model that is generated based on the user's body type information and a full-body photograph, and is rendered in great detail.

「衣類を合成する手段」とは、生成された高解像度3Dモデルに対して、販売されている衣類のデータを用いてリアルに衣類を表示する技術である。 "Clothing synthesis" is a technology that uses data on clothing for sale to realistically display clothing on the generated high-resolution 3D model.

「感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段」とは、ユーザの表情や音声を解析し、そこから得られた感情データを基に、ユーザに最適な衣類やコーディネートを提案する技術である。 "Means for analyzing emotions and suggesting clothing and outfits based on emotional data" refers to technology that analyzes a user's facial expressions and voice, and then suggests the most suitable clothing and outfits for the user based on the emotional data obtained from this.

「試着イメージを提示する手段」とは、生成されたバーチャル試着のイメージをユーザの端末に表示する技術である。 "Means for presenting try-on images" refers to technology that displays the generated virtual try-on images on the user's device.

「感情データ」とは、ユーザの表情や音声の解析結果から得られる喜び、驚き、不満などの感情状態を表すデータである。 "Emotional data" is data that represents emotional states such as joy, surprise, and dissatisfaction obtained from the analysis of the user's facial expressions and voice.

「コーディネート」とは、ユーザの衣類の組み合わせを意味し、その選定プロセスを含むものである。 "Coordination" refers to the user's clothing combination and includes the selection process.

「フィードバック」とは、ユーザの感情データに基づき、提案内容を調整して再提案するプロセスである。 "Feedback" is the process of adjusting and re-proposing suggestions based on the user's emotional data.

この発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣類を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたシステムである。このシステムにより、ユーザの感情に応じた衣類やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention is a virtual fitting system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, combined with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits based on the user's emotions, providing a more personalized shopping experience.

サーバは、次のような技術を統合してこのシステムを実現する。まず、サーバはユーザの体型情報を入力する手段を提供する。この手段により、ユーザは自分の身長、体重、スリーサイズなどの情報を入力できる。さらに、複数の角度から撮影された全身写真をアップロードする手段も提供する。これにより、ユーザは自分の前面、側面、背面を撮影した写真をアップロードできる。 The server realizes this system by integrating the following technologies: First, the server provides a means for users to input their body type information. This allows users to enter information such as their height, weight, and three sizes. It also provides a means for users to upload full-body photos taken from multiple angles. This allows users to upload photos of their front, side, and back.

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータを収集する手段を持つ。このデータには、衣類の画像、サイズ、素材、カラーなどの詳細情報が含まれる。次に、サーバは最新の画像認識アルゴリズム(例:TensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この3Dモデルに対して、ディープラーニング技術を活用して衣類を合成する手段を使用して、リアルな試着イメージを生成する。 The server has a means of collecting data on clothing for sale from online stores and other data sources. This data includes detailed information such as clothing images, sizes, materials, and colors. The server then uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data to generate a high-resolution 3D model. This 3D model is then used to synthesize clothing using deep learning technology to generate realistic try-on images.

さらに、感情エンジン(例:Affectiva API)を用いて、ユーザの表情や音声を解析し、感情データを取得する手段を持つ。感情データに基づいて、ユーザに最適な衣類やコーディネートを提案する手段も組み込まれる。これにより、ユーザの感情に応じた適切な提案をリアルタイムで行うことが可能である。 Furthermore, it has a means of analyzing the user's facial expressions and voice using an emotion engine (e.g., Affectiva API) to obtain emotional data. It also incorporates a means of suggesting the most suitable clothing and outfits for the user based on the emotional data. This makes it possible to make appropriate suggestions in real time based on the user's emotions.

ユーザの端末に試着イメージを提示する手段も整備されている。これによって、ユーザは生成されたバーチャル試着イメージを複数の角度から確認することができる。試着イメージが表示された後、ユーザはその場で感情データをフィードバックし、必要に応じてコーディネートを調整することができる。 A means of displaying try-on images on the user's device has also been developed, allowing the user to view the generated virtual try-on image from multiple angles. After the try-on image is displayed, the user can provide feedback on their emotional data on the spot and adjust their outfit as needed.

具体例として、ユーザが自分の身長と体重をアプリに入力し、3枚の全身写真(前面、背面、側面)をアップロードする。写真撮影が終了した後、感情解析によりユーザが喜んでいる場合、明るい色や最新ファッションのコーディネートを提案する。一方で、ユーザが不満を感じている場合、新たなコーディネートを提案するようにシステムが調整を行う。 For example, a user enters their height and weight into the app and uploads three full-body photos (front, back, and side). After the photo shoot is complete, emotion analysis is performed and if the user is happy, the system will suggest outfits in bright colors and the latest fashions. On the other hand, if the user is unhappy, the system will adjust to suggest new outfits.

プロンプト文の例として、以下のようになる。 An example of a prompt statement is as follows:

ユーザの身長は170cmで、体重は65kgです。前面、背面、側面の写真がアップロードされました。感情解析により、ユーザは現在「喜び」を感じています。これに基づいて、明るい色と最新ファッションの複数のコーディネートを提案してください。 The user is 170cm tall and weighs 65kg. Front, back, and side photos have been uploaded. Sentiment analysis indicates that the user is currently feeling "joy." Based on this, suggest multiple outfits in bright colors and the latest fashions.

このようにして、ユーザは自分の体型に最適な衣類を選び、バーチャル試着の体験を通じて実際に試着するかのような感覚を得ることができる。リアルタイムでの感情フィードバックによって、さらにパーソナライズされたショッピング体験が提供される。 In this way, users can choose the clothing that best suits their body type and get the feeling of trying it on in real life through a virtual try-on experience. Real-time emotional feedback provides a more personalized shopping experience.

応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in Application Example 2 will be explained using Figure 14.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力し、複数角度から撮影した全身写真(前面、背面、側面)をアップロードする。入力されるデータは体型情報と写真データであり、これらは端末からサーバに送信される。その結果、ユーザの体型や全身写真に関するデータがサーバに保存される。 Users launch the application, enter their body type information (height, weight, measurements, etc.), and upload full-body photos taken from multiple angles (front, back, side). The entered data consists of body type information and photo data, which are sent from the device to the server. As a result, data related to the user's body type and full-body photos is stored on the server.

ステップ2: Step 2:

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータ(画像、サイズ、素材、カラーなど)を収集する。この収集は、APIまたはウェブスクレイピング技術を使用する。取得したデータは、サーバのデータベースに保存される。入力は衣類のデータであり、出力はデータベースに保存された衣類データである。 The server collects data about clothing sold (images, sizes, materials, colors, etc.) from online stores and other data sources. This collection is done using APIs or web scraping technology. The acquired data is stored in a database on the server. The input is clothing data, and the output is clothing data stored in the database.

ステップ3: Step 3:

サーバは、最新の画像認識アルゴリズム(例えばTensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この過程で、ユーザの各写真はピクセル解析され、3Dモデルの形状を作成する。このステップでの入力はユーザの体型情報と写真データ、出力は高解像度3Dモデルである。 The server uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data and generate a high-resolution 3D model. During this process, each user's photo is pixel-analyzed to create the shape of the 3D model. The input for this step is the user's body shape information and photo data, and the output is a high-resolution 3D model.

ステップ4: Step 4:

サーバは生成AIモデルを用いて、生成された3Dモデルに対して販売されている衣類を合成する。ディープラーニング技術を活用し、衣類のフィット感や質感をリアルに再現するデータ加工を行う。入力は高解像度3Dモデルと衣類データ、出力は試着イメージである。 The server uses a generative AI model to synthesize clothing for sale onto the generated 3D model. Utilizing deep learning technology, data processing is performed to realistically reproduce the fit and texture of the clothing. The input is a high-resolution 3D model and clothing data, and the output is a try-on image.

ステップ5: Step 5:

端末は、感情エンジン(例えばAffectiva API)でユーザの表情と音声をリアルタイムで解析し、感情データを取得する。撮影された表情データや音声データが入力となり、解析された感情データが出力される。このステップでは端末がカメラやマイクを使用してデータを取得する。 The device uses an emotion engine (e.g., Affectiva API) to analyze the user's facial expressions and voice in real time and obtain emotional data. Captured facial and voice data is input, and analyzed emotional data is output. In this step, the device obtains data using the camera and microphone.

ステップ6: Step 6:

サーバは、感情データに基づいてユーザに最適な衣類やコーディネートを提案する。入力は感情データであり、出力はユーザの好みに合わせたコーディネート提案である。この提案は動的に行われ、リアルタイムで調整される。 The server suggests optimal clothing and outfits for the user based on emotional data. The input is emotional data, and the output is outfit suggestions tailored to the user's preferences. These suggestions are made dynamically and adjusted in real time.

ステップ7: Step 7:

ユーザの端末は、サーバから送信された試着イメージを表示する。入力は試着イメージであり、出力はユーザインタフェースに表示された試着イメージである。ユーザは表示された試着イメージを確認し、必要に応じて異なる角度のイメージや他の衣類の試着をリクエストすることができる。 The user's device displays the try-on images sent from the server. The input is the try-on image, and the output is the try-on image displayed on the user interface. The user can review the displayed try-on image and, if necessary, request images from different angles or to try on other clothing items.

ステップ8: Step 8:

ユーザが提案されたコーディネートを気に入った場合、購入手続きを行う。ユーザは「購入」ボタンをクリックし、端末は購入情報をサーバに送信する。入力は購入情報であり、出力は購入確認と配送情報である。サーバは、ネットストアの決済システムと連携し、注文を記録し、確認通知をユーザに送信する。 If the user likes the suggested outfit, they proceed with the purchase. The user clicks the "Purchase" button, and the device sends the purchase information to the server. The input is the purchase information, and the output is purchase confirmation and delivery information. The server connects with the online store's payment system, records the order, and sends a confirmation to the user.

これにより、ユーザは自分の体型にフィットする衣類をバーチャル試着し、感情データに基づいたパーソナライズされたコーディネート提案を受け、最終的に購入することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized outfit suggestions based on emotional data, and ultimately make a purchase.

特定処理部290は、特定処理の結果をスマート眼鏡214に送信する。スマート眼鏡214では、制御部46Aが、スピーカ240に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。 The specific processing unit 290 transmits the results of the specific processing to the smart glasses 214. In the smart glasses 214, the control unit 46A causes the speaker 240 to output the results of the specific processing. The microphone 238 acquires audio indicating the user input regarding the results of the specific processing. The control unit 46A transmits audio data indicating the user input acquired by the microphone 238 to the data processing device 12. In the data processing device 12, the specific processing unit 290 acquires the audio data.

データ生成モデル58は、いわゆる生成系AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。 Data generation model 58 is what is known as generative AI (artificial intelligence). Examples of data generation model 58 include generative AI such as ChatGPT (Internet search <URL: https://openai.com/blog/chatgpt>) and Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>). Data generation model 58 is obtained by performing deep learning on a neural network. A prompt containing an instruction is input to data generation model 58, and inference data such as voice data indicating speech, text data indicating text, and image data indicating an image is also input. Data generation model 58 performs inference on the input inference data in accordance with the instructions indicated by the prompt, and outputs the inference results in the form of data such as voice data and text data. Here, inference refers to, for example, analysis, classification, prediction, and/or summarization.

上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、スマート眼鏡214によって特定処理が行われるようにしてもよい。 In the above embodiment, an example was given in which the specific processing was performed by the data processing device 12, but the technology disclosed herein is not limited to this, and the specific processing may also be performed by the smart glasses 214.

[第3実施形態] [Third embodiment]

図5には、第3実施形態に係るデータ処理システム310の構成の一例が示されている。 Figure 5 shows an example of the configuration of a data processing system 310 according to the third embodiment.

図5に示すように、データ処理システム310は、データ処理装置12及びヘッドセット型端末314を備えている。データ処理装置12の一例としては、サーバが挙げられる。 As shown in FIG. 5, the data processing system 310 includes a data processing device 12 and a headset terminal 314. An example of the data processing device 12 is a server.

データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。 The data processing device 12 includes a computer 22, a database 24, and a communication I/F 26. The computer 22 is an example of a "computer" according to the technology of the present disclosure. The computer 22 includes a processor 28, RAM 30, and storage 32. The processor 28, RAM 30, and storage 32 are connected to a bus 34. The database 24 and communication I/F 26 are also connected to the bus 34. The communication I/F 26 is connected to a network 54. Examples of the network 54 include a WAN (Wide Area Network) and/or a LAN (Local Area Network).

ヘッドセット型端末314は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、及びディスプレイ343を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、及びディスプレイ343も、バス52に接続されている。 The headset terminal 314 includes a computer 36, a microphone 238, a speaker 240, a camera 42, a communication I/F 44, and a display 343. The computer 36 includes a processor 46, RAM 48, and storage 50. The processor 46, RAM 48, and storage 50 are connected to a bus 52. The microphone 238, the speaker 240, the camera 42, and the display 343 are also connected to the bus 52.

マイクロフォン238は、ユーザ20が発する音声を受け付けることで、ユーザ20から指示等を受け付ける。マイクロフォン238は、ユーザ20が発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。 The microphone 238 receives instructions and the like from the user 20 by receiving voice uttered by the user 20. The microphone 238 captures the voice uttered by the user 20, converts the captured voice into audio data, and outputs it to the processor 46. The speaker 240 outputs audio in accordance with instructions from the processor 46.

カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザ20の周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。 Camera 42 is a small digital camera equipped with an optical system including a lens, aperture, and shutter, and an imaging element such as a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor, and captures images of the user 20's surroundings (e.g., an imaging range defined by an angle of view equivalent to the field of vision of a typical healthy person).

通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。 The communication I/F 44 is connected to the network 54. The communication I/Fs 44 and 26 are responsible for the exchange of various information between the processor 46 and the processor 28 via the network 54. The exchange of various information between the processor 46 and the processor 28 using the communication I/Fs 44 and 26 is carried out in a secure manner.

図6には、データ処理装置12及びヘッドセット型端末314の要部機能の一例が示されている。図6に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。 Figure 6 shows an example of the main functions of the data processing device 12 and headset terminal 314. As shown in Figure 6, in the data processing device 12, specific processing is performed by the processor 28. A specific processing program 56 is stored in the storage 32.

特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。 The specific processing program 56 is an example of a "program" according to the technology of the present disclosure. The processor 28 reads the specific processing program 56 from the storage 32 and executes the read specific processing program 56 on the RAM 30. The specific processing is realized by the processor 28 operating as the specific processing unit 290 in accordance with the specific processing program 56 executed on the RAM 30.

ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。 Storage 32 stores a data generation model 58 and an emotion identification model 59. The data generation model 58 and the emotion identification model 59 are used by the identification processing unit 290.

ヘッドセット型端末314では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。 In the headset terminal 314, the reception output process is performed by the processor 46. A reception output program 60 is stored in the storage 50. The processor 46 reads the reception output program 60 from the storage 50 and executes the read reception output program 60 on the RAM 48. The reception output process is realized by the processor 46 operating as the control unit 46A in accordance with the reception output program 60 executed on the RAM 48.

次に、データ処理装置12の特定処理部290による特定処理について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。 Next, we will explain the identification process performed by the identification processing unit 290 of the data processing device 12. In the following explanation, the data processing device 12 will be referred to as the "server" and the headset-type terminal 314 will be referred to as the "terminal."

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードすることから始まる。続いて、システムは収集した衣服のデータを基に生成AIモデルを活用し、ユーザの3Dモデルに衣服を合成し、仮想的な試着イメージを提示する。さらに、ユーザは販売員からのコーディネート提案を受け、より楽しみながら衣服を選び購入することができる。 This invention is a virtual try-on system that uses the user's body type information and full-body photos taken from multiple angles to generate a fitting image tailored to the user. The system begins by the user entering body type information and uploading a full-body photo using their own device. The system then utilizes a generative AI model based on the collected clothing data to synthesize the clothing onto the user's 3D model and present a virtual fitting image. In addition, users can receive coordination suggestions from sales staff, making the process of selecting and purchasing clothing even more enjoyable.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as their height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

端末は、ユーザが入力した体型情報と撮影した全身写真をサーバに送信する。 The device sends the body type information entered by the user and the full-body photo taken to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server collects data about clothing sold online (images, sizes, materials, colors, etc.) using APIs or web scraping technology from partner online stores and stores it in a database.

3. 3Dモデルの生成および合成 3. 3D model generation and synthesis

サーバは、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する。 The server analyzes the user's body shape information and uploaded full-body photos to generate a high-resolution 3D model of the user.

サーバは、生成AIモデルを活用して3Dモデルに対してユーザが選択した衣服を合成する。この際、衣服のフィット感やテクスチャをリアルに再現するためのディープラーニング技術を使用する。 The server uses a generative AI model to synthesize the user's selected clothing onto the 3D model, using deep learning techniques to realistically recreate the clothing's fit and texture.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 Users can review the displayed try-on images and, if necessary, request images from different angles or images of other garments.

5. コーディネート提案および購入手続き 5. Coordination suggestions and purchasing procedures

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。 The server generates images of the suggested outfits to try on and displays them on the user's device.

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

本発明により、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、提案されたコーディネートを確認しながら、オンラインでスムーズに購入手続きを行うことが可能である。 This invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying the clothes on. Furthermore, they can smoothly complete the online purchase process while checking suggested outfits.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。この解析には、画像認識アルゴリズムを使用する。 The server analyzes the received body shape information and full-body photo data to generate a high-resolution 3D model of the user. This analysis is performed using image recognition algorithms.

ステップ4: Step 4:

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いて、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses APIs or web scraping technology from partner online stores to collect data on the clothing being sold (images, sizes, materials, colors, etc.) and stores it in a database.

ステップ5: Step 5:

サーバは、生成されたユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを使用して衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using a generative AI model to realistically recreate the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度の試着イメージや他の衣服の試着イメージをリクエストする。 The user reviews the displayed try-on images. If necessary, they can request try-on images from different angles or images of other garments.

ステップ9: Step 9:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ10: Step 10:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ11: Step 11:

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

ステップ12: Step 12:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。 The server generates images of the suggested outfits to try on and sends them to the user's device.

ステップ13: Step 13:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ14: Step 14:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ15: Step 15:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ16: Step 16:

サーバは、購入情報を記録し、ネットストアの決済システムに連携する。 The server records purchase information and connects it to the online store's payment system.

ステップ17: Step 17:

サーバは、ユーザに注文確認と配送情報を通知する。 The server notifies the user of the order confirmation and delivery information.

ステップ18: Step 18:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例1) (Example 1)

次に、実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。 Next, Example 1 will be described. In the following description, the data processing device 12 will be referred to as the "server" and the headset-type terminal 314 will be referred to as the "terminal."

従来のオンラインショッピングにおいては、ユーザが実際に試着しないと衣服のフィット感やデザインが自身にどのように見えるかを正確に把握できないという問題があった。また、ユーザの好みに合わせたコーディネート提案や、試着イメージの確認が不十分であり、ユーザの購買意欲を阻害する要因となっていた。これにより、オンラインショッピングに対するユーザの満足度が低下することが課題であった。 Traditional online shopping has the problem that users cannot accurately understand how clothes will fit or how the design will look on them unless they actually try them on. Furthermore, coordination suggestions tailored to the user's preferences and the ability to check how the clothes will look when tried on are insufficient, which discourages users from making a purchase. This has led to a decline in user satisfaction with online shopping.

実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、オンラインで販売されている衣服のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣服を合成する手段と、生成された試着イメージをユーザの端末に送信する手段と、ユーザの端末に試着イメージを表示する手段と、を含む。これにより、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることが可能となる。また、コーディネート提案を販売員にリクエストし、提案された試着イメージを確認することができるため、ユーザの購買意欲を向上させることができる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing sold online, means for combining clothing with the generated high-resolution 3D model of the user, means for sending the generated try-on images to the user's device, and means for displaying the try-on images on the user's device. This allows users to easily select clothing that fits their body type and experience the virtual try-on experience as if they were actually trying on the clothes. In addition, users can request coordination suggestions from a salesperson and check the suggested try-on images, which increases the user's desire to purchase.

「ユーザ」とは、システムを利用して体型情報を入力し、全身写真を撮影およびアップロードする個人を指す。 "User" refers to an individual who uses the system to enter body type information and take and upload full-body photos.

「体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体に関する詳細なデータを指す。 "Body type information" refers to detailed data about the user's body, such as their height, weight, and measurements.

「全身写真」とは、ユーザの身体を前面、背面、側面の複数角度から撮影した画像を指す。 "Full-body photos" refer to images of the user's body taken from multiple angles, including the front, back, and side.

「オンラインで販売されている衣服のデータ」とは、インターネット上の販売サイトやストアから収集される衣服の画像、サイズ、素材、カラーなどの情報を指す。 "Data on clothing sold online" refers to information such as clothing images, sizes, materials, and colors collected from online sales sites and stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基に生成された、ユーザの身体を詳細に再現した三次元のコンピュータグラフィックスモデルを指す。 "High-resolution 3D model" refers to a three-dimensional computer graphics model that reproduces the user's body in detail, generated based on the user's body shape information and a full-body photograph.

「生成AIモデル」とは、ディープラーニング技術を用いて、ユーザの3Dモデルに衣服をリアルに合成するためにトレーニングされた人工知能モデルを指す。 "Generative AI model" refers to an artificial intelligence model trained using deep learning technology to realistically synthesize clothing onto a user's 3D model.

「試着イメージ」とは、生成AIモデルを用いてユーザの3Dモデルに選択された衣服を合成した画像を指す。 "Try-on image" refers to an image created by combining the selected clothing onto the user's 3D model using a generative AI model.

「ユーザの端末」とは、スマートフォン、タブレット、パソコンなどユーザが使用する電子機器を指す。 "User's device" refers to the electronic device used by the user, such as a smartphone, tablet, or PC.

「コーディネート提案」とは、ユーザの体型情報や好みに基づいて、販売員が推奨する複数の衣服の組み合わせを指す。 "Coordination suggestions" refer to combinations of multiple items of clothing recommended by a salesperson based on the user's body type information and preferences.

「販売員」とは、システムを通じてユーザに対してコーディネート提案を行う業務を担当する者を指す。 "Salesperson" refers to a person in charge of making outfit suggestions to users through the system.

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、以下のような手順でプログラムが実行される。 This invention is a virtual try-on system that uses the user's body type information and full-body photographs taken from multiple angles to generate a fitting image tailored to the user. In this system, the program is executed in the following steps:

まず、ユーザは、スマートフォンやPC上で専用のアプリケーションを起動し、自身の体型情報を入力する。体型情報には身長、体重、スリーサイズが含まれる。その後、ユーザは前面、背面、および側面の全身写真を撮影し、アプリケーションにアップロードする。このアップロードされたデータは、端末を介してサーバに送信される。 First, the user launches a dedicated application on their smartphone or PC and enters their body information, including height, weight, and measurements. The user then takes full-body photos of the front, back, and side and uploads them to the application. This uploaded data is then sent to the server via the device.

端末は、入力およびアップロードされたデータをHTTPSプロトコルを利用して安全にサーバに送信する。サーバは、これらのデータを受け取り、高精度にユーザの体型を解析するために、画像解析技術であるOpenCVを使用する。解析されたデータを基に、高解像度の3Dモデルを生成するためにディープラーニングフレームワークのTensorFlowやPyTorchを用いる。 The device securely transmits input and uploaded data to the server using the HTTPS protocol. The server receives this data and uses the image analysis technology OpenCV to analyze the user's body shape with high accuracy. The deep learning frameworks TensorFlow and PyTorch are used to generate a high-resolution 3D model based on the analyzed data.

サーバは、ユーザのために3Dモデルを生成した後、提携ネットストアのAPIまたはウェブスクレイピング技術を使用して、オンラインで販売されている衣服のデータを収集する。このデータには、衣服の画像、サイズ、素材、カラーなどが含まれる。これらのデータはデータベースに保存され、ユーザの3Dモデルに対して衣服を合成する際に使用される。 After generating a 3D model for the user, the server uses APIs or web scraping technology from partner online stores to collect data about clothing sold online. This data includes clothing images, sizes, materials, colors, etc. This data is stored in a database and used to synthesize clothing onto the user's 3D model.

サーバは、生成された3Dモデルに対して、ユーザが選択した衣服を生成AIモデルを用いて合成する。生成AIモデルは、ディープラーニング技術によってトレーニングされており、衣服のフィット感やテクスチャをリアルに再現する。この際、TensorFlowやPyTorchを利用したディープラーニングアルゴリズムを適用する。 The server then uses a generative AI model to synthesize the clothing selected by the user onto the generated 3D model. The generative AI model is trained using deep learning technology to realistically reproduce the fit and texture of the clothing. Deep learning algorithms using TensorFlow and PyTorch are used in this process.

生成された試着イメージは、複数の角度から撮影され、JPEGまたはPNG形式の画像ファイルとしてユーザの端末に送信される。端末は、受信した試着イメージをアプリケーションのユーザインタフェースに表示する。ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 The generated try-on images are photographed from multiple angles and sent to the user's device as JPEG or PNG image files. The device displays the received try-on images on the application's user interface. The user can review the displayed try-on images and request images from different angles or try-on images of other garments as needed.

さらに、ユーザはコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。サーバは、コーディネート提案を担当する販売員にリクエストを送信し、販売員はユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。このフィードバックを基にサーバは新たな試着イメージを生成し、ユーザの端末に提示する。ユーザは最終的に、提案されたコーディネートを確認し、購入を決定する場合は「購入」ボタンをクリックする。この購入情報は、端末を介してサーバに送信され、ネットストアの決済システムと連携して購入手続きが行われる。 Furthermore, if the user wishes to receive outfit suggestions, they click the "Request outfit suggestions" button. The server sends a request to the salesperson in charge of outfit suggestions, who then suggests an appropriate outfit based on the user's body type and preferences and sends feedback to the server. Based on this feedback, the server generates a new try-on image and displays it on the user's device. Finally, the user checks the suggested outfit and clicks the "Purchase" button if they decide to purchase. This purchase information is sent to the server via the device, and the purchase process is carried out in conjunction with the online store's payment system.

具体例 Specific examples

例えば、ユーザが「青色のジーンズ」と「白いTシャツ」の試着を希望する場合、 For example, if a user wants to try on "blue jeans" and a "white T-shirt,"

1. ユーザは、身長170cm、体重65kg、スリーサイズ90-75-90と入力し、前面、背面、および側面の全身写真をアップロードする。 1. The user enters their height as 170cm, weight as 65kg, and measurements as 90-75-90, and uploads full-body photos of the front, back, and side.

2. 端末は、これらの情報をサーバに送信する。 2. The device sends this information to the server.

3. サーバは、「青色のジーンズ」と「白いTシャツ」のデータをウェブスクレイピング技術を用いて収集し、データベースに保存する。 3. The server uses web scraping technology to collect data on "blue jeans" and "white T-shirts" and stores it in a database.

4. サーバは、画像解析技術を用いてユーザの高解像度3Dモデルを生成し、生成AIモデルを使って3Dモデルに対してジーンズとTシャツを合成する。 4. The server uses image analysis technology to generate a high-resolution 3D model of the user, and then uses a generative AI model to synthesize jeans and a T-shirt onto the 3D model.

5. サーバは、複数の角度からの試着イメージを生成し、ユーザの端末に送信する。 5. The server generates try-on images from multiple angles and sends them to the user's device.

6. ユーザは、新しく生成された試着イメージを確認し、さらに「このコーディネートで購入」と決定することができる。 6. The user can check the newly generated try-on image and then decide to "purchase this outfit."

プロンプト文の例 Example prompt

「ユーザの身長、体重、スリーサイズのデータを入力し、前面、背面、側面から撮影した全身写真をアップロードしてください。」 "Enter your height, weight, and measurements, and upload full-body photos taken from the front, back, and side."

このシステムにより、ユーザは自分の体型にフィットする衣服を簡単に見つけ、バーチャル試着を通じて実際に試着するかのような体験を得ることができる。また、コーディネート提案をリクエストし、提案された試着イメージを確認することで、オンラインでの衣服購入がよりスムーズかつ満足のいくものになる。 This system allows users to easily find clothes that fit their body type and experience the same sensation of trying them on in real life through virtual try-on. They can also request outfit suggestions and check the suggested try-on images, making online clothing shopping a smoother and more satisfying experience.

実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 will be explained using Figure 11.

ステップ1: Step 1:

ユーザがアプリケーションを起動する。 The user launches the application.

具体的動作:ユーザはスマートフォンやPC上で専用アプリケーションをタップまたはクリックして起動し、最初の画面に遷移する。 Specific operation: The user taps or clicks on the dedicated application on their smartphone or PC to launch it and proceeds to the first screen.

入力:なし Input: None

出力:アプリケーションが起動し、ユーザが体型情報を入力できる画面が表示される。 Output: The application launches and displays a screen where the user can enter body information.

ステップ2: Step 2:

ユーザが体型情報を入力する。 The user enters body type information.

具体的動作:ユーザは、身長、体重、スリーサイズなどの体型情報をアプリケーションのフォームに入力する。また、前面、背面、側面から撮影した全身写真を用意する。 Specific operation: The user enters body information such as height, weight, and measurements into the application form. They also provide full-body photos taken from the front, back, and side.

入力:身長、体重、スリーサイズなどの体型情報 Input: Body information such as height, weight, and measurements

出力:入力された体型情報と全身写真の表示 Output: Display of entered body shape information and full-body photo

ステップ3: Step 3:

ユーザが全身写真をアップロードする。 Users upload full-body photos.

具体的動作:ユーザは前面、背面、側面の全身写真をアプリケーション内のアップロード機能を用いてアップロードする。 Specific operation: The user uploads full-body photos of the front, back, and side using the upload function within the application.

入力:前面、背面、側面の全身写真 Input: Full-body photos (front, back, and side)

出力:全身写真のアップロード完了メッセージ Output: Full-body photo upload complete message

ステップ4: Step 4:

端末が入力データをサーバに送信する。 The device sends the input data to the server.

具体的動作:端末がユーザの体型情報および全身写真をHTTPSプロトコルでサーバに送信する。 Specific operation: The device sends the user's body shape information and full-body photo to the server via the HTTPS protocol.

入力:ユーザの体型情報および全身写真 Input: User's body type information and full-body photo

出力:データがサーバに送信され、処理待ち状態になる。 Output: The data is sent to the server and awaits processing.

ステップ5: Step 5:

サーバが体型情報と全身写真を解析する。 The server analyzes body shape information and full-body photos.

具体的動作:サーバは、OpenCVを用いて画像解析を行い、ユーザの体型情報を基に3Dモデルの作成に必要な特徴を抽出する。 Specific operation: The server performs image analysis using OpenCV and extracts the features necessary to create a 3D model based on the user's body shape information.

入力:体型情報および全身写真 Input: Body information and full-body photo

出力:特徴抽出済みのデータ Output: Feature-extracted data

ステップ6: Step 6:

サーバが高解像度3Dモデルを生成する。 The server generates a high-resolution 3D model.

具体的動作:サーバがTensorFlowやPyTorchを利用してディープラーニングを行い、ユーザの体型に基づく高解像度の3Dモデルを生成する。 Specific operation: The server uses TensorFlow and PyTorch for deep learning to generate a high-resolution 3D model based on the user's body shape.

入力:特徴抽出済みのデータ Input: Feature-extracted data

出力:高解像度3Dモデル Output: High-resolution 3D model

ステップ7: Step 7:

サーバがオンラインで販売されている衣服のデータを収集する。 The server collects data on clothing sold online.

具体的動作:サーバは提携ネットストアのAPIを呼び出し、またはウェブスクレイピングを使用して最新の衣服データ(画像、サイズ、素材、カラーなど)を収集する。 Specific operation: The server calls the API of partner online stores or uses web scraping to collect the latest clothing data (images, sizes, materials, colors, etc.).

入力:提携ネットストアのAPIエンドポイントまたはスクレイピングターゲットのURL Input: API endpoint of affiliated online store or URL of scraping target

出力:衣服データベースに保存された最新の衣服データ Output: Latest clothing data stored in the clothing database

ステップ8: Step 8:

サーバが生成AIモデルを用いて衣服を3Dモデルに合成する。 The server uses a generative AI model to synthesize the clothing onto the 3D model.

具体的動作:サーバは生成AIモデルを使用し、収集された衣服データを基にユーザの3Dモデルに衣服を合成する。 Specific operation: The server uses a generative AI model to synthesize clothing onto the user's 3D model based on the collected clothing data.

入力:3Dモデルおよび衣服データ Input: 3D model and clothing data

出力:複数の角度から見た試着イメージ Output: Try-on images from multiple angles

ステップ9: Step 9:

サーバが生成された試着イメージを端末に送信する。 The server sends the generated try-on image to the device.

具体的動作:サーバは試着イメージをJPEGまたはPNG形式で生成し、ユーザの端末に送信する。CDN経由での高速なデータ転送を行うこともある。 Specific operation: The server generates try-on images in JPEG or PNG format and sends them to the user's device. High-speed data transfer may also be performed via a CDN.

入力:試着イメージ Input: Try-on image

出力:端末に送信された試着イメージ Output: Try-on image sent to the device

ステップ10: Step 10:

端末が試着イメージをユーザインタフェースに表示する。 The device displays the try-on image on the user interface.

具体的動作:端末は受信した試着イメージをアプリケーションのユーザインタフェースに表示し、ユーザが操作できるようにする。 Specific operation: The device displays the received try-on image on the application's user interface, allowing the user to operate it.

入力:試着イメージ Input: Try-on image

出力:ユーザインタフェースに表示された試着イメージ Output: Try-on image displayed on the user interface

ステップ11: Step 11:

ユーザが試着イメージを確認し、必要に応じてリクエストを送信する。 Users can check the fitting images and submit requests if necessary.

具体的動作:ユーザは試着イメージを確認し、異なる角度からのイメージや他の衣服の試着イメージをリクエストする場合、アプリケーション内の対応するボタンをクリックする。 Specific operation: The user reviews the try-on images and, if they wish to request images from different angles or images of other garments being tried on, clicks the corresponding button in the application.

入力:ユーザのリクエスト Input: User request

出力:リクエスト内容がサーバに送信される Output: The request is sent to the server.

ステップ12: Step 12:

ユーザがコーディネート提案をリクエストする。 The user requests outfit suggestions.

具体的動作:ユーザがコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 Specific operation: If the user would like outfit suggestions, they click the "Request outfit suggestions" button.

入力:ユーザのコーディネート提案リクエスト Input: User's outfit suggestion request

出力:リクエストがサーバに送信される。 Output: The request is sent to the server.

ステップ13: Step 13:

サーバが販売員にリクエストを送信する。 The server sends the request to the salesperson.

具体的動作:サーバはコーディネート提案リクエストを販売員に送信し、必要なユーザ情報も併せて提供する。 Specific operation: The server sends a coordination suggestion request to the salesperson, along with the necessary user information.

入力:ユーザのリクエスト Input: User request

出力:リクエストが販売員に送信される Output: The request is sent to the salesperson.

ステップ14: Step 14:

販売員が提案をフィードバックする。 Salespeople will provide feedback on suggestions.

具体的動作:販売員はユーザの体型情報や好みに基づいて適切なコーディネートを考え、サーバにフィードバックを送信する。 Specific operation: The salesperson considers the appropriate outfit based on the user's body type and preferences, and sends feedback to the server.

入力:ユーザの体型情報および好み Input: User's body type and preferences

出力:コーディネート提案のフィードバック Output: Feedback on outfit suggestions

ステップ15: Step 15:

サーバがコーディネート試着イメージを生成する。 The server generates images of outfits to try on.

具体的動作:サーバは販売員からのフィードバックを基に新たな試着イメージを生成し、ユーザの端末に送信する。 Specific operation: The server generates new try-on images based on feedback from the salesperson and sends them to the user's device.

入力:コーディネート提案のフィードバック Input: Feedback on outfit suggestions

出力:端末に送信されたコーディネート試着イメージ Output: Try-on image of outfit sent to device

ステップ16: Step 16:

ユーザが提案を確認し、購入を決定する。 The user reviews the offer and decides to purchase.

具体的動作:ユーザは新しく生成されたコーディネート試着イメージを確認し、気に入った場合は「購入」ボタンをクリックする。 Specific operation: The user checks the newly generated outfit try-on image and, if they like it, clicks the "Purchase" button.

入力:コーディネート試着イメージ Input: Coordination try-on image

出力:購入リクエストがサーバに送信される Output: Purchase request sent to server

ステップ17: Step 17:

端末が購入情報をサーバに送信し、ネットストアと連携する。 The device sends purchase information to the server and connects with the online store.

具体的動作:端末は購入情報をサーバに送信し、サーバはネットストアの決済システムと連携して購入手続きを行う。 Specific operation: The terminal sends purchase information to the server, and the server works with the online store's payment system to complete the purchase process.

入力:購入情報 Enter: Purchase information

出力:購入手続きが完了し、ユーザに確認通知が送信される Output: The purchase is completed and a confirmation is sent to the user.

(応用例1) (Application Example 1)

次に、応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。 Next, we will explain Application Example 1. In the following explanation, the data processing device 12 will be referred to as the "server" and the headset-type terminal 314 will be referred to as the "terminal."

従来の実店舗での試着には、時間と手間がかかるという問題があった。また、実際に試着できる衣服の種類も限られており、多くの選択肢を試すことが困難であった。さらに、オンラインショッピングにおいては、実際の商品がどのように見えるかを確認することができないため、購入後の返品や交換が多発するという課題があった。これらの問題を解決するためには、ユーザが簡単に衣服を試着し、自身の体型に合った最適な衣服を選択できるシステムが必要である。 Traditionally, trying on clothes in physical stores was time-consuming and labor-intensive. Additionally, the types of clothing that could be tried on were limited, making it difficult to try out many options. Furthermore, with online shopping, customers were unable to see how the actual product would look, leading to frequent returns and exchanges after purchase. To solve these problems, a system was needed that allowed users to easily try on clothes and select the best fit for their body type.

応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Application Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、購入可能な物品のデータを収集する手段と、生成されたユーザの3Dモデルに対して物品を合成する手段と、ユーザの端末にバーチャル試着イメージを提示する手段と、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードする手段と、提携オンラインストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている物品のデータを収集し、保存する手段と、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する手段と、複数の角度から試着イメージを生成し、ユーザの端末に送信する手段と、を含む。これにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことが可能となり、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能となる。 In this invention, the server includes means for inputting a user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on available items, means for overlaying items onto the generated 3D model of the user, means for presenting virtual try-on images to the user's device, means for the user to input body type information and upload a full-body photo using their own device, means for collecting and saving data on items sold online using the API or web scraping technology of affiliated online stores, means for analyzing the user's body type information and uploaded full-body photos and generating a high-resolution 3D model of the user, and means for generating try-on images from multiple angles and sending them to the user's device. This allows users to smoothly try on clothes virtually in a physical store, shortening the time it takes to actually try them on and combining the convenience of online shopping with the experience of a physical store.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体的な寸法および特徴を指す。 "User's body type information" refers to the user's physical measurements and characteristics, such as height, weight, and three sizes.

「全身写真」とは、ユーザの体全体が写った写真であり、前面、背面および側面から撮影された複数の写真を含む。 A "full-body photo" is a photo that shows the user's entire body, and includes multiple photos taken from the front, back, and side.

「購入可能な物品のデータ」とは、提携オンラインストアや店舗で販売されている衣服やアクセサリーなどの商品の情報であり、画像、サイズ、素材、カラーなどの属性を含む。 "Purchasable Item Data" refers to information about products such as clothing and accessories sold at affiliated online stores and in-store, including attributes such as images, size, material, and color.

「3Dモデル」とは、ユーザの体型情報および全身写真を基に生成される高解像度の三次元デジタルモデルを指す。 "3D model" refers to a high-resolution three-dimensional digital model generated based on the user's body shape information and full-body photograph.

「物品を合成する手段」とは、生成されたユーザの3Dモデルに対して、選択された衣服やアクセサリーを仮想的に適用し、リアルな試着イメージを生成するプロセスを指す。 "Means for synthesizing items" refers to the process of virtually applying selected clothing and accessories to the generated 3D model of the user to generate a realistic try-on image.

「バーチャル試着イメージ」とは、ユーザの3Dモデルに選択された衣服やアクセサリーを合成した画像であり、複数の角度から表示される試着のシミュレーション画像を指す。 "Virtual try-on image" refers to an image that combines selected clothing and accessories with a 3D model of the user, simulating trying on the clothing and accessories from multiple angles.

「提携オンラインストアのAPI」とは、提携しているオンラインストアから販売されている商品のデータを自動的に取得するためのアプリケーションプログラミングインターフェースを指す。 "Affiliated Online Store API" refers to an application programming interface for automatically obtaining data on products sold by affiliated online stores.

「ウェブスクレイピング技術」とは、ウェブサイトから自動的にデータを抽出する技術を指す。 "Web scraping technology" refers to technology that automatically extracts data from websites.

「高解像度3Dモデルを生成する手段」とは、ユーザの体型情報および全身写真を解析し、高精度な三次元デジタルモデルを作成するプロセスを指す。 "Means for generating a high-resolution 3D model" refers to the process of analyzing a user's body shape information and full-body photograph to create a highly accurate three-dimensional digital model.

「コーディネートの提案をリクエストする手段」とは、ユーザが自身の好みに基づいたコーディネートの提案を販売員に依頼するための機能を指す。 "Means to request outfit suggestions" refers to the function that allows a user to request outfit suggestions from a salesperson based on the user's preferences.

「バーチャル試着を行う」とは、ユーザが実際に物品を試着する代わりにデジタルモデル上で試すことを可能にする行為を指す。 "Virtual try-on" refers to the act of allowing a user to try on an item on a digital model instead of actually trying it on.

本発明は、実店舗での試着体験を向上させるために、ユーザの体型情報および全身写真を使用してバーチャル試着を実現するシステムである。このシステムは、ユーザの端末(スマートフォン)と、一連のサーバ、および提携オンラインストアのAPIまたはウェブスクレイピング技術を用いて構築される。 This invention is a system that uses a user's body type information and full-body photograph to enable virtual try-on, improving the fitting experience in physical stores. The system is built using the user's device (smartphone), a series of servers, and APIs or web scraping technologies from affiliated online stores.

プログラムの生成 Program generation

システムは、以下のハードウェアおよびソフトウェアを用いる: The system uses the following hardware and software:

ユーザ端末(スマートフォン):AndroidやiOSデバイス、カメラ機能を持つ User device (smartphone): Android or iOS device with camera functionality

サーバ:データ処理および生成AIモデルを実行(TensorFlowやPyTorchを使用) Server: Data processing and generative AI model execution (using TensorFlow or PyTorch)

提携オンラインストアのAPIまたはウェブスクレイピング技術(Beautiful Soup、Scrapyなど) Partner online store API or web scraping technology (Beautiful Soup, Scrapy, etc.)

データベース:MySQLまたはPostgreSQL Database: MySQL or PostgreSQL

プログラムの処理概要 Program processing overview

サーバは、まずユーザが端末から送信した体型情報と全身写真を受け取り、画像解析技術を使用してユーザの高解像度3Dモデルを生成する。この3Dモデルは、ディープラーニングを用いて精密に作成され、ユーザの体型に対するリアルなフィット感を再現する。 The server first receives the body shape information and full-body photo sent by the user from their device, and then uses image analysis technology to generate a high-resolution 3D model of the user. This 3D model is precisely created using deep learning, recreating a realistic fit to the user's body shape.

次に、サーバは提携オンラインストアから収集した衣服データを用いて、ユーザの3Dモデルに選択された衣服を合成する。この合成プロセスは、生成AIモデルを活用し、衣服のテクスチャやフィット感を高度に再現する。複数の角度から撮影された試着イメージが生成され、ユーザの端末に送信される。 The server then uses clothing data collected from partner online stores to synthesize the selected clothing onto the user's 3D model. This synthesis process utilizes generative AI models to accurately reproduce the texture and fit of the clothing. Try-on images taken from multiple angles are generated and sent to the user's device.

ユーザは端末上でバーチャル試着イメージを確認し、気に入った場合は購入プロセスに進むことができる。また、ユーザはコーディネート提案を希望する場合、販売員にリクエストを送信することができる。販売員が提案したコーディネートは再度バーチャル試着イメージとして生成され、ユーザに提示される。 Users can check the virtual try-on images on their devices and, if they like them, proceed with the purchase process. Furthermore, if users would like a coordination suggestion, they can send a request to the salesperson. The coordination suggested by the salesperson is then regenerated as a virtual try-on image and presented to the user.

具体例とプロンプト文 Examples and prompts

具体的なプロンプト文として、提携オンラインストアのAPIを使用して衣服データを収集する際には、以下のようなコマンドを実行する: As a specific prompt, when collecting clothing data using the API of a partner online store, run the following command:

curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY" curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY"

また、ウェブスクレイピング技術を用いる場合は、PythonのBeautiful Soupを使用し、指定されたURLから商品のデータを抽出するスクリプトが以下のようになる: Also, if you use web scraping technology, here's a script that uses Python's Beautiful Soup to extract product data from a specified URL:

from bs4 import BeautifulSoup from bs4 import BeautifulSoup

import requests Import requests

url = "https://netstore.com/products" url = "https://netstore.com/products"

response = requests.get(url) response = requests.get(url)

soup = BeautifulSoup(response.content, 'html.parser') soup = BeautifulSoup(response.content, 'html.parser')

for product in soup.find_all('div', class_='product'): for product in soup.find_all('div', class_='product'):

product_name = product.find('h2').get_text() product_name = product.find('h2').get_text()

product_price = product.find('span', class_='price').get_text() product_price = product.find('span', class_='price').get_text()

print(product_name, product_price) print(product_name, product_price)

このシステムにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことができ、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能になる。 This system allows users to seamlessly try on clothes virtually in a physical store, shortening the time spent trying them on in person and combining the convenience of online shopping with the experience of a physical store.

応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in Application Example 1 will be explained using Figure 12.

ステップ1: Step 1:

ユーザは自身の体型情報を端末に入力する。ユーザは身長、体重、スリーサイズといった身体の属性を端末に入力し、入力されたデータはサーバに送信される。この時点での入力はユーザの身体的な数値データであり、出力はサーバに送信される生のデータである。 The user enters their body type information into the terminal. The user enters physical attributes such as height, weight, and measurements into the terminal, and the entered data is sent to the server. At this point, the input is the user's physical numerical data, and the output is raw data sent to the server.

ステップ2: Step 2:

ユーザは複数角度から全身写真を撮影し、端末を通じてアップロードする。ユーザは前面、背面および側面からの写真を端末のカメラで撮影し、それらの画像データをサーバに送信する。この時点での入力は複数の画像ファイルであり、出力はサーバに保存された画像データである。 The user takes full-body photos from multiple angles and uploads them via their device. The user takes photos from the front, back, and side using the device's camera and sends the image data to the server. At this point, the input is multiple image files, and the output is image data stored on the server.

ステップ3: Step 3:

サーバは提携オンラインストアのAPIまたはウェブスクレイピング技術を使用して、販売されている物品のデータを収集する。具体的には、サーバがAPIエンドポイントにリクエストを送り、レスポンスとして商品情報を受け取る。または、ウェブページを解析して必要な商品データを取得する。この時点での入力はAPIリクエストまたはHTMLコンテンツであり、出力は商品データのセットである。 The server uses the API of a partner online store or web scraping technology to collect data on the items being sold. Specifically, the server sends a request to an API endpoint and receives product information in response, or parses a web page to obtain the required product data. At this point, the input is the API request or HTML content, and the output is a set of product data.

ステップ4: Step 4:

サーバはユーザの体型情報および全身写真を解析し、高解像度の3Dモデルを生成する。収集した画像データと体型情報をディープラーニングモデル(TensorFlowやPyTorchを用いる)を使って解析し、ユーザの高精度3Dモデルを作成する。この時点での入力は体型情報と画像データであり、出力は3Dモデルである。 The server analyzes the user's body shape information and full-body photo to generate a high-resolution 3D model. The collected image data and body shape information are analyzed using a deep learning model (using TensorFlow and PyTorch) to create a highly accurate 3D model of the user. At this point, the input is body shape information and image data, and the output is a 3D model.

ステップ5: Step 5:

サーバは生成AIモデルを用いて、3Dモデルに選択された物品を合成する。収集された商品データからユーザが選んだものを、3Dモデルに合成し、仮想試着イメージを作成する。生成AIモデルにより、衣服のテクスチャやフィット感を高精度に再現する。この時点での入力は3Dモデルと商品データであり、出力は試着イメージである。 The server uses a generative AI model to synthesize the selected item onto a 3D model. The user selects from the collected product data and synthesizes it onto the 3D model to create a virtual try-on image. The generative AI model reproduces the texture and fit of the clothing with high accuracy. At this point, the input is the 3D model and product data, and the output is a try-on image.

ステップ6: Step 6:

サーバは生成された試着イメージを複数の角度から撮影した状態でユーザの端末に送信する。ユーザの端末ではこれらのイメージが表示され、ユーザはバーチャル試着イメージを確認することができる。この時点での入力は試着イメージデータであり、出力はユーザの端末に表示されるバーチャル試着イメージである。 The server then sends the generated try-on images, photographed from multiple angles, to the user's device. These images are displayed on the user's device, allowing the user to check the virtual try-on image. At this point, the input is the try-on image data, and the output is the virtual try-on image displayed on the user's device.

ステップ7: Step 7:

ユーザはコーディネートの提案をリクエストする場合、端末からサーバにリクエストを送信する。サーバはこのリクエストを受け取り、担当する販売員に通知する。この時点での入力はユーザからのリクエストであり、出力は販売員への通知である。 When a user requests a coordination suggestion, they send a request from their terminal to the server. The server receives this request and notifies the salesperson in charge. At this point, the input is the request from the user, and the output is a notification to the salesperson.

ステップ8: Step 8:

販売員はコーディネート提案を作成し、サーバにフィードバックを送信する。サーバは再度ユーザの3Dモデルに基づいて、提案されたコーディネートの仮想試着イメージを生成する。この時点での入力は販売員からのコーディネート提案であり、出力は新しい試着イメージである。 The salesperson creates a coordination suggestion and sends feedback to the server. The server again generates a virtual try-on image of the suggested coordination based on the user's 3D model. At this point, the input is the coordination suggestion from the salesperson, and the output is a new try-on image.

ステップ9: Step 9:

サーバは生成されたコーディネート試着イメージをユーザの端末に送信し、ユーザはこれを確認する。ユーザが購入を決定した場合、端末から「購入」ボタンをクリックし、購入情報がサーバに送信される。この時点での入力は仮想試着イメージとユーザの購入決定であり、出力は購入手続きの進行である。 The server sends the generated coordinated try-on image to the user's device, where the user confirms it. If the user decides to purchase, they click the "Purchase" button on their device, and the purchase information is sent to the server. The input at this point is the virtual try-on image and the user's purchase decision, and the output is the progress of the purchase procedure.

なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。 It is also possible to further combine an emotion engine that estimates the user's emotion. That is, the identification processing unit 290 may estimate the user's emotion using the emotion identification model 59 and perform identification processing using the user's emotion.

本発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣服を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたものである。このシステムにより、ユーザの感情に応じた衣服やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention combines a virtual try-on system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits that correspond to the user's emotions, providing a more personalized shopping experience.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力する。さらに、複数角度から撮影した全身写真をアップロードする。 Users launch the application and enter their body information (height, weight, measurements, etc.). They also upload full-body photos taken from multiple angles.

端末は、これらの体型情報と全身写真をサーバに送信する。 The device sends this body shape information and a full-body photo to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

3. 3Dモデルの生成および衣服合成 3. 3D model generation and clothing synthesis

サーバは、ユーザの体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。これには、最新の画像認識アルゴリズムを使用する。 The server analyzes the user's body shape information and full-body photo data to generate a high-resolution 3D model of the user, using the latest image recognition algorithms.

サーバは、生成AIモデルを用いて3Dモデルに対して選択した衣服を合成する。このプロセスでは、衣服のフィット感や質感をリアルに再現するためにディープラーニング技術を活用する。 The server uses a generative AI model to synthesize the selected clothing onto the 3D model. This process utilizes deep learning techniques to realistically recreate the fit and texture of the clothing.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度の試着イメージや他の衣服の試着をリクエストする。 The user can review the displayed try-on images and, if necessary, request images from different angles or to try on other garments.

5. 感情エンジンによる感情認識 5. Emotion Recognition Using an Emotion Engine

端末は、ユーザの表情や音声を感情エンジンにより解析し、ユーザの感情状態を識別する。これには、カメラやマイクを使用してリアルタイムでデータを取得する。 The device uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. This is done by capturing data in real time using a camera and microphone.

サーバは、感情エンジンからの感情データを基にし、試着イメージに対するユーザの反応を評価する。 The server evaluates the user's reaction to the try-on images based on emotional data from the emotion engine.

6. コーディネート提案および調整 6. Coordination proposals and adjustments

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報、好み、および感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and displays them on the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

7. 購入手続き 7. Purchase Procedure

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

本発明のシステムにより、ユーザは自分の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、感情エンジンを活用してユーザの感情状態に基づいた提案を行うことで、よりパーソナライズされたショッピング体験が実現する。こうした一連の処理により、ユーザの満足度を高め、ネットショッピングでの購買体験を向上させることができる。 The system of the present invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying it on. Furthermore, by utilizing an emotion engine to make suggestions based on the user's emotional state, a more personalized shopping experience is realized. This series of processes increases user satisfaction and improves the online shopping experience.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。さらに、前面、背面、側面から撮影した全身写真をアプリケーションにアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side to the application.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、画像認識アルゴリズムを用いてユーザの高解像度3Dモデルを生成する。 The server analyzes the received body shape information and full-body photo data and uses image recognition algorithms to generate a high-resolution 3D model of the user.

ステップ4: Step 4:

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

ステップ5: Step 5:

サーバは、生成したユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを用いて衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using a generative AI model to realistically reproduce the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度からの試着イメージや他の衣服の試着をリクエストする。 The user reviews the displayed try-on images. If necessary, they can request images from different angles or try on other garments.

ステップ9: Step 9:

端末は、ユーザの表情をカメラで撮影し、または音声をマイクで収集し、それらのデータを感情エンジンに送信する。 The device captures the user's facial expressions with a camera or collects their voice with a microphone, and then sends this data to the emotion engine.

ステップ10: Step 10:

サーバは、感情エンジンを使用して、ユーザの表情や音声を解析し、ユーザの感情状態を識別する。例えば、ユーザが笑顔であれば「満足」、眉をひそめていれば「不安」と識別する。 The server uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. For example, if the user is smiling, it will be identified as "satisfied," and if they are frowning, it will be identified as "anxious."

ステップ11: Step 11:

サーバは、感情エンジンからの感情状態データを基に、次のアクションを決定する。例えば、ユーザが満足している場合は提案をそのまま継続し、不安を感じている場合は別のオプションを提示する。 The server determines the next action based on the emotional state data from the emotion engine. For example, if the user is satisfied, it continues with the suggestion, but if they are anxious, it presents a different option.

ステップ12: Step 12:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ13: Step 13:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ14: Step 14:

販売員は、ユーザの体型情報、好み、感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

ステップ15: Step 15:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and sends them to the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

ステップ16: Step 16:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received try-on image of the outfit on the user interface.

ステップ17: Step 17:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ18: Step 18:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ19: Step 19:

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

ステップ20: Step 20:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例2) (Example 2)

次に、実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。 Next, Example 2 will be described. In the following description, the data processing device 12 will be referred to as the "server" and the headset-type terminal 314 will be referred to as the "terminal."

近年、オンラインショッピングの普及に伴い、リモートでの試着やパーソナライズされたショッピング体験の需要が高まっている。しかし、現行のシステムでは、実際に衣服を試着する場合のフィット感や質感を十分に再現することが難しく、ユーザの感情に基づいた提案を行うことができなかった。そのため、ユーザの体験を向上させるためのよりリアルなバーチャル試着システムが求められている。 In recent years, with the spread of online shopping, there has been an increasing demand for remote try-on and personalized shopping experiences. However, current systems have difficulty adequately reproducing the fit and texture of clothing when actually trying on, and are unable to make suggestions based on the user's emotions. Therefore, there is a need for a more realistic virtual try-on system to improve the user experience.

実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 2 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身画像を複数方向から撮影し、アップロードする手段と、販売されている衣服のデータを収集する手段と、生成されたユーザの三次元モデルに対して衣料品を合成する手段と、ユーザの端末に試着イメージを提示する手段と、ユーザの表情や音声を解析し感情を認識する手段と、感情に基づいて提案を調整する手段と、を含む。これにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body images of the user from multiple angles, means for collecting data on clothing available for sale, means for combining clothing items with the generated three-dimensional model of the user, means for presenting images of the items to be tried on on the user's device, means for analyzing the user's facial expressions and voice to recognize emotions, and means for adjusting suggestions based on emotions. This allows the user to virtually try on clothing that fits their body type and receive personalized suggestions based on their emotional state.

「ユーザの体型情報を入力する手段」とは、ユーザの身長、体重、スリーサイズなどの体型に関するデータを入力するためのインターフェースおよびシステムを指す。 "Means for inputting user's body type information" refers to an interface and system for inputting data related to the user's body type, such as height, weight, and measurements.

「ユーザの全身画像を複数方向から撮影し、アップロードする手段」とは、ユーザの全身を異なる角度から撮影し、その画像データをシステムにアップロードするためのカメラおよびアップロード機能を指す。 "Means for taking and uploading full-body images of the user from multiple angles" refers to the camera and upload function for taking images of the user's entire body from different angles and uploading that image data to the system.

「販売されている衣服のデータを収集する手段」とは、ネットストアやその他の情報源から、販売されている衣服の画像、サイズ、素材、カラーなどのデータを収集し、保存するための技術を指す。 "Means for collecting data on clothing for sale" refers to technology for collecting and storing data such as images, sizes, materials, and colors of clothing for sale from online stores and other sources.

「生成されたユーザの三次元モデルに対して衣料品を合成する手段」とは、ユーザの体型情報および全身画像を基にして生成された三次元モデルに、選択された衣服をリアルに合成するためのアルゴリズムおよびシステムを指す。 "Means for combining clothing items with a generated 3D model of the user" refers to an algorithm and system for realistically combining selected clothing items with a 3D model generated based on the user's body shape information and full-body image.

「ユーザの端末に試着イメージを提示する手段」とは、生成された試着イメージをユーザの端末(スマートフォン、タブレット、PCなど)の画面に表示するためのインターフェースおよびシステムを指す。 "Means for presenting try-on images on the user's device" refers to the interface and system for displaying the generated try-on images on the screen of the user's device (smartphone, tablet, PC, etc.).

「ユーザの表情や音声を解析し感情を認識する手段」とは、カメラやマイクなどのデバイスを使用して取得したユーザの表情や音声データを解析し、ユーザの感情状態を識別するためのアルゴリズムおよびシステムを指す。 "Means for analyzing a user's facial expressions and voice to recognize emotions" refers to algorithms and systems that analyze a user's facial expressions and voice data acquired using devices such as cameras and microphones, and identify the user's emotional state.

「感情に基づいて提案を調整する手段」とは、ユーザの感情データを基にして、提案される衣服やコーディネートをリアルタイムで変更・調整するための技術およびシステムを指す。 "Means for adjusting suggestions based on emotions" refers to technology and systems for changing and adjusting suggested clothing and outfits in real time based on the user's emotional data.

本発明は、バーチャル試着システムであり、ユーザの体型情報および全身画像を基に高解像度の三次元モデルを生成し、これに衣服をリアルに合成する。さらに、ユーザの表情や音声から感情を解析し、それに基づいて衣服の提案を調整する機能を有する。 This invention is a virtual fitting system that generates a high-resolution three-dimensional model based on the user's body type information and full-body image, and then realistically combines clothing onto it. It also has the ability to analyze the user's emotions from their facial expressions and voice, and adjust clothing suggestions based on that.

このシステムは、以下のハードウェアおよびソフトウェアを用いる: This system uses the following hardware and software:

ユーザの体型情報を入力するためのインターフェース(スマートフォンやPCなど) An interface for inputting the user's body shape information (such as a smartphone or PC)

ユーザの全身画像を撮影するカメラ(スマートフォン内蔵カメラなど) A camera that captures a full-body image of the user (such as a camera built into a smartphone)

販売されている衣服のデータを収集するためのAPIまたはウェブスクレイピングツール API or web scraping tool for collecting data on clothing for sale

三次元モデルを生成するための生成AIモデル(例:Pythonで構築されたディープラーニングモデル) Generative AI models for generating 3D models (e.g., deep learning models built in Python)

合成された試着イメージを提示するユーザインタフェース A user interface that displays synthesized try-on images

ユーザの表情や音声を解析するための感情認識エンジン(例:感情解析API) Emotion recognition engine for analyzing user facial expressions and voice (e.g., emotion analysis API)

このシステムは、以下の処理を実施する: This system performs the following processes:

ユーザは、起動したアプリケーションを通じて体型情報を入力し、全身画像を複数方向から撮影してアップロードする。端末はこれらのデータをサーバに送信する。サーバは、ネットストアからAPIまたはウェブスクレイピング技術を使用して販売されている衣服のデータを収集し、データベースに保存する。サーバは、ユーザの体型情報と全身画像を解析し、生成AIモデルを使用してユーザの高解像度三次元モデルを生成する。ユーザが選択した衣服を三次元モデルに合成し、リアルな試着イメージを生成する。この試着イメージは、ユーザの端末に送信され、表示される。 The user enters their body type information through the launched application and takes and uploads full-body images from multiple angles. The device then sends this data to the server. The server then collects data on clothing for sale from online stores using APIs or web scraping technology and stores it in a database. The server analyzes the user's body type information and full-body images and uses a generative AI model to generate a high-resolution 3D model of the user. The server then combines the clothing selected by the user into the 3D model to generate a realistic try-on image. This try-on image is then sent to the user's device and displayed.

さらに、端末はカメラやマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンを用いて感情を解析する。サーバは、この感情データを基にして、提案する衣服やコーディネートをリアルタイムで調整する。 In addition, the device uses a camera and microphone to capture the user's facial expressions and voice in real time, and analyzes their emotions using an emotion recognition engine. The server then uses this emotional data to adjust the suggested clothing and outfits in real time.

具体例として、ユーザは身長170cm、体重65kg、スリーサイズ(B:95cm、W:75cm、H:95cm)を入力し、前面および側面から全身画像をアップロードしたとする。これに基づき、サーバはユーザの三次元モデルを生成し、ネイビーのジャケットを合成する。この段階のプロンプト文の例は次の通りである:「ユーザの身長が170cm、体重が65kg、スリーサイズ(B95, W75, H95)で、前面と側面の全身写真を基に三次元モデルを生成し、ネイビーのジャケットを高解像度で合成してください。また、ユーザの笑顔の表情からポジティブな感情を認識して、さらにおすすめのコーディネートを提案してください。」 As a concrete example, suppose a user inputs their height (170cm), weight (65kg), and measurements (B:95cm, W:75cm, H:95cm), and uploads full-body images from the front and side. Based on this, the server generates a 3D model of the user and synthesizes a navy jacket. An example prompt for this stage is: "Based on the user's height of 170cm, weight (65kg), and measurements (B:95, W:75, H:95), generate a 3D model based on full-body front and side photos and synthesize a high-resolution navy jacket. Also, recognize positive emotions from the user's smiling face and suggest further outfit recommendations."

このシステムにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 The system allows users to virtually try on clothes that fit their body type and receive personalized suggestions based on their emotional state.

実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 will be explained using Figure 13.

プログラムの処理の流れ Program processing flow

ステップ1: Step 1:

ユーザがアプリケーションを起動し、体型情報を入力する。 The user launches the application and enters their body type information.

入力:ユーザの体型情報(身長、体重、スリーサイズなど) Input: User's body information (height, weight, measurements, etc.)

出力:体型情報がシステムに保存される。 Output: Body shape information is saved in the system.

具体的な動作:ユーザは、アプリケーションの入力フィールドに体型情報を入力し、「送信」ボタンをクリックする。この情報は端末を通じてサーバに送信される。 Specific operation: The user enters body type information into the application's input fields and clicks the "Submit" button. This information is sent to the server via the device.

ステップ2: Step 2:

ユーザが全身画像を複数方向から撮影し、アップロードする。 Users take full-body images from multiple angles and upload them.

入力:ユーザの前面および側面から撮影した全身画像 Input: Full-body images of the user taken from the front and side

出力:全身画像がシステムに保存される。 Output: The whole-body image is saved to the system.

具体的な動作:ユーザは、スマートフォンのカメラを使用して自分の全身画像を複数の角度から撮影し、アプリケーション内で画像を選択して「アップロード」ボタンをクリックする。画像データは端末を通じてサーバに送信される。 Specific operation: The user uses the smartphone camera to take full-body images of themselves from multiple angles, selects the images in the application, and clicks the "Upload" button. The image data is sent to the server via the device.

ステップ3: Step 3:

サーバが提携ネットストアから衣服データを収集する。 The server collects clothing data from affiliated online stores.

入力:ネットストアのAPI情報またはウェブページのURL Input: Online store API information or web page URL

出力:衣服データ(画像、サイズ、素材、カラーなど)がデータベースに保存される。 Output: Garment data (images, size, material, color, etc.) is saved in a database.

具体的な動作:サーバはAPIやウェブスクレイピングツールを用いて、ネットストアの衣服データを自動収集する。データ収集の際には、重複や欠損チェックも行われる。 Specific operation: The server automatically collects clothing data from online stores using APIs and web scraping tools. When collecting data, it also checks for duplicates and missing data.

ステップ4: Step 4:

サーバがユーザの体型情報と全身画像を解析し、生成AIモデルを使用して三次元モデルを生成する。 The server analyzes the user's body shape information and full-body image, and generates a 3D model using a generative AI model.

入力:ユーザの体型情報および全身画像 Input: User's body shape information and full-body image

出力:ユーザの高解像度三次元モデル Output: High-resolution 3D model of the user

具体的な動作:サーバは、ディープラーニングアルゴリズムを使用してユーザの体型情報と全身画像を解析し、三次元モデルを生成する。このプロセスでは、GPUを活用して計算を高速化する。 How it works: The server uses deep learning algorithms to analyze the user's body shape information and full-body image to generate a 3D model. This process utilizes a GPU to speed up calculations.

ステップ5: Step 5:

サーバがユーザが選択した衣服を三次元モデルに合成する。 The server synthesizes the user's selected clothing onto a 3D model.

入力:ユーザの三次元モデルおよび選択された衣服データ Input: User's 3D model and selected clothing data

出力:合成された試着イメージ Output: Composite fitting image

具体的な動作:サーバは、生成AIモデルを用いて、ユーザの三次元モデルに選択された衣服をフィット感や質感をリアルに再現する形で合成する。この結果、試着イメージが生成される。 Specific operation: The server uses a generative AI model to synthesize the selected clothing onto the user's 3D model in a way that realistically reproduces the fit and texture. As a result, a fitting image is generated.

ステップ6: Step 6:

サーバが生成された試着イメージをユーザの端末に送信する。 The server sends the generated try-on image to the user's device.

入力:合成された試着イメージ Input: Synthesized fitting image

出力:ユーザの端末に表示される試着イメージ Output: Try-on image displayed on the user's device

具体的な動作:試着イメージは複数角度から撮影した画像としてエンコードされ、サーバから端末に送信される。端末は、これをユーザインタフェースに表示する。 Specific operation: The try-on image is encoded as images taken from multiple angles and sent from the server to the device. The device displays this on the user interface.

ステップ7: Step 7:

端末がユーザの表情や音声をキャプチャし、感情認識エンジンで解析する。 The device captures the user's facial expressions and voice and analyzes them using an emotion recognition engine.

入力:ユーザの表情および音声データ Input: User's facial and voice data

出力:ユーザの感情データ Output: User emotion data

具体的な動作:端末はカメラおよびマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンでこれらのデータを解析して感情状態を識別する。 Specific operation: The device uses a camera and microphone to capture the user's facial expressions and voice in real time, and then analyzes this data with an emotion recognition engine to identify the user's emotional state.

ステップ8: Step 8:

サーバが感情データを解析し、提案内容をリアルタイムで調整する。 The server analyzes the emotional data and adjusts the suggestions in real time.

入力:ユーザの感情データ Input: User emotion data

出力:調整された提案内容 Output: Adjusted proposal content

具体的な動作:サーバは感情データに基づき、試着イメージやコーディネートの提案内容をリアルタイムで変更・調整し、最適な提案を行う。 Specific operation: Based on the emotional data, the server changes and adjusts the fitting images and outfit suggestions in real time to provide optimal suggestions.

ステップ9: Step 9:

ユーザが提案されたコーディネートを選び、購入手続きを行う。 The user selects the suggested outfit and completes the purchase process.

入力:ユーザの購入決定情報 Input: User purchase decision information

出力:購入確認および配送情報 Output: Purchase confirmation and shipping information

具体的な動作:ユーザは「購入」ボタンをクリックすると、端末はこの情報をサーバに送信する。サーバは購入情報をネットストアの決済システムに連携し、購入手続きを行う。その後、注文確認と配送情報がユーザに通知される。 Specific operation: When the user clicks the "Purchase" button, the device sends this information to the server. The server then links the purchase information to the online store's payment system and completes the purchase process. The user is then notified of order confirmation and delivery information.

これにより、ユーザは自分の体型に合った衣服をバーチャルで試着し、感情に基づいたパーソナライズされた提案を受け、最適な購入体験を享受することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized suggestions based on their emotions, and enjoy an optimal shopping experience.

(応用例2) (Application Example 2)

次に、応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。 Next, we will explain Application Example 2. In the following explanation, the data processing device 12 will be referred to as the "server" and the headset-type terminal 314 will be referred to as the "terminal."

従来のバーチャル試着システムでは、ユーザの体型情報を基にした試着イメージの生成は可能であるが、ユーザの感情を考慮に入れた提案を行うことはできなかった。そのため、ユーザが選択した衣服やコーディネートに対する満足度を向上させることが難しかった。また、リアルタイムでの感情フィードバックに基づくコーディネートの調整が欠如していたため、ユーザの個別のニーズに応えることが十分にできなかった。 Conventional virtual try-on systems were able to generate fitting images based on the user's body type information, but were unable to make suggestions that took the user's emotions into account. This made it difficult to improve the user's satisfaction with the clothing and outfits they selected. Furthermore, the lack of coordination adjustments based on real-time emotional feedback meant they were unable to fully meet the individual needs of users.

応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、販売されている衣類のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣類を合成する手段と、ユーザの感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段と、ユーザの端末に試着イメージを提示する手段と、を含む。これにより、ユーザの感情に応じたパーソナライズされた衣服やコーディネートの提案が可能となり、ユーザの満足度が向上する。さらに、リアルタイムでの感情フィードバックによって提案内容を調整することで、ユーザの個別のニーズにより適切に応えることができる。 The identification processing by the identification processing unit 290 of the data processing device 12 in Application Example 2 is realized by the following means. In this invention, the server includes means for inputting the user's physique information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing for sale, means for combining clothing with the generated high-resolution 3D model of the user, means for analyzing the user's emotions and suggesting clothing and outfits based on the emotion data, and means for presenting images of the clothing to be tried on on the user's device. This makes it possible to suggest personalized clothing and outfits based on the user's emotions, improving user satisfaction. Furthermore, by adjusting the suggestions based on real-time emotion feedback, it is possible to more appropriately meet the individual needs of the user.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体寸法に関するデータである。 "User's body type information" refers to data related to the user's body measurements, such as height, weight, and three sizes.

「全身写真」とは、ユーザの全体像を複数の角度(前面、背面、側面など)から撮影した画像である。 A "full-body photo" is an image of the user taken from multiple angles (front, back, side, etc.).

「販売されている衣類のデータ」とは、提携ネットストアなどから収集される衣類の画像、サイズ、素材、カラーなどの詳細情報である。 "Data on clothing for sale" refers to detailed information such as clothing images, sizes, materials, and colors collected from affiliated online stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基にして生成される、細部まで詳細に表現された3Dモデルである。 A "high-resolution 3D model" is a 3D model that is generated based on the user's body type information and a full-body photograph, and is rendered in great detail.

「衣類を合成する手段」とは、生成された高解像度3Dモデルに対して、販売されている衣類のデータを用いてリアルに衣類を表示する技術である。 "Clothing synthesis" is a technology that uses data on clothing for sale to realistically display clothing on the generated high-resolution 3D model.

「感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段」とは、ユーザの表情や音声を解析し、そこから得られた感情データを基に、ユーザに最適な衣類やコーディネートを提案する技術である。 "Means for analyzing emotions and suggesting clothing and outfits based on emotional data" refers to technology that analyzes a user's facial expressions and voice, and then suggests the most suitable clothing and outfits for the user based on the emotional data obtained from this.

「試着イメージを提示する手段」とは、生成されたバーチャル試着のイメージをユーザの端末に表示する技術である。 "Means for presenting try-on images" refers to technology that displays the generated virtual try-on images on the user's device.

「感情データ」とは、ユーザの表情や音声の解析結果から得られる喜び、驚き、不満などの感情状態を表すデータである。 "Emotional data" is data that represents emotional states such as joy, surprise, and dissatisfaction obtained from the analysis of the user's facial expressions and voice.

「コーディネート」とは、ユーザの衣類の組み合わせを意味し、その選定プロセスを含むものである。 "Coordination" refers to the user's clothing combination and includes the selection process.

「フィードバック」とは、ユーザの感情データに基づき、提案内容を調整して再提案するプロセスである。 "Feedback" is the process of adjusting and re-proposing suggestions based on the user's emotional data.

この発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣類を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたシステムである。このシステムにより、ユーザの感情に応じた衣類やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention is a virtual fitting system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, combined with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits based on the user's emotions, providing a more personalized shopping experience.

サーバは、次のような技術を統合してこのシステムを実現する。まず、サーバはユーザの体型情報を入力する手段を提供する。この手段により、ユーザは自分の身長、体重、スリーサイズなどの情報を入力できる。さらに、複数の角度から撮影された全身写真をアップロードする手段も提供する。これにより、ユーザは自分の前面、側面、背面を撮影した写真をアップロードできる。 The server realizes this system by integrating the following technologies: First, the server provides a means for users to input their body type information. This allows users to enter information such as their height, weight, and three sizes. It also provides a means for users to upload full-body photos taken from multiple angles. This allows users to upload photos of their front, side, and back.

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータを収集する手段を持つ。このデータには、衣類の画像、サイズ、素材、カラーなどの詳細情報が含まれる。次に、サーバは最新の画像認識アルゴリズム(例:TensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この3Dモデルに対して、ディープラーニング技術を活用して衣類を合成する手段を使用して、リアルな試着イメージを生成する。 The server has a means of collecting data on clothing for sale from online stores and other data sources. This data includes detailed information such as clothing images, sizes, materials, and colors. The server then uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data to generate a high-resolution 3D model. This 3D model is then used to synthesize clothing using deep learning technology to generate realistic try-on images.

さらに、感情エンジン(例:Affectiva API)を用いて、ユーザの表情や音声を解析し、感情データを取得する手段を持つ。感情データに基づいて、ユーザに最適な衣類やコーディネートを提案する手段も組み込まれる。これにより、ユーザの感情に応じた適切な提案をリアルタイムで行うことが可能である。 Furthermore, it has a means of analyzing the user's facial expressions and voice using an emotion engine (e.g., Affectiva API) to obtain emotional data. It also incorporates a means of suggesting the most suitable clothing and outfits for the user based on the emotional data. This makes it possible to make appropriate suggestions in real time based on the user's emotions.

ユーザの端末に試着イメージを提示する手段も整備されている。これによって、ユーザは生成されたバーチャル試着イメージを複数の角度から確認することができる。試着イメージが表示された後、ユーザはその場で感情データをフィードバックし、必要に応じてコーディネートを調整することができる。 A means of displaying try-on images on the user's device has also been developed, allowing the user to view the generated virtual try-on image from multiple angles. After the try-on image is displayed, the user can provide feedback on their emotional data on the spot and adjust their outfit as needed.

具体例として、ユーザが自分の身長と体重をアプリに入力し、3枚の全身写真(前面、背面、側面)をアップロードする。写真撮影が終了した後、感情解析によりユーザが喜んでいる場合、明るい色や最新ファッションのコーディネートを提案する。一方で、ユーザが不満を感じている場合、新たなコーディネートを提案するようにシステムが調整を行う。 For example, a user enters their height and weight into the app and uploads three full-body photos (front, back, and side). After the photo shoot is complete, emotion analysis is performed and if the user is happy, the system will suggest outfits in bright colors and the latest fashions. On the other hand, if the user is unhappy, the system will adjust to suggest new outfits.

プロンプト文の例として、以下のようになる。 An example of a prompt statement is as follows:

ユーザの身長は170cmで、体重は65kgです。前面、背面、側面の写真がアップロードされました。感情解析により、ユーザは現在「喜び」を感じています。これに基づいて、明るい色と最新ファッションの複数のコーディネートを提案してください。 The user is 170cm tall and weighs 65kg. Front, back, and side photos have been uploaded. Sentiment analysis indicates that the user is currently feeling "joy." Based on this, suggest multiple outfits in bright colors and the latest fashions.

このようにして、ユーザは自分の体型に最適な衣類を選び、バーチャル試着の体験を通じて実際に試着するかのような感覚を得ることができる。リアルタイムでの感情フィードバックによって、さらにパーソナライズされたショッピング体験が提供される。 In this way, users can choose the clothing that best suits their body type and get the feeling of trying it on in real life through a virtual try-on experience. Real-time emotional feedback provides a more personalized shopping experience.

応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in Application Example 2 will be explained using Figure 14.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力し、複数角度から撮影した全身写真(前面、背面、側面)をアップロードする。入力されるデータは体型情報と写真データであり、これらは端末からサーバに送信される。その結果、ユーザの体型や全身写真に関するデータがサーバに保存される。 Users launch the application, enter their body type information (height, weight, measurements, etc.), and upload full-body photos taken from multiple angles (front, back, side). The entered data consists of body type information and photo data, which are sent from the device to the server. As a result, data related to the user's body type and full-body photos is stored on the server.

ステップ2: Step 2:

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータ(画像、サイズ、素材、カラーなど)を収集する。この収集は、APIまたはウェブスクレイピング技術を使用する。取得したデータは、サーバのデータベースに保存される。入力は衣類のデータであり、出力はデータベースに保存された衣類データである。 The server collects data about clothing sold (images, sizes, materials, colors, etc.) from online stores and other data sources. This collection is done using APIs or web scraping technology. The acquired data is stored in a database on the server. The input is clothing data, and the output is clothing data stored in the database.

ステップ3: Step 3:

サーバは、最新の画像認識アルゴリズム(例えばTensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この過程で、ユーザの各写真はピクセル解析され、3Dモデルの形状を作成する。このステップでの入力はユーザの体型情報と写真データ、出力は高解像度3Dモデルである。 The server uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data and generate a high-resolution 3D model. During this process, each user's photo is pixel-analyzed to create the shape of the 3D model. The input for this step is the user's body shape information and photo data, and the output is a high-resolution 3D model.

ステップ4: Step 4:

サーバは生成AIモデルを用いて、生成された3Dモデルに対して販売されている衣類を合成する。ディープラーニング技術を活用し、衣類のフィット感や質感をリアルに再現するデータ加工を行う。入力は高解像度3Dモデルと衣類データ、出力は試着イメージである。 The server uses a generative AI model to synthesize clothing for sale onto the generated 3D model. Utilizing deep learning technology, data processing is performed to realistically reproduce the fit and texture of the clothing. The input is a high-resolution 3D model and clothing data, and the output is a try-on image.

ステップ5: Step 5:

端末は、感情エンジン(例えばAffectiva API)でユーザの表情と音声をリアルタイムで解析し、感情データを取得する。撮影された表情データや音声データが入力となり、解析された感情データが出力される。このステップでは端末がカメラやマイクを使用してデータを取得する。 The device uses an emotion engine (e.g., Affectiva API) to analyze the user's facial expressions and voice in real time and obtain emotional data. Captured facial and voice data is input, and analyzed emotional data is output. In this step, the device obtains data using the camera and microphone.

ステップ6: Step 6:

サーバは、感情データに基づいてユーザに最適な衣類やコーディネートを提案する。入力は感情データであり、出力はユーザの好みに合わせたコーディネート提案である。この提案は動的に行われ、リアルタイムで調整される。 The server suggests optimal clothing and outfits for the user based on emotional data. The input is emotional data, and the output is outfit suggestions tailored to the user's preferences. These suggestions are made dynamically and adjusted in real time.

ステップ7: Step 7:

ユーザの端末は、サーバから送信された試着イメージを表示する。入力は試着イメージであり、出力はユーザインタフェースに表示された試着イメージである。ユーザは表示された試着イメージを確認し、必要に応じて異なる角度のイメージや他の衣類の試着をリクエストすることができる。 The user's device displays the try-on images sent from the server. The input is the try-on image, and the output is the try-on image displayed on the user interface. The user can review the displayed try-on image and, if necessary, request images from different angles or to try on other clothing items.

ステップ8: Step 8:

ユーザが提案されたコーディネートを気に入った場合、購入手続きを行う。ユーザは「購入」ボタンをクリックし、端末は購入情報をサーバに送信する。入力は購入情報であり、出力は購入確認と配送情報である。サーバは、ネットストアの決済システムと連携し、注文を記録し、確認通知をユーザに送信する。 If the user likes the suggested outfit, they proceed with the purchase. The user clicks the "Purchase" button, and the device sends the purchase information to the server. The input is the purchase information, and the output is purchase confirmation and delivery information. The server connects with the online store's payment system, records the order, and sends a confirmation to the user.

これにより、ユーザは自分の体型にフィットする衣類をバーチャル試着し、感情データに基づいたパーソナライズされたコーディネート提案を受け、最終的に購入することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized outfit suggestions based on emotional data, and ultimately make a purchase.

特定処理部290は、特定処理の結果をヘッドセット型端末314に送信する。ヘッドセット型端末314では、制御部46Aが、スピーカ240及びディスプレイ343に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。 The specific processing unit 290 transmits the results of the specific processing to the headset terminal 314. In the headset terminal 314, the control unit 46A causes the speaker 240 and display 343 to output the results of the specific processing. The microphone 238 acquires audio indicating the user input regarding the results of the specific processing. The control unit 46A transmits audio data indicating the user input acquired by the microphone 238 to the data processing device 12. In the data processing device 12, the specific processing unit 290 acquires the audio data.

データ生成モデル58は、いわゆる生成系AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。 Data generation model 58 is what is known as generative AI (artificial intelligence). Examples of data generation model 58 include generative AI such as ChatGPT (Internet search <URL: https://openai.com/blog/chatgpt>) and Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>). Data generation model 58 is obtained by performing deep learning on a neural network. A prompt containing an instruction is input to data generation model 58, and inference data such as voice data indicating speech, text data indicating text, and image data indicating an image is also input. Data generation model 58 performs inference on the input inference data in accordance with the instructions indicated by the prompt, and outputs the inference results in the form of data such as voice data and text data. Here, inference refers to, for example, analysis, classification, prediction, and/or summarization.

上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、ヘッドセット型端末314によって特定処理が行われるようにしてもよい。 In the above embodiment, an example was given in which the specific processing was performed by the data processing device 12, but the technology disclosed herein is not limited to this, and the specific processing may also be performed by the headset-type terminal 314.

[第4実施形態] [Fourth embodiment]

図7には、第4実施形態に係るデータ処理システム410の構成の一例が示されている。 Figure 7 shows an example of the configuration of a data processing system 410 according to the fourth embodiment.

図7に示すように、データ処理システム410は、データ処理装置12及びロボット414を備えている。データ処理装置12の一例としては、サーバが挙げられる。 As shown in FIG. 7, the data processing system 410 includes a data processing device 12 and a robot 414. An example of the data processing device 12 is a server.

データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。 The data processing device 12 includes a computer 22, a database 24, and a communication I/F 26. The computer 22 is an example of a "computer" according to the technology of the present disclosure. The computer 22 includes a processor 28, RAM 30, and storage 32. The processor 28, RAM 30, and storage 32 are connected to a bus 34. The database 24 and communication I/F 26 are also connected to the bus 34. The communication I/F 26 is connected to a network 54. Examples of the network 54 include a WAN (Wide Area Network) and/or a LAN (Local Area Network).

ロボット414は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、及び制御対象443を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、及び制御対象443も、バス52に接続されている。 The robot 414 includes a computer 36, a microphone 238, a speaker 240, a camera 42, a communication I/F 44, and a control target 443. The computer 36 includes a processor 46, RAM 48, and storage 50. The processor 46, RAM 48, and storage 50 are connected to a bus 52. The microphone 238, speaker 240, camera 42, and control target 443 are also connected to the bus 52.

マイクロフォン238は、ユーザ20が発する音声を受け付けることで、ユーザ20から指示等を受け付ける。マイクロフォン238は、ユーザ20が発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。 The microphone 238 receives instructions and the like from the user 20 by receiving voice uttered by the user 20. The microphone 238 captures the voice uttered by the user 20, converts the captured voice into audio data, and outputs it to the processor 46. The speaker 240 outputs audio in accordance with instructions from the processor 46.

カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザ20の周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。 Camera 42 is a small digital camera equipped with an optical system including a lens, aperture, and shutter, and an imaging element such as a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor, and captures images of the user 20's surroundings (e.g., an imaging range defined by an angle of view equivalent to the field of vision of a typical healthy person).

通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。 The communication I/F 44 is connected to the network 54. The communication I/Fs 44 and 26 are responsible for the exchange of various information between the processor 46 and the processor 28 via the network 54. The exchange of various information between the processor 46 and the processor 28 using the communication I/Fs 44 and 26 is carried out in a secure manner.

制御対象443は、表示装置、目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット414の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット414の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット414の目部のLEDの発光状態を制御することによっても、ロボット414の表情を表現できる。 The control object 443 includes a display device, LEDs in the eyes, and motors that drive the arms, hands, and feet. The posture and gestures of the robot 414 are controlled by controlling the motors of the arms, hands, and feet. Some of the emotions of the robot 414 can be expressed by controlling these motors. In addition, the facial expressions of the robot 414 can also be expressed by controlling the light emission state of the LEDs in the eyes of the robot 414.

図8には、データ処理装置12及びロボット414の要部機能の一例が示されている。図8に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。 Figure 8 shows an example of the main functions of the data processing device 12 and the robot 414. As shown in Figure 8, in the data processing device 12, specific processing is performed by the processor 28. A specific processing program 56 is stored in the storage 32.

特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。 The specific processing program 56 is an example of a "program" according to the technology of the present disclosure. The processor 28 reads the specific processing program 56 from the storage 32 and executes the read specific processing program 56 on the RAM 30. The specific processing is realized by the processor 28 operating as the specific processing unit 290 in accordance with the specific processing program 56 executed on the RAM 30.

ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。 Storage 32 stores a data generation model 58 and an emotion identification model 59. The data generation model 58 and the emotion identification model 59 are used by the identification processing unit 290.

ロボット414では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。 In the robot 414, the reception output process is performed by the processor 46. A reception output program 60 is stored in the storage 50. The processor 46 reads the reception output program 60 from the storage 50 and executes the read reception output program 60 on the RAM 48. The reception output process is realized by the processor 46 operating as the control unit 46A in accordance with the reception output program 60 executed on the RAM 48.

次に、データ処理装置12の特定処理部290による特定処理について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。 Next, we will explain the specific processing performed by the specific processing unit 290 of the data processing device 12. In the following explanation, the data processing device 12 will be referred to as the "server" and the robot 414 will be referred to as the "terminal."

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードすることから始まる。続いて、システムは収集した衣服のデータを基に生成AIモデルを活用し、ユーザの3Dモデルに衣服を合成し、仮想的な試着イメージを提示する。さらに、ユーザは販売員からのコーディネート提案を受け、より楽しみながら衣服を選び購入することができる。 This invention is a virtual try-on system that uses the user's body type information and full-body photos taken from multiple angles to generate a fitting image tailored to the user. The system begins by the user entering body type information and uploading a full-body photo using their own device. The system then utilizes a generative AI model based on the collected clothing data to synthesize the clothing onto the user's 3D model and present a virtual fitting image. In addition, users can receive coordination suggestions from sales staff, making the process of selecting and purchasing clothing even more enjoyable.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as their height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

端末は、ユーザが入力した体型情報と撮影した全身写真をサーバに送信する。 The device sends the body type information entered by the user and the full-body photo taken to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses APIs or web scraping technology from partner online stores to collect data on clothing sold online (images, sizes, materials, colors, etc.) and stores it in a database.

3. 3Dモデルの生成および合成 3. 3D model generation and synthesis

サーバは、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する。 The server analyzes the user's body shape information and uploaded full-body photos to generate a high-resolution 3D model of the user.

サーバは、生成AIモデルを活用して3Dモデルに対してユーザが選択した衣服を合成する。この際、衣服のフィット感やテクスチャをリアルに再現するためのディープラーニング技術を使用する。 The server uses a generative AI model to synthesize the user's selected clothing onto the 3D model, using deep learning techniques to realistically recreate the clothing's fit and texture.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 Users can review the displayed try-on images and, if necessary, request images from different angles or images of other garments.

5. コーディネート提案および購入手続き 5. Coordination suggestions and purchasing procedures

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。 The server generates images of the suggested outfits to try on and displays them on the user's device.

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

本発明により、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、提案されたコーディネートを確認しながら、オンラインでスムーズに購入手続きを行うことが可能である。 This invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying the clothes on. Furthermore, they can smoothly complete the online purchase process while checking suggested outfits.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。また、前面、背面、側面から撮影した全身写真をアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。この解析には、画像認識アルゴリズムを使用する。 The server analyzes the received body shape information and full-body photo data to generate a high-resolution 3D model of the user. This analysis is performed using image recognition algorithms.

ステップ4: Step 4:

サーバは、提携ネットストアのAPIまたはウェブスクレイピング技術を用いて、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses APIs or web scraping technology from partner online stores to collect data on the clothing being sold (images, sizes, materials, colors, etc.) and stores it in a database.

ステップ5: Step 5:

サーバは、生成されたユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを使用して衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using a generative AI model to realistically recreate the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度の試着イメージや他の衣服の試着イメージをリクエストする。 The user reviews the displayed try-on images. If necessary, they can request try-on images from different angles or images of other garments.

ステップ9: Step 9:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ10: Step 10:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ11: Step 11:

販売員は、ユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。 The salesperson suggests appropriate outfits based on the user's body type and preferences, and sends feedback to the server.

ステップ12: Step 12:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。 The server generates images of the suggested outfits to try on and sends them to the user's device.

ステップ13: Step 13:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ14: Step 14:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ15: Step 15:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ16: Step 16:

サーバは、購入情報を記録し、ネットストアの決済システムに連携する。 The server records purchase information and connects it to the online store's payment system.

ステップ17: Step 17:

サーバは、ユーザに注文確認と配送情報を通知する。 The server notifies the user of the order confirmation and delivery information.

ステップ18: Step 18:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例1) (Example 1)

次に、実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。 Next, Example 1 will be described. In the following description, the data processing device 12 will be referred to as the "server" and the robot 414 will be referred to as the "terminal."

従来のオンラインショッピングにおいては、ユーザが実際に試着しないと衣服のフィット感やデザインが自身にどのように見えるかを正確に把握できないという問題があった。また、ユーザの好みに合わせたコーディネート提案や、試着イメージの確認が不十分であり、ユーザの購買意欲を阻害する要因となっていた。これにより、オンラインショッピングに対するユーザの満足度が低下することが課題であった。 Traditional online shopping has the problem that users cannot accurately understand how clothes will fit or how the design will look on them unless they actually try them on. Furthermore, coordination suggestions tailored to the user's preferences and the ability to check how the clothes will look when tried on are insufficient, which discourages users from making a purchase. This has led to a decline in user satisfaction with online shopping.

実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、オンラインで販売されている衣服のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣服を合成する手段と、生成された試着イメージをユーザの端末に送信する手段と、ユーザの端末に試着イメージを表示する手段と、を含む。これにより、ユーザは自身の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることが可能となる。また、コーディネート提案を販売員にリクエストし、提案された試着イメージを確認することができるため、ユーザの購買意欲を向上させることができる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing sold online, means for combining clothing with the generated high-resolution 3D model of the user, means for sending the generated try-on images to the user's device, and means for displaying the try-on images on the user's device. This allows users to easily select clothing that fits their body type and experience the virtual try-on experience as if they were actually trying on the clothes. In addition, users can request coordination suggestions from a salesperson and check the suggested try-on images, which increases the user's desire to purchase.

「ユーザ」とは、システムを利用して体型情報を入力し、全身写真を撮影およびアップロードする個人を指す。 "User" refers to an individual who uses the system to enter body type information and take and upload full-body photos.

「体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体に関する詳細なデータを指す。 "Body type information" refers to detailed data about the user's body, such as their height, weight, and measurements.

「全身写真」とは、ユーザの身体を前面、背面、側面の複数角度から撮影した画像を指す。 "Full-body photos" refer to images of the user's body taken from multiple angles, including the front, back, and side.

「オンラインで販売されている衣服のデータ」とは、インターネット上の販売サイトやストアから収集される衣服の画像、サイズ、素材、カラーなどの情報を指す。 "Data on clothing sold online" refers to information such as clothing images, sizes, materials, and colors collected from online sales sites and stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基に生成された、ユーザの身体を詳細に再現した三次元のコンピュータグラフィックスモデルを指す。 "High-resolution 3D model" refers to a three-dimensional computer graphics model that reproduces the user's body in detail, generated based on the user's body shape information and a full-body photograph.

「生成AIモデル」とは、ディープラーニング技術を用いて、ユーザの3Dモデルに衣服をリアルに合成するためにトレーニングされた人工知能モデルを指す。 "Generative AI model" refers to an artificial intelligence model trained using deep learning technology to realistically synthesize clothing onto a user's 3D model.

「試着イメージ」とは、生成AIモデルを用いてユーザの3Dモデルに選択された衣服を合成した画像を指す。 "Try-on image" refers to an image created by combining the selected clothing onto the user's 3D model using a generative AI model.

「ユーザの端末」とは、スマートフォン、タブレット、パソコンなどユーザが使用する電子機器を指す。 "User's device" refers to the electronic device used by the user, such as a smartphone, tablet, or PC.

「コーディネート提案」とは、ユーザの体型情報や好みに基づいて、販売員が推奨する複数の衣服の組み合わせを指す。 "Coordination suggestions" refer to combinations of multiple items of clothing recommended by a salesperson based on the user's body type information and preferences.

「販売員」とは、システムを通じてユーザに対してコーディネート提案を行う業務を担当する者を指す。 "Salesperson" refers to a person in charge of making outfit suggestions to users through the system.

本発明は、ユーザの体型情報および複数角度からの全身写真を使用して、ユーザに合わせた試着イメージを生成するバーチャル試着システムである。このシステムでは、以下のような手順でプログラムが実行される。 This invention is a virtual try-on system that uses the user's body type information and full-body photographs taken from multiple angles to generate a fitting image tailored to the user. In this system, the program is executed in the following steps:

まず、ユーザは、スマートフォンやPC上で専用のアプリケーションを起動し、自身の体型情報を入力する。体型情報には身長、体重、スリーサイズが含まれる。その後、ユーザは前面、背面、および側面の全身写真を撮影し、アプリケーションにアップロードする。このアップロードされたデータは、端末を介してサーバに送信される。 First, the user launches a dedicated application on their smartphone or PC and enters their body information, including height, weight, and measurements. The user then takes full-body photos of the front, back, and side and uploads them to the application. This uploaded data is then sent to the server via the device.

端末は、入力およびアップロードされたデータをHTTPSプロトコルを利用して安全にサーバに送信する。サーバは、これらのデータを受け取り、高精度にユーザの体型を解析するために、画像解析技術であるOpenCVを使用する。解析されたデータを基に、高解像度の3Dモデルを生成するためにディープラーニングフレームワークのTensorFlowやPyTorchを用いる。 The device securely transmits input and uploaded data to the server using the HTTPS protocol. The server receives this data and uses the image analysis technology OpenCV to analyze the user's body shape with high accuracy. Based on the analyzed data, the deep learning frameworks TensorFlow and PyTorch are used to generate a high-resolution 3D model.

サーバは、ユーザのために3Dモデルを生成した後、提携ネットストアのAPIまたはウェブスクレイピング技術を使用して、オンラインで販売されている衣服のデータを収集する。このデータには、衣服の画像、サイズ、素材、カラーなどが含まれる。これらのデータはデータベースに保存され、ユーザの3Dモデルに対して衣服を合成する際に使用される。 After generating a 3D model for the user, the server uses APIs or web scraping technology from partner online stores to collect data about clothing sold online. This data includes clothing images, sizes, materials, colors, etc. This data is stored in a database and used to synthesize clothing onto the user's 3D model.

サーバは、生成された3Dモデルに対して、ユーザが選択した衣服を生成AIモデルを用いて合成する。生成AIモデルは、ディープラーニング技術によってトレーニングされており、衣服のフィット感やテクスチャをリアルに再現する。この際、TensorFlowやPyTorchを利用したディープラーニングアルゴリズムを適用する。 The server then uses a generative AI model to synthesize the clothing selected by the user onto the generated 3D model. The generative AI model is trained using deep learning technology to realistically reproduce the fit and texture of the clothing. Deep learning algorithms using TensorFlow and PyTorch are used in this process.

生成された試着イメージは、複数の角度から撮影され、JPEGまたはPNG形式の画像ファイルとしてユーザの端末に送信される。端末は、受信した試着イメージをアプリケーションのユーザインタフェースに表示する。ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度からのイメージや他の衣服の試着イメージをリクエストすることができる。 The generated try-on images are photographed from multiple angles and sent to the user's device as JPEG or PNG image files. The device displays the received try-on images on the application's user interface. The user can review the displayed try-on images and request images from different angles or try-on images of other garments as needed.

さらに、ユーザはコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。サーバは、コーディネート提案を担当する販売員にリクエストを送信し、販売員はユーザの体型情報や好みに基づいて適切なコーディネートを提案し、サーバにフィードバックを送る。このフィードバックを基にサーバは新たな試着イメージを生成し、ユーザの端末に提示する。ユーザは最終的に、提案されたコーディネートを確認し、購入を決定する場合は「購入」ボタンをクリックする。この購入情報は、端末を介してサーバに送信され、ネットストアの決済システムと連携して購入手続きが行われる。 Furthermore, if the user wishes to receive outfit suggestions, they click the "Request outfit suggestions" button. The server sends a request to the salesperson in charge of outfit suggestions, who then suggests an appropriate outfit based on the user's body type and preferences and sends feedback to the server. Based on this feedback, the server generates a new try-on image and displays it on the user's device. Finally, the user checks the suggested outfit and clicks the "Purchase" button if they decide to purchase. This purchase information is sent to the server via the device, and the purchase process is carried out in conjunction with the online store's payment system.

具体例 Specific examples

例えば、ユーザが「青色のジーンズ」と「白いTシャツ」の試着を希望する場合、 For example, if a user wants to try on "blue jeans" and a "white T-shirt,"

1. ユーザは、身長170cm、体重65kg、スリーサイズ90-75-90と入力し、前面、背面、および側面の全身写真をアップロードする。 1. The user enters their height as 170cm, weight as 65kg, and measurements as 90-75-90, and uploads full-body photos of the front, back, and side.

2. 端末は、これらの情報をサーバに送信する。 2. The device sends this information to the server.

3. サーバは、「青色のジーンズ」と「白いTシャツ」のデータをウェブスクレイピング技術を用いて収集し、データベースに保存する。 3. The server uses web scraping technology to collect data on "blue jeans" and "white T-shirts" and stores it in a database.

4. サーバは、画像解析技術を用いてユーザの高解像度3Dモデルを生成し、生成AIモデルを使って3Dモデルに対してジーンズとTシャツを合成する。 4. The server uses image analysis technology to generate a high-resolution 3D model of the user, and then uses a generative AI model to synthesize jeans and a T-shirt onto the 3D model.

5. サーバは、複数の角度からの試着イメージを生成し、ユーザの端末に送信する。 5. The server generates try-on images from multiple angles and sends them to the user's device.

6. ユーザは、新しく生成された試着イメージを確認し、さらに「このコーディネートで購入」と決定することができる。 6. The user can check the newly generated try-on image and then decide to "purchase this outfit."

プロンプト文の例 Example prompt

「ユーザの身長、体重、スリーサイズのデータを入力し、前面、背面、側面から撮影した全身写真をアップロードしてください。」 "Enter your height, weight, and measurements, and upload full-body photos taken from the front, back, and side."

このシステムにより、ユーザは自分の体型にフィットする衣服を簡単に見つけ、バーチャル試着を通じて実際に試着するかのような体験を得ることができる。また、コーディネート提案をリクエストし、提案された試着イメージを確認することで、オンラインでの衣服購入がよりスムーズかつ満足のいくものになる。 This system allows users to easily find clothes that fit their body type and experience the same sensation of trying them on in real life through virtual try-on. They can also request outfit suggestions and check the suggested try-on images, making online clothing shopping a smoother and more satisfying experience.

実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 will be explained using Figure 11.

ステップ1: Step 1:

ユーザがアプリケーションを起動する。 The user launches the application.

具体的動作:ユーザはスマートフォンやPC上で専用アプリケーションをタップまたはクリックして起動し、最初の画面に遷移する。 Specific operation: The user taps or clicks on the dedicated application on their smartphone or PC to launch it and proceeds to the first screen.

入力:なし Input: None

出力:アプリケーションが起動し、ユーザが体型情報を入力できる画面が表示される。 Output: The application launches and displays a screen where the user can enter body information.

ステップ2: Step 2:

ユーザが体型情報を入力する。 The user enters body type information.

具体的動作:ユーザは、身長、体重、スリーサイズなどの体型情報をアプリケーションのフォームに入力する。また、前面、背面、側面から撮影した全身写真を用意する。 Specific operation: The user enters body information such as height, weight, and measurements into the application form. They also provide full-body photos taken from the front, back, and side.

入力:身長、体重、スリーサイズなどの体型情報 Input: Body information such as height, weight, and measurements

出力:入力された体型情報と全身写真の表示 Output: Display of entered body shape information and full-body photo

ステップ3: Step 3:

ユーザが全身写真をアップロードする。 Users upload full-body photos.

具体的動作:ユーザは前面、背面、側面の全身写真をアプリケーション内のアップロード機能を用いてアップロードする。 Specific operation: The user uploads full-body photos of the front, back, and side using the upload function within the application.

入力:前面、背面、側面の全身写真 Input: Full-body photos (front, back, and side)

出力:全身写真のアップロード完了メッセージ Output: Full-body photo upload complete message

ステップ4: Step 4:

端末が入力データをサーバに送信する。 The device sends the input data to the server.

具体的動作:端末がユーザの体型情報および全身写真をHTTPSプロトコルでサーバに送信する。 Specific operation: The device sends the user's body shape information and full-body photo to the server via the HTTPS protocol.

入力:ユーザの体型情報および全身写真 Input: User's body type information and full-body photo

出力:データがサーバに送信され、処理待ち状態になる。 Output: The data is sent to the server and awaits processing.

ステップ5: Step 5:

サーバが体型情報と全身写真を解析する。 The server analyzes body shape information and full-body photos.

具体的動作:サーバは、OpenCVを用いて画像解析を行い、ユーザの体型情報を基に3Dモデルの作成に必要な特徴を抽出する。 Specific operation: The server performs image analysis using OpenCV and extracts the features necessary to create a 3D model based on the user's body shape information.

入力:体型情報および全身写真 Input: Body information and full-body photo

出力:特徴抽出済みのデータ Output: Feature-extracted data

ステップ6: Step 6:

サーバが高解像度3Dモデルを生成する。 The server generates a high-resolution 3D model.

具体的動作:サーバがTensorFlowやPyTorchを利用してディープラーニングを行い、ユーザの体型に基づく高解像度の3Dモデルを生成する。 Specific operation: The server uses TensorFlow and PyTorch for deep learning to generate a high-resolution 3D model based on the user's body shape.

入力:特徴抽出済みのデータ Input: Feature-extracted data

出力:高解像度3Dモデル Output: High-resolution 3D model

ステップ7: Step 7:

サーバがオンラインで販売されている衣服のデータを収集する。 The server collects data on clothing sold online.

具体的動作:サーバは提携ネットストアのAPIを呼び出し、またはウェブスクレイピングを使用して最新の衣服データ(画像、サイズ、素材、カラーなど)を収集する。 Specific operation: The server calls the API of partner online stores or uses web scraping to collect the latest clothing data (images, sizes, materials, colors, etc.).

入力:提携ネットストアのAPIエンドポイントまたはスクレイピングターゲットのURL Input: API endpoint of affiliated online store or URL of scraping target

出力:衣服データベースに保存された最新の衣服データ Output: Latest clothing data stored in the clothing database

ステップ8: Step 8:

サーバが生成AIモデルを用いて衣服を3Dモデルに合成する。 The server uses a generative AI model to synthesize the clothing onto the 3D model.

具体的動作:サーバは生成AIモデルを使用し、収集された衣服データを基にユーザの3Dモデルに衣服を合成する。 Specific operation: The server uses a generative AI model to synthesize clothing onto the user's 3D model based on the collected clothing data.

入力:3Dモデルおよび衣服データ Input: 3D model and clothing data

出力:複数の角度から見た試着イメージ Output: Try-on images from multiple angles

ステップ9: Step 9:

サーバが生成された試着イメージを端末に送信する。 The server sends the generated try-on image to the device.

具体的動作:サーバは試着イメージをJPEGまたはPNG形式で生成し、ユーザの端末に送信する。CDN経由での高速なデータ転送を行うこともある。 Specific operation: The server generates try-on images in JPEG or PNG format and sends them to the user's device. High-speed data transfer may also be performed via a CDN.

入力:試着イメージ Input: Try-on image

出力:端末に送信された試着イメージ Output: Try-on image sent to the device

ステップ10: Step 10:

端末が試着イメージをユーザインタフェースに表示する。 The device displays the try-on image on the user interface.

具体的動作:端末は受信した試着イメージをアプリケーションのユーザインタフェースに表示し、ユーザが操作できるようにする。 Specific operation: The device displays the received try-on image on the application's user interface, allowing the user to operate it.

入力:試着イメージ Input: Try-on image

出力:ユーザインタフェースに表示された試着イメージ Output: Try-on image displayed on the user interface

ステップ11: Step 11:

ユーザが試着イメージを確認し、必要に応じてリクエストを送信する。 Users can check the fitting images and submit requests if necessary.

具体的動作:ユーザは試着イメージを確認し、異なる角度からのイメージや他の衣服の試着イメージをリクエストする場合、アプリケーション内の対応するボタンをクリックする。 Specific operation: The user reviews the try-on images and clicks the corresponding button in the application to request images from different angles or images of other garments being tried on.

入力:ユーザのリクエスト Input: User request

出力:リクエスト内容がサーバに送信される Output: The request is sent to the server.

ステップ12: Step 12:

ユーザがコーディネート提案をリクエストする。 The user requests outfit suggestions.

具体的動作:ユーザがコーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 Specific operation: If the user would like outfit suggestions, they click the "Request outfit suggestions" button.

入力:ユーザのコーディネート提案リクエスト Input: User's outfit suggestion request

出力:リクエストがサーバに送信される。 Output: The request is sent to the server.

ステップ13: Step 13:

サーバが販売員にリクエストを送信する。 The server sends the request to the salesperson.

具体的動作:サーバはコーディネート提案リクエストを販売員に送信し、必要なユーザ情報も併せて提供する。 Specific operation: The server sends a coordination suggestion request to the salesperson, along with the necessary user information.

入力:ユーザのリクエスト Input: User request

出力:リクエストが販売員に送信される Output: The request is sent to the salesperson.

ステップ14: Step 14:

販売員が提案をフィードバックする。 Salespeople will provide feedback on suggestions.

具体的動作:販売員はユーザの体型情報や好みに基づいて適切なコーディネートを考え、サーバにフィードバックを送信する。 Specific operation: The salesperson considers the appropriate outfit based on the user's body type and preferences, and sends feedback to the server.

入力:ユーザの体型情報および好み Input: User's body type and preferences

出力:コーディネート提案のフィードバック Output: Feedback on outfit suggestions

ステップ15: Step 15:

サーバがコーディネート試着イメージを生成する。 The server generates images of outfits to try on.

具体的動作:サーバは販売員からのフィードバックを基に新たな試着イメージを生成し、ユーザの端末に送信する。 Specific operation: The server generates new try-on images based on feedback from the salesperson and sends them to the user's device.

入力:コーディネート提案のフィードバック Input: Feedback on outfit suggestions

出力:端末に送信されたコーディネート試着イメージ Output: Try-on image of outfit sent to device

ステップ16: Step 16:

ユーザが提案を確認し、購入を決定する。 The user reviews the offer and decides to purchase.

具体的動作:ユーザは新しく生成されたコーディネート試着イメージを確認し、気に入った場合は「購入」ボタンをクリックする。 Specific operation: The user checks the newly generated outfit try-on image and, if they like it, clicks the "Purchase" button.

入力:コーディネート試着イメージ Input: Coordination try-on image

出力:購入リクエストがサーバに送信される Output: Purchase request sent to server

ステップ17: Step 17:

端末が購入情報をサーバに送信し、ネットストアと連携する。 The device sends purchase information to the server and connects with the online store.

具体的動作:端末は購入情報をサーバに送信し、サーバはネットストアの決済システムと連携して購入手続きを行う。 Specific operation: The terminal sends purchase information to the server, and the server works with the online store's payment system to complete the purchase process.

入力:購入情報 Enter: Purchase information

出力:購入手続きが完了し、ユーザに確認通知が送信される Output: The purchase is completed and a confirmation is sent to the user.

(応用例1) (Application Example 1)

次に、応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。 Next, we will explain Application Example 1. In the following explanation, the data processing device 12 will be referred to as the "server" and the robot 414 will be referred to as the "terminal."

従来の実店舗での試着には、時間と手間がかかるという問題があった。また、実際に試着できる衣服の種類も限られており、多くの選択肢を試すことが困難であった。さらに、オンラインショッピングにおいては、実際の商品がどのように見えるかを確認することができないため、購入後の返品や交換が多発するという課題があった。これらの問題を解決するためには、ユーザが簡単に衣服を試着し、自身の体型に合った最適な衣服を選択できるシステムが必要である。 Traditionally, trying on clothes in physical stores was time-consuming and labor-intensive. Additionally, the types of clothing that could be tried on were limited, making it difficult to try out many options. Furthermore, with online shopping, customers were unable to see how the actual product would look, leading to frequent returns and exchanges after purchase. To solve these problems, a system was needed that allowed users to easily try on clothes and select the best fit for their body type.

応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Application Example 1 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、購入可能な物品のデータを収集する手段と、生成されたユーザの3Dモデルに対して物品を合成する手段と、ユーザの端末にバーチャル試着イメージを提示する手段と、ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードする手段と、提携オンラインストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている物品のデータを収集し、保存する手段と、ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する手段と、複数の角度から試着イメージを生成し、ユーザの端末に送信する手段と、を含む。これにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことが可能となり、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能となる。 In this invention, the server includes means for inputting a user's body type information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on available items, means for overlaying items onto the generated 3D model of the user, means for presenting virtual try-on images to the user's device, means for the user to input body type information and upload a full-body photo using their own device, means for collecting and saving data on items sold online using the API or web scraping technology of affiliated online stores, means for analyzing the user's body type information and uploaded full-body photos and generating a high-resolution 3D model of the user, and means for generating try-on images from multiple angles and sending them to the user's device. This allows users to smoothly try on clothes virtually in a physical store, shortening the time it takes to actually try them on and combining the convenience of online shopping with the experience of a physical store.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体的な寸法および特徴を指す。 "User's body type information" refers to the user's physical measurements and characteristics, such as height, weight, and three sizes.

「全身写真」とは、ユーザの体全体が写った写真であり、前面、背面および側面から撮影された複数の写真を含む。 A "full-body photo" is a photo that shows the user's entire body, and includes multiple photos taken from the front, back, and side.

「購入可能な物品のデータ」とは、提携オンラインストアや店舗で販売されている衣服やアクセサリーなどの商品の情報であり、画像、サイズ、素材、カラーなどの属性を含む。 "Purchasable Item Data" refers to information about products such as clothing and accessories sold in affiliated online stores and physical stores, including attributes such as images, size, material, and color.

「3Dモデル」とは、ユーザの体型情報および全身写真を基に生成される高解像度の三次元デジタルモデルを指す。 "3D model" refers to a high-resolution three-dimensional digital model generated based on the user's body shape information and full-body photograph.

「物品を合成する手段」とは、生成されたユーザの3Dモデルに対して、選択された衣服やアクセサリーを仮想的に適用し、リアルな試着イメージを生成するプロセスを指す。 "Means for synthesizing items" refers to the process of virtually applying selected clothing and accessories to the generated 3D model of the user to generate a realistic try-on image.

「バーチャル試着イメージ」とは、ユーザの3Dモデルに選択された衣服やアクセサリーを合成した画像であり、複数の角度から表示される試着のシミュレーション画像を指す。 "Virtual try-on image" refers to an image that combines selected clothing and accessories with a 3D model of the user, simulating trying on the clothing and accessories from multiple angles.

「提携オンラインストアのAPI」とは、提携しているオンラインストアから販売されている商品のデータを自動的に取得するためのアプリケーションプログラミングインターフェースを指す。 "Affiliated Online Store API" refers to an application programming interface for automatically obtaining data on products sold by affiliated online stores.

「ウェブスクレイピング技術」とは、ウェブサイトから自動的にデータを抽出する技術を指す。 "Web scraping technology" refers to technology that automatically extracts data from websites.

「高解像度3Dモデルを生成する手段」とは、ユーザの体型情報および全身写真を解析し、高精度な三次元デジタルモデルを作成するプロセスを指す。 "Means for generating a high-resolution 3D model" refers to the process of analyzing a user's body shape information and full-body photograph to create a highly accurate three-dimensional digital model.

「コーディネートの提案をリクエストする手段」とは、ユーザが自身の好みに基づいたコーディネートの提案を販売員に依頼するための機能を指す。 "Means to request outfit suggestions" refers to the function that allows a user to request outfit suggestions from a salesperson based on the user's preferences.

「バーチャル試着を行う」とは、ユーザが実際に物品を試着する代わりにデジタルモデル上で試すことを可能にする行為を指す。 "Virtual try-on" refers to the act of allowing a user to try on an item on a digital model instead of actually trying it on.

本発明は、実店舗での試着体験を向上させるために、ユーザの体型情報および全身写真を使用してバーチャル試着を実現するシステムである。このシステムは、ユーザの端末(スマートフォン)と、一連のサーバ、および提携オンラインストアのAPIまたはウェブスクレイピング技術を用いて構築される。 This invention is a system that uses a user's body type information and full-body photograph to enable virtual try-on, improving the fitting experience in physical stores. The system is built using the user's device (smartphone), a series of servers, and APIs or web scraping technologies from affiliated online stores.

プログラムの生成 Program generation

システムは、以下のハードウェアおよびソフトウェアを用いる: The system uses the following hardware and software:

ユーザ端末(スマートフォン):AndroidやiOSデバイス、カメラ機能を持つ User device (smartphone): Android or iOS device with camera functionality

サーバ:データ処理および生成AIモデルを実行(TensorFlowやPyTorchを使用) Server: Data processing and generative AI model execution (using TensorFlow or PyTorch)

提携オンラインストアのAPIまたはウェブスクレイピング技術(Beautiful Soup、Scrapyなど) Partner online store API or web scraping technology (Beautiful Soup, Scrapy, etc.)

データベース:MySQLまたはPostgreSQL Database: MySQL or PostgreSQL

プログラムの処理概要 Program processing overview

サーバは、まずユーザが端末から送信した体型情報と全身写真を受け取り、画像解析技術を使用してユーザの高解像度3Dモデルを生成する。この3Dモデルは、ディープラーニングを用いて精密に作成され、ユーザの体型に対するリアルなフィット感を再現する。 The server first receives the body shape information and full-body photo sent by the user from their device, and then uses image analysis technology to generate a high-resolution 3D model of the user. This 3D model is precisely created using deep learning, recreating a realistic fit to the user's body shape.

次に、サーバは提携オンラインストアから収集した衣服データを用いて、ユーザの3Dモデルに選択された衣服を合成する。この合成プロセスは、生成AIモデルを活用し、衣服のテクスチャやフィット感を高度に再現する。複数の角度から撮影された試着イメージが生成され、ユーザの端末に送信される。 The server then uses clothing data collected from partner online stores to synthesize the selected clothing onto the user's 3D model. This synthesis process utilizes generative AI models to accurately reproduce the texture and fit of the clothing. Try-on images taken from multiple angles are generated and sent to the user's device.

ユーザは端末上でバーチャル試着イメージを確認し、気に入った場合は購入プロセスに進むことができる。また、ユーザはコーディネート提案を希望する場合、販売員にリクエストを送信することができる。販売員が提案したコーディネートは再度バーチャル試着イメージとして生成され、ユーザに提示される。 Users can check the virtual try-on images on their devices and, if they like them, proceed with the purchase process. Furthermore, if users would like a coordination suggestion, they can send a request to the salesperson. The coordination suggested by the salesperson is then regenerated as a virtual try-on image and presented to the user.

具体例とプロンプト文 Examples and prompts

具体的なプロンプト文として、提携オンラインストアのAPIを使用して衣服データを収集する際には、以下のようなコマンドを実行する: As a specific prompt, when collecting clothing data using the API of a partner online store, run the following command:

curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY" curl -X GET "https://netstore.com/api/v1/products" -H "Authorization: Bearer YOUR_API_KEY"

また、ウェブスクレイピング技術を用いる場合は、PythonのBeautiful Soupを使用し、指定されたURLから商品のデータを抽出するスクリプトが以下のようになる: Also, if you use web scraping technology, here's a script that uses Python's Beautiful Soup to extract product data from a specified URL:

from bs4 import BeautifulSoup from bs4 import BeautifulSoup

import requests Import requests

url = "https://netstore.com/products" url = "https://netstore.com/products"

response = requests.get(url) response = requests.get(url)

soup = BeautifulSoup(response.content, 'html.parser') soup = BeautifulSoup(response.content, 'html.parser')

for product in soup.find_all('div', class_='product'): for product in soup.find_all('div', class_='product'):

product_name = product.find('h2').get_text() product_name = product.find('h2').get_text()

product_price = product.find('span', class_='price').get_text() product_price = product.find('span', class_='price').get_text()

print(product_name, product_price) print(product_name, product_price)

このシステムにより、ユーザは実店舗内でスムーズにバーチャル試着を行うことができ、実際に試着する時間を短縮し、オンラインの利便性と実店舗の体験を融合させることが可能になる。 This system allows users to seamlessly try on clothes virtually in a physical store, shortening the time spent trying them on in person and combining the convenience of online with the experience of a physical store.

応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in Application Example 1 will be explained using Figure 12.

ステップ1: Step 1:

ユーザは自身の体型情報を端末に入力する。ユーザは身長、体重、スリーサイズといった身体の属性を端末に入力し、入力されたデータはサーバに送信される。この時点での入力はユーザの身体的な数値データであり、出力はサーバに送信される生のデータである。 The user enters their body type information into the terminal. The user enters physical attributes such as height, weight, and measurements into the terminal, and the entered data is sent to the server. At this point, the input is the user's physical numerical data, and the output is raw data sent to the server.

ステップ2: Step 2:

ユーザは複数角度から全身写真を撮影し、端末を通じてアップロードする。ユーザは前面、背面および側面からの写真を端末のカメラで撮影し、それらの画像データをサーバに送信する。この時点での入力は複数の画像ファイルであり、出力はサーバに保存された画像データである。 The user takes full-body photos from multiple angles and uploads them via their device. The user takes photos from the front, back, and side using the device's camera and sends the image data to the server. At this point, the input is multiple image files, and the output is image data stored on the server.

ステップ3: Step 3:

サーバは提携オンラインストアのAPIまたはウェブスクレイピング技術を使用して、販売されている物品のデータを収集する。具体的には、サーバがAPIエンドポイントにリクエストを送り、レスポンスとして商品情報を受け取る。または、ウェブページを解析して必要な商品データを取得する。この時点での入力はAPIリクエストまたはHTMLコンテンツであり、出力は商品データのセットである。 The server uses the API of a partner online store or web scraping technology to collect data on the items being sold. Specifically, the server sends a request to an API endpoint and receives product information in response, or parses a web page to obtain the required product data. At this point, the input is the API request or HTML content, and the output is a set of product data.

ステップ4: Step 4:

サーバはユーザの体型情報および全身写真を解析し、高解像度の3Dモデルを生成する。収集した画像データと体型情報をディープラーニングモデル(TensorFlowやPyTorchを用いる)を使って解析し、ユーザの高精度3Dモデルを作成する。この時点での入力は体型情報と画像データであり、出力は3Dモデルである。 The server analyzes the user's body shape information and full-body photo to generate a high-resolution 3D model. The collected image data and body shape information are analyzed using a deep learning model (using TensorFlow and PyTorch) to create a highly accurate 3D model of the user. At this point, the input is body shape information and image data, and the output is a 3D model.

ステップ5: Step 5:

サーバは生成AIモデルを用いて、3Dモデルに選択された物品を合成する。収集された商品データからユーザが選んだものを、3Dモデルに合成し、仮想試着イメージを作成する。生成AIモデルにより、衣服のテクスチャやフィット感を高精度に再現する。この時点での入力は3Dモデルと商品データであり、出力は試着イメージである。 The server uses a generative AI model to synthesize the selected item onto a 3D model. The user selects from the collected product data and synthesizes it onto the 3D model to create a virtual try-on image. The generative AI model reproduces the texture and fit of the clothing with high accuracy. At this point, the input is the 3D model and product data, and the output is a try-on image.

ステップ6: Step 6:

サーバは生成された試着イメージを複数の角度から撮影した状態でユーザの端末に送信する。ユーザの端末ではこれらのイメージが表示され、ユーザはバーチャル試着イメージを確認することができる。この時点での入力は試着イメージデータであり、出力はユーザの端末に表示されるバーチャル試着イメージである。 The server then sends the generated try-on images, photographed from multiple angles, to the user's device. These images are displayed on the user's device, allowing the user to check the virtual try-on image. At this point, the input is the try-on image data, and the output is the virtual try-on image displayed on the user's device.

ステップ7: Step 7:

ユーザはコーディネートの提案をリクエストする場合、端末からサーバにリクエストを送信する。サーバはこのリクエストを受け取り、担当する販売員に通知する。この時点での入力はユーザからのリクエストであり、出力は販売員への通知である。 When a user requests a coordination suggestion, they send a request from their terminal to the server. The server receives this request and notifies the salesperson in charge. At this point, the input is the request from the user, and the output is a notification to the salesperson.

ステップ8: Step 8:

販売員はコーディネート提案を作成し、サーバにフィードバックを送信する。サーバは再度ユーザの3Dモデルに基づいて、提案されたコーディネートの仮想試着イメージを生成する。この時点での入力は販売員からのコーディネート提案であり、出力は新しい試着イメージである。 The salesperson creates a coordination suggestion and sends feedback to the server. The server again generates a virtual try-on image of the suggested coordination based on the user's 3D model. At this point, the input is the coordination suggestion from the salesperson, and the output is a new try-on image.

ステップ9: Step 9:

サーバは生成されたコーディネート試着イメージをユーザの端末に送信し、ユーザはこれを確認する。ユーザが購入を決定した場合、端末から「購入」ボタンをクリックし、購入情報がサーバに送信される。この時点での入力は仮想試着イメージとユーザの購入決定であり、出力は購入手続きの進行である。 The server sends the generated coordinated try-on image to the user's device, where the user confirms it. If the user decides to purchase, they click the "Purchase" button on their device, and the purchase information is sent to the server. The input at this point is the virtual try-on image and the user's purchase decision, and the output is the progress of the purchase procedure.

なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。 It is also possible to further combine an emotion engine that estimates the user's emotion. That is, the identification processing unit 290 may estimate the user's emotion using the emotion identification model 59 and perform identification processing using the user's emotion.

本発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣服を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたものである。このシステムにより、ユーザの感情に応じた衣服やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention combines a virtual try-on system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits that correspond to the user's emotions, providing a more personalized shopping experience.

1. ユーザの体型情報の入力および全身写真のアップロード 1. Enter your body type information and upload a full-body photo.

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力する。さらに、複数角度から撮影した全身写真をアップロードする。 Users launch the application and enter their body information (height, weight, measurements, etc.). They also upload full-body photos taken from multiple angles.

端末は、これらの体型情報と全身写真をサーバに送信する。 The device sends this body shape information and a full-body photo to the server.

2. 衣服データの収集 2. Clothing data collection

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

3. 3Dモデルの生成および衣服合成 3. 3D model generation and clothing synthesis

サーバは、ユーザの体型情報および全身写真データを解析し、ユーザの高解像度3Dモデルを生成する。これには、最新の画像認識アルゴリズムを使用する。 The server analyzes the user's body shape information and full-body photo data to generate a high-resolution 3D model of the user, using the latest image recognition algorithms.

サーバは、生成AIモデルを用いて3Dモデルに対して選択した衣服を合成する。このプロセスでは、衣服のフィット感や質感をリアルに再現するためにディープラーニング技術を活用する。 The server uses a generative AI model to synthesize the selected clothing onto the 3D model. This process utilizes deep learning techniques to realistically recreate the fit and texture of the clothing.

4. 試着イメージの提示 4. Showing a fitting image

サーバは、生成された試着イメージを複数角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ユーザは、表示された試着イメージを確認し、必要に応じて異なる角度の試着イメージや他の衣服の試着をリクエストする。 The user can review the displayed try-on images and, if necessary, request images from different angles or to try on other garments.

5. 感情エンジンによる感情認識 5. Emotion Recognition Using an Emotion Engine

端末は、ユーザの表情や音声を感情エンジンにより解析し、ユーザの感情状態を識別する。これには、カメラやマイクを使用してリアルタイムでデータを取得する。 The device uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. This is done by capturing data in real time using a camera and microphone.

サーバは、感情エンジンからの感情データを基にし、試着イメージに対するユーザの反応を評価する。 The server evaluates the user's reaction to the try-on images based on emotional data from the emotion engine.

6. コーディネート提案および調整 6. Coordination proposals and adjustments

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

販売員は、ユーザの体型情報、好み、および感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and displays them on the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

7. 購入手続き 7. Purchase Procedure

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

端末は、購入情報をサーバに送信し、ネットストアの決済システムに連携する。 The terminal sends the purchase information to the server and connects to the online store's payment system.

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

本発明のシステムにより、ユーザは自分の体型にフィットする衣服を簡単に選び、バーチャル試着によって実際に試着するかのような体験を得ることができる。さらに、感情エンジンを活用してユーザの感情状態に基づいた提案を行うことで、よりパーソナライズされたショッピング体験が実現する。こうした一連の処理により、ユーザの満足度を高め、ネットショッピングでの購買体験を向上させることができる。 The system of the present invention allows users to easily select clothing that fits their body type and experience the virtual fitting process as if they were actually trying it on. Furthermore, by utilizing an emotion engine to make suggestions based on the user's emotional state, a more personalized shopping experience is realized. This series of processes increases user satisfaction and improves the online shopping experience.

以下に、処理の流れについて説明する。 The processing flow is explained below.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、身長、体重、スリーサイズなどの体型情報を入力する。さらに、前面、背面、側面から撮影した全身写真をアプリケーションにアップロードする。 Users launch the application and enter their body information, such as height, weight, and measurements. They also upload full-body photos taken from the front, back, and side to the application.

ステップ2: Step 2:

端末は、ユーザが入力した体型情報と全身写真をサーバに送信する。 The device sends the body shape information and full-body photo entered by the user to the server.

ステップ3: Step 3:

サーバは、受信した体型情報および全身写真データを解析し、画像認識アルゴリズムを用いてユーザの高解像度3Dモデルを生成する。 The server analyzes the received body shape information and full-body photo data and uses image recognition algorithms to generate a high-resolution 3D model of the user.

ステップ4: Step 4:

サーバは、提携ネットストアからAPIまたはウェブスクレイピング技術を使用して、販売されている衣服のデータ(画像、サイズ、素材、カラーなど)を収集し、データベースに保存する。 The server uses API or web scraping technology to collect data on the clothing being sold (images, sizes, materials, colors, etc.) from partner online stores and stores it in a database.

ステップ5: Step 5:

サーバは、生成したユーザの3Dモデルに対して、ユーザが選択した衣服を合成する。この際、生成AIモデルを用いて衣服のフィット感やテクスチャをリアルに再現する。 The server then synthesizes the clothing selected by the user onto the generated 3D model of the user, using the generative AI model to realistically reproduce the fit and texture of the clothing.

ステップ6: Step 6:

サーバは、生成された試着イメージを複数の角度から撮影した画像としてユーザの端末に送信する。 The server then sends the generated try-on images taken from multiple angles to the user's device.

ステップ7: Step 7:

端末は、受信した試着イメージをユーザインタフェースに表示する。 The device displays the received try-on images on the user interface.

ステップ8: Step 8:

ユーザは、表示された試着イメージを確認する。必要に応じて異なる角度からの試着イメージや他の衣服の試着をリクエストする。 The user reviews the displayed try-on images. If necessary, they can request images from different angles or try on other garments.

ステップ9: Step 9:

端末は、ユーザの表情をカメラで撮影し、または音声をマイクで収集し、それらのデータを感情エンジンに送信する。 The device captures the user's facial expressions with a camera or collects their voice with a microphone, and then sends this data to the emotion engine.

ステップ10: Step 10:

サーバは、感情エンジンを使用して、ユーザの表情や音声を解析し、ユーザの感情状態を識別する。例えば、ユーザが笑顔であれば「満足」、眉をひそめていれば「不安」と識別する。 The server uses an emotion engine to analyze the user's facial expressions and voice to identify their emotional state. For example, if the user is smiling, it will be identified as "satisfied," and if they are frowning, it will be identified as "anxious."

ステップ11: Step 11:

サーバは、感情エンジンからの感情状態データを基に、次のアクションを決定する。例えば、ユーザが満足している場合は提案をそのまま継続し、不安を感じている場合は別のオプションを提示する。 The server determines the next action based on the emotional state data from the emotion engine. For example, if the user is satisfied, it continues with the suggestion, but if they are anxious, it presents a different option.

ステップ12: Step 12:

ユーザは、コーディネート提案を希望する場合、「コーディネート提案をリクエスト」ボタンをクリックする。 If the user would like outfit suggestions, they can click the "Request outfit suggestions" button.

ステップ13: Step 13:

サーバは、コーディネート提案を担当する販売員にリクエストを送信する。 The server sends a request to the salesperson in charge of coordinating the outfit.

ステップ14: Step 14:

販売員は、ユーザの体型情報、好み、感情データに基づいて適切なコーディネートを提案し、フィードバックをサーバに送る。 The salesperson suggests appropriate outfits based on the user's body type, preferences, and emotional data, and sends feedback to the server.

ステップ15: Step 15:

サーバは、提案されたコーディネートの試着イメージを生成し、ユーザの端末に送信する。また、ユーザの感情データに基づいて提案内容をリアルタイムで調整する。 The server generates images of the suggested outfits to try on and sends them to the user's device. It also adjusts the suggestions in real time based on the user's emotional data.

ステップ16: Step 16:

端末は、受信したコーディネートの試着イメージをユーザインタフェースに表示する。 The device displays the received outfit try-on image on the user interface.

ステップ17: Step 17:

ユーザは、提案されたコーディネートを確認し、購入を決定する場合、「購入」ボタンをクリックする。 The user reviews the suggested outfits and clicks the "Purchase" button if they decide to purchase.

ステップ18: Step 18:

端末は、購入情報をサーバに送信する。 The device sends the purchase information to the server.

ステップ19: Step 19:

サーバは、購入情報を記録し、注文確認と配送情報をユーザに通知する。 The server records the purchase information and notifies the user of the order confirmation and shipping information.

ステップ20: Step 20:

端末は、ユーザに注文確認と配送情報を表示する。 The terminal will display order confirmation and shipping information to the user.

(実施例2) (Example 2)

次に、実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。 Next, Example 2 will be described. In the following description, the data processing device 12 will be referred to as a "server" and the robot 414 will be referred to as a "terminal."

近年、オンラインショッピングの普及に伴い、リモートでの試着やパーソナライズされたショッピング体験の需要が高まっている。しかし、現行のシステムでは、実際に衣服を試着する場合のフィット感や質感を十分に再現することが難しく、ユーザの感情に基づいた提案を行うことができなかった。そのため、ユーザの体験を向上させるためのよりリアルなバーチャル試着システムが求められている。 In recent years, with the spread of online shopping, there has been an increasing demand for remote try-on and personalized shopping experiences. However, current systems have difficulty adequately reproducing the fit and texture of clothing when actually trying on, and are unable to make suggestions based on the user's emotions. Therefore, there is a need for a more realistic virtual try-on system to improve the user experience.

実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。 The specific processing performed by the specific processing unit 290 of the data processing device 12 in Example 2 is realized by the following means.

この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身画像を複数方向から撮影し、アップロードする手段と、販売されている衣服のデータを収集する手段と、生成されたユーザの三次元モデルに対して衣料品を合成する手段と、ユーザの端末に試着イメージを提示する手段と、ユーザの表情や音声を解析し感情を認識する手段と、感情に基づいて提案を調整する手段と、を含む。これにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 In this invention, the server includes means for inputting the user's body type information, means for taking and uploading full-body images of the user from multiple angles, means for collecting data on clothing available for sale, means for combining clothing items with the generated three-dimensional model of the user, means for presenting images of the items to be tried on on the user's device, means for analyzing the user's facial expressions and voice to recognize emotions, and means for adjusting suggestions based on emotions. This allows the user to virtually try on clothing that fits their body type and receive personalized suggestions based on their emotional state.

「ユーザの体型情報を入力する手段」とは、ユーザの身長、体重、スリーサイズなどの体型に関するデータを入力するためのインターフェースおよびシステムを指す。 "Means for inputting user's body type information" refers to an interface and system for inputting data related to the user's body type, such as height, weight, and measurements.

「ユーザの全身画像を複数方向から撮影し、アップロードする手段」とは、ユーザの全身を異なる角度から撮影し、その画像データをシステムにアップロードするためのカメラおよびアップロード機能を指す。 "Means for taking and uploading full-body images of the user from multiple angles" refers to the camera and upload function for taking images of the user's entire body from different angles and uploading that image data to the system.

「販売されている衣服のデータを収集する手段」とは、ネットストアやその他の情報源から、販売されている衣服の画像、サイズ、素材、カラーなどのデータを収集し、保存するための技術を指す。 "Means for collecting data on clothing for sale" refers to technology for collecting and storing data such as images, sizes, materials, and colors of clothing for sale from online stores and other sources.

「生成されたユーザの三次元モデルに対して衣料品を合成する手段」とは、ユーザの体型情報および全身画像を基にして生成された三次元モデルに、選択された衣服をリアルに合成するためのアルゴリズムおよびシステムを指す。 "Means for combining clothing items with a generated 3D model of the user" refers to an algorithm and system for realistically combining selected clothing items with a 3D model generated based on the user's body shape information and full-body image.

「ユーザの端末に試着イメージを提示する手段」とは、生成された試着イメージをユーザの端末(スマートフォン、タブレット、PCなど)の画面に表示するためのインターフェースおよびシステムを指す。 "Means for presenting try-on images on the user's device" refers to the interface and system for displaying the generated try-on images on the screen of the user's device (smartphone, tablet, PC, etc.).

「ユーザの表情や音声を解析し感情を認識する手段」とは、カメラやマイクなどのデバイスを使用して取得したユーザの表情や音声データを解析し、ユーザの感情状態を識別するためのアルゴリズムおよびシステムを指す。 "Means for analyzing a user's facial expressions and voice to recognize emotions" refers to algorithms and systems that analyze a user's facial expressions and voice data acquired using devices such as cameras and microphones, and identify the user's emotional state.

「感情に基づいて提案を調整する手段」とは、ユーザの感情データを基にして、提案される衣服やコーディネートをリアルタイムで変更・調整するための技術およびシステムを指す。 "Means for adjusting suggestions based on emotions" refers to technology and systems for changing and adjusting suggested clothing and outfits in real time based on the user's emotional data.

本発明は、バーチャル試着システムであり、ユーザの体型情報および全身画像を基に高解像度の三次元モデルを生成し、これに衣服をリアルに合成する。さらに、ユーザの表情や音声から感情を解析し、それに基づいて衣服の提案を調整する機能を有する。 This invention is a virtual fitting system that generates a high-resolution three-dimensional model based on the user's body type information and full-body image, and then realistically combines clothing onto it. It also has the ability to analyze the user's emotions from their facial expressions and voice, and adjust clothing suggestions based on that.

このシステムは、以下のハードウェアおよびソフトウェアを用いる: This system uses the following hardware and software:

ユーザの体型情報を入力するためのインターフェース(スマートフォンやPCなど) An interface for inputting the user's body shape information (such as a smartphone or PC)

ユーザの全身画像を撮影するカメラ(スマートフォン内蔵カメラなど) A camera that captures a full-body image of the user (such as a camera built into a smartphone)

販売されている衣服のデータを収集するためのAPIまたはウェブスクレイピングツール API or web scraping tool for collecting data on clothing for sale

三次元モデルを生成するための生成AIモデル(例:Pythonで構築されたディープラーニングモデル) Generative AI models for generating 3D models (e.g., deep learning models built in Python)

合成された試着イメージを提示するユーザインタフェース A user interface that displays synthesized try-on images

ユーザの表情や音声を解析するための感情認識エンジン(例:感情解析API) Emotion recognition engine for analyzing user facial expressions and voice (e.g., emotion analysis API)

このシステムは、以下の処理を実施する: This system performs the following processes:

ユーザは、起動したアプリケーションを通じて体型情報を入力し、全身画像を複数方向から撮影してアップロードする。端末はこれらのデータをサーバに送信する。サーバは、ネットストアからAPIまたはウェブスクレイピング技術を使用して販売されている衣服のデータを収集し、データベースに保存する。サーバは、ユーザの体型情報と全身画像を解析し、生成AIモデルを使用してユーザの高解像度三次元モデルを生成する。ユーザが選択した衣服を三次元モデルに合成し、リアルな試着イメージを生成する。この試着イメージは、ユーザの端末に送信され、表示される。 The user enters their body type information through the launched application and takes and uploads full-body images from multiple angles. The device then sends this data to the server. The server then collects data on clothing for sale from online stores using APIs or web scraping technology and stores it in a database. The server analyzes the user's body type information and full-body images and uses a generative AI model to generate a high-resolution 3D model of the user. The server then combines the clothing selected by the user into the 3D model to generate a realistic try-on image. This try-on image is then sent to the user's device and displayed.

さらに、端末はカメラやマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンを用いて感情を解析する。サーバは、この感情データを基にして、提案する衣服やコーディネートをリアルタイムで調整する。 In addition, the device uses a camera and microphone to capture the user's facial expressions and voice in real time, and analyzes their emotions using an emotion recognition engine. The server then uses this emotional data to adjust the suggested clothing and outfits in real time.

具体例として、ユーザは身長170cm、体重65kg、スリーサイズ(B:95cm、W:75cm、H:95cm)を入力し、前面および側面から全身画像をアップロードしたとする。これに基づき、サーバはユーザの三次元モデルを生成し、ネイビーのジャケットを合成する。この段階のプロンプト文の例は次の通りである:「ユーザの身長が170cm、体重が65kg、スリーサイズ(B95, W75, H95)で、前面と側面の全身写真を基に三次元モデルを生成し、ネイビーのジャケットを高解像度で合成してください。また、ユーザの笑顔の表情からポジティブな感情を認識して、さらにおすすめのコーディネートを提案してください。」 As a concrete example, suppose a user inputs their height (170cm), weight (65kg), and measurements (B:95cm, W:75cm, H:95cm), and uploads full-body images from the front and side. Based on this, the server generates a 3D model of the user and synthesizes a navy jacket. An example prompt for this stage is: "Based on the user's height of 170cm, weight (65kg), and measurements (B:95, W:75, H:95), generate a 3D model based on full-body front and side photos and synthesize a high-resolution navy jacket. Also, recognize positive emotions from the user's smiling face and suggest further outfit recommendations."

このシステムにより、ユーザは自分の体型にフィットする衣服をバーチャルで試着し、感情状態に基づいたパーソナライズされた提案を受けることが可能となる。 The system allows users to virtually try on clothes that fit their body type and receive personalized suggestions based on their emotional state.

実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 will be explained using Figure 13.

プログラムの処理の流れ Program processing flow

ステップ1: Step 1:

ユーザがアプリケーションを起動し、体型情報を入力する。 The user launches the application and enters their body type information.

入力:ユーザの体型情報(身長、体重、スリーサイズなど) Input: User's body information (height, weight, measurements, etc.)

出力:体型情報がシステムに保存される。 Output: Body shape information is saved in the system.

具体的な動作:ユーザは、アプリケーションの入力フィールドに体型情報を入力し、「送信」ボタンをクリックする。この情報は端末を通じてサーバに送信される。 Specific operation: The user enters body type information into the application's input fields and clicks the "Submit" button. This information is sent to the server via the device.

ステップ2: Step 2:

ユーザが全身画像を複数方向から撮影し、アップロードする。 Users take full-body images from multiple angles and upload them.

入力:ユーザの前面および側面から撮影した全身画像 Input: Full-body images of the user taken from the front and side

出力:全身画像がシステムに保存される。 Output: The whole-body image is saved to the system.

具体的な動作:ユーザは、スマートフォンのカメラを使用して自分の全身画像を複数の角度から撮影し、アプリケーション内で画像を選択して「アップロード」ボタンをクリックする。画像データは端末を通じてサーバに送信される。 Specific operation: The user uses the smartphone camera to take full-body images of themselves from multiple angles, selects the images in the application, and clicks the "Upload" button. The image data is sent to the server via the device.

ステップ3: Step 3:

サーバが提携ネットストアから衣服データを収集する。 The server collects clothing data from affiliated online stores.

入力:ネットストアのAPI情報またはウェブページのURL Input: Online store API information or web page URL

出力:衣服データ(画像、サイズ、素材、カラーなど)がデータベースに保存される。 Output: Garment data (images, size, material, color, etc.) is saved in a database.

具体的な動作:サーバはAPIやウェブスクレイピングツールを用いて、ネットストアの衣服データを自動収集する。データ収集の際には、重複や欠損チェックも行われる。 Specific operation: The server automatically collects clothing data from online stores using APIs and web scraping tools. When collecting data, it also checks for duplicates and missing data.

ステップ4: Step 4:

サーバがユーザの体型情報と全身画像を解析し、生成AIモデルを使用して三次元モデルを生成する。 The server analyzes the user's body shape information and full-body image, and generates a 3D model using a generative AI model.

入力:ユーザの体型情報および全身画像 Input: User's body shape information and full-body image

出力:ユーザの高解像度三次元モデル Output: High-resolution 3D model of the user

具体的な動作:サーバは、ディープラーニングアルゴリズムを使用してユーザの体型情報と全身画像を解析し、三次元モデルを生成する。このプロセスでは、GPUを活用して計算を高速化する。 How it works: The server uses deep learning algorithms to analyze the user's body shape information and full-body image to generate a 3D model. This process utilizes a GPU to speed up calculations.

ステップ5: Step 5:

サーバがユーザが選択した衣服を三次元モデルに合成する。 The server synthesizes the user's selected clothing onto a 3D model.

入力:ユーザの三次元モデルおよび選択された衣服データ Input: User's 3D model and selected clothing data

出力:合成された試着イメージ Output: Composite fitting image

具体的な動作:サーバは、生成AIモデルを用いて、ユーザの三次元モデルに選択された衣服をフィット感や質感をリアルに再現する形で合成する。この結果、試着イメージが生成される。 Specific operation: The server uses a generative AI model to synthesize the selected clothing onto the user's 3D model in a way that realistically reproduces the fit and texture. As a result, a fitting image is generated.

ステップ6: Step 6:

サーバが生成された試着イメージをユーザの端末に送信する。 The server sends the generated try-on image to the user's device.

入力:合成された試着イメージ Input: Synthesized fitting image

出力:ユーザの端末に表示される試着イメージ Output: Try-on image displayed on the user's device

具体的な動作:試着イメージは複数角度から撮影した画像としてエンコードされ、サーバから端末に送信される。端末は、これをユーザインタフェースに表示する。 Specific operation: The try-on image is encoded as images taken from multiple angles and sent from the server to the device. The device displays this on the user interface.

ステップ7: Step 7:

端末がユーザの表情や音声をキャプチャし、感情認識エンジンで解析する。 The device captures the user's facial expressions and voice and analyzes them using an emotion recognition engine.

入力:ユーザの表情および音声データ Input: User's facial and voice data

出力:ユーザの感情データ Output: User emotion data

具体的な動作:端末はカメラおよびマイクを使用してユーザの表情や音声をリアルタイムでキャプチャし、感情認識エンジンでこれらのデータを解析して感情状態を識別する。 Specific operation: The device uses a camera and microphone to capture the user's facial expressions and voice in real time, and then analyzes this data with an emotion recognition engine to identify the user's emotional state.

ステップ8: Step 8:

サーバが感情データを解析し、提案内容をリアルタイムで調整する。 The server analyzes the emotional data and adjusts the suggestions in real time.

入力:ユーザの感情データ Input: User emotion data

出力:調整された提案内容 Output: Adjusted proposal content

具体的な動作:サーバは感情データに基づき、試着イメージやコーディネートの提案内容をリアルタイムで変更・調整し、最適な提案を行う。 Specific operation: Based on the emotional data, the server changes and adjusts the fitting images and outfit suggestions in real time to provide optimal suggestions.

ステップ9: Step 9:

ユーザが提案されたコーディネートを選び、購入手続きを行う。 The user selects the suggested outfit and completes the purchase process.

入力:ユーザの購入決定情報 Input: User purchase decision information

出力:購入確認および配送情報 Output: Purchase confirmation and shipping information

具体的な動作:ユーザは「購入」ボタンをクリックすると、端末はこの情報をサーバに送信する。サーバは購入情報をネットストアの決済システムに連携し、購入手続きを行う。その後、注文確認と配送情報がユーザに通知される。 Specific operation: When the user clicks the "Purchase" button, the device sends this information to the server. The server then links the purchase information to the online store's payment system and completes the purchase process. The user is then notified of order confirmation and delivery information.

これにより、ユーザは自分の体型に合った衣服をバーチャルで試着し、感情に基づいたパーソナライズされた提案を受け、最適な購入体験を享受することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized suggestions based on their emotions, and enjoy an optimal shopping experience.

(応用例2) (Application Example 2)

次に、応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。 Next, we will explain Application Example 2. In the following explanation, the data processing device 12 will be referred to as the "server" and the robot 414 will be referred to as the "terminal."

従来のバーチャル試着システムでは、ユーザの体型情報を基にした試着イメージの生成は可能であるが、ユーザの感情を考慮に入れた提案を行うことはできなかった。そのため、ユーザが選択した衣服やコーディネートに対する満足度を向上させることが難しかった。また、リアルタイムでの感情フィードバックに基づくコーディネートの調整が欠如していたため、ユーザの個別のニーズに応えることが十分にできなかった。 Conventional virtual try-on systems were able to generate fitting images based on the user's body type information, but were unable to make suggestions that took the user's emotions into account. This made it difficult to improve the user's satisfaction with the clothing and outfits they selected. Furthermore, the lack of coordination adjustments based on real-time emotional feedback meant they were unable to fully meet the individual needs of users.

応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、ユーザの体型情報を入力する手段と、ユーザの全身写真を複数角度から撮影し、アップロードする手段と、販売されている衣類のデータを収集する手段と、生成されたユーザの高解像度3Dモデルに対して衣類を合成する手段と、ユーザの感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段と、ユーザの端末に試着イメージを提示する手段と、を含む。これにより、ユーザの感情に応じたパーソナライズされた衣服やコーディネートの提案が可能となり、ユーザの満足度が向上する。さらに、リアルタイムでの感情フィードバックによって提案内容を調整することで、ユーザの個別のニーズにより適切に応えることができる。 The identification processing by the identification processing unit 290 of the data processing device 12 in Application Example 2 is realized by the following means. In this invention, the server includes means for inputting the user's physique information, means for taking and uploading full-body photos of the user from multiple angles, means for collecting data on clothing for sale, means for combining clothing with the generated high-resolution 3D model of the user, means for analyzing the user's emotions and suggesting clothing and outfits based on the emotion data, and means for presenting images of the clothing to be tried on on the user's device. This makes it possible to suggest personalized clothing and outfits based on the user's emotions, improving user satisfaction. Furthermore, by adjusting the suggestions based on real-time emotion feedback, it is possible to more appropriately meet the individual needs of the user.

「ユーザの体型情報」とは、ユーザの身長、体重、スリーサイズなどの身体寸法に関するデータである。 "User's body type information" refers to data related to the user's body measurements, such as height, weight, and three sizes.

「全身写真」とは、ユーザの全体像を複数の角度(前面、背面、側面など)から撮影した画像である。 A "full-body photo" is an image of the user taken from multiple angles (front, back, side, etc.).

「販売されている衣類のデータ」とは、提携ネットストアなどから収集される衣類の画像、サイズ、素材、カラーなどの詳細情報である。 "Data on clothing for sale" refers to detailed information such as clothing images, sizes, materials, and colors collected from affiliated online stores.

「高解像度3Dモデル」とは、ユーザの体型情報および全身写真を基にして生成される、細部まで詳細に表現された3Dモデルである。 A "high-resolution 3D model" is a 3D model that is generated based on the user's body type information and a full-body photograph, and is rendered in great detail.

「衣類を合成する手段」とは、生成された高解像度3Dモデルに対して、販売されている衣類のデータを用いてリアルに衣類を表示する技術である。 "Clothing synthesis" is a technology that uses data on clothing for sale to realistically display clothing on the generated high-resolution 3D model.

「感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段」とは、ユーザの表情や音声を解析し、そこから得られた感情データを基に、ユーザに最適な衣類やコーディネートを提案する技術である。 "Means for analyzing emotions and suggesting clothing and outfits based on emotional data" refers to technology that analyzes a user's facial expressions and voice, and then suggests the most suitable clothing and outfits for the user based on the emotional data obtained from this.

「試着イメージを提示する手段」とは、生成されたバーチャル試着のイメージをユーザの端末に表示する技術である。 "Means for presenting try-on images" refers to technology that displays the generated virtual try-on images on the user's device.

「感情データ」とは、ユーザの表情や音声の解析結果から得られる喜び、驚き、不満などの感情状態を表すデータである。 "Emotional data" is data that represents emotional states such as joy, surprise, and dissatisfaction obtained from the analysis of the user's facial expressions and voice.

「コーディネート」とは、ユーザの衣類の組み合わせを意味し、その選定プロセスを含むものである。 "Coordination" refers to the user's clothing combination and includes the selection process.

「フィードバック」とは、ユーザの感情データに基づき、提案内容を調整して再提案するプロセスである。 "Feedback" is the process of adjusting and re-proposing suggestions based on the user's emotional data.

この発明は、ユーザの体型情報や複数角度からの全身写真を基に3Dモデルを生成し、それに対して衣類を合成するバーチャル試着システムに、ユーザの感情を認識する感情エンジンを組み合わせたシステムである。このシステムにより、ユーザの感情に応じた衣類やコーディネートの提案を行うことができ、よりパーソナライズされたショッピング体験を提供する。 This invention is a virtual fitting system that generates a 3D model based on the user's body type information and full-body photographs from multiple angles, then synthesizes clothing onto it, combined with an emotion engine that recognizes the user's emotions. This system can suggest clothing and outfits based on the user's emotions, providing a more personalized shopping experience.

サーバは、次のような技術を統合してこのシステムを実現する。まず、サーバはユーザの体型情報を入力する手段を提供する。この手段により、ユーザは自分の身長、体重、スリーサイズなどの情報を入力できる。さらに、複数の角度から撮影された全身写真をアップロードする手段も提供する。これにより、ユーザは自分の前面、側面、背面を撮影した写真をアップロードできる。 The server realizes this system by integrating the following technologies: First, the server provides a means for users to input their body type information. This allows users to enter information such as their height, weight, and three sizes. It also provides a means for users to upload full-body photos taken from multiple angles. This allows users to upload photos of their front, side, and back.

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータを収集する手段を持つ。このデータには、衣類の画像、サイズ、素材、カラーなどの詳細情報が含まれる。次に、サーバは最新の画像認識アルゴリズム(例:TensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この3Dモデルに対して、ディープラーニング技術を活用して衣類を合成する手段を使用して、リアルな試着イメージを生成する。 The server has a means of collecting data on clothing for sale from online stores and other data sources. This data includes detailed information such as clothing images, sizes, materials, and colors. The server then uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data to generate a high-resolution 3D model. This 3D model is then used to synthesize clothing using deep learning technology to generate realistic try-on images.

さらに、感情エンジン(例:Affectiva API)を用いて、ユーザの表情や音声を解析し、感情データを取得する手段を持つ。感情データに基づいて、ユーザに最適な衣類やコーディネートを提案する手段も組み込まれる。これにより、ユーザの感情に応じた適切な提案をリアルタイムで行うことが可能である。 Furthermore, it has a means of analyzing the user's facial expressions and voice using an emotion engine (e.g., Affectiva API) to obtain emotional data. It also incorporates a means of suggesting the most suitable clothing and outfits for the user based on the emotional data. This makes it possible to make appropriate suggestions in real time based on the user's emotions.

ユーザの端末に試着イメージを提示する手段も整備されている。これによって、ユーザは生成されたバーチャル試着イメージを複数の角度から確認することができる。試着イメージが表示された後、ユーザはその場で感情データをフィードバックし、必要に応じてコーディネートを調整することができる。 A means of displaying try-on images on the user's device has also been developed, allowing the user to view the generated virtual try-on image from multiple angles. After the try-on image is displayed, the user can provide feedback on their emotional data on the spot and adjust their outfit as needed.

具体例として、ユーザが自分の身長と体重をアプリに入力し、3枚の全身写真(前面、背面、側面)をアップロードする。写真撮影が終了した後、感情解析によりユーザが喜んでいる場合、明るい色や最新ファッションのコーディネートを提案する。一方で、ユーザが不満を感じている場合、新たなコーディネートを提案するようにシステムが調整を行う。 For example, a user enters their height and weight into the app and uploads three full-body photos (front, back, and side). After the photo shoot is complete, emotion analysis is performed and if the user is happy, the system will suggest outfits in bright colors and the latest fashions. On the other hand, if the user is unhappy, the system will adjust to suggest new outfits.

プロンプト文の例として、以下のようになる。 An example of a prompt statement is as follows:

ユーザの身長は170cmで、体重は65kgです。前面、背面、側面の写真がアップロードされました。感情解析により、ユーザは現在「喜び」を感じています。これに基づいて、明るい色と最新ファッションの複数のコーディネートを提案してください。 The user is 170cm tall and weighs 65kg. Front, back, and side photos have been uploaded. Sentiment analysis indicates that the user is currently feeling "joy." Based on this, suggest multiple outfits in bright colors and the latest fashions.

このようにして、ユーザは自分の体型に最適な衣類を選び、バーチャル試着の体験を通じて実際に試着するかのような感覚を得ることができる。リアルタイムでの感情フィードバックによって、さらにパーソナライズされたショッピング体験が提供される。 In this way, users can choose the clothing that best suits their body type and get the feeling of trying it on in real life through a virtual try-on experience. Real-time emotional feedback provides a more personalized shopping experience.

応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in Application Example 2 will be explained using Figure 14.

ステップ1: Step 1:

ユーザは、アプリケーションを起動し、自分の体型情報(身長、体重、スリーサイズなど)を入力し、複数角度から撮影した全身写真(前面、背面、側面)をアップロードする。入力されるデータは体型情報と写真データであり、これらは端末からサーバに送信される。その結果、ユーザの体型や全身写真に関するデータがサーバに保存される。 Users launch the application, enter their body type information (height, weight, measurements, etc.), and upload full-body photos taken from multiple angles (front, back, side). The entered data consists of body type information and photo data, which are sent from the device to the server. As a result, data related to the user's body type and full-body photos is stored on the server.

ステップ2: Step 2:

サーバは、ネットストアやその他のデータソースから販売されている衣類のデータ(画像、サイズ、素材、カラーなど)を収集する。この収集は、APIまたはウェブスクレイピング技術を使用する。取得したデータは、サーバのデータベースに保存される。入力は衣類のデータであり、出力はデータベースに保存された衣類データである。 The server collects data about clothing sold (images, sizes, materials, colors, etc.) from online stores and other data sources. This collection is done using APIs or web scraping technology. The acquired data is stored in a database on the server. The input is clothing data, and the output is clothing data stored in the database.

ステップ3: Step 3:

サーバは、最新の画像認識アルゴリズム(例えばTensorFlow)を使用して、ユーザの体型情報および全身写真データを解析し、高解像度3Dモデルを生成する。この過程で、ユーザの各写真はピクセル解析され、3Dモデルの形状を作成する。このステップでの入力はユーザの体型情報と写真データ、出力は高解像度3Dモデルである。 The server uses the latest image recognition algorithms (e.g., TensorFlow) to analyze the user's body shape information and full-body photo data and generate a high-resolution 3D model. During this process, each user's photo is pixel-analyzed to create the shape of the 3D model. The input for this step is the user's body shape information and photo data, and the output is a high-resolution 3D model.

ステップ4: Step 4:

サーバは生成AIモデルを用いて、生成された3Dモデルに対して販売されている衣類を合成する。ディープラーニング技術を活用し、衣類のフィット感や質感をリアルに再現するデータ加工を行う。入力は高解像度3Dモデルと衣類データ、出力は試着イメージである。 The server uses a generative AI model to synthesize clothing for sale onto the generated 3D model. Utilizing deep learning technology, data processing is performed to realistically reproduce the fit and texture of the clothing. The input is a high-resolution 3D model and clothing data, and the output is a try-on image.

ステップ5: Step 5:

端末は、感情エンジン(例えばAffectiva API)でユーザの表情と音声をリアルタイムで解析し、感情データを取得する。撮影された表情データや音声データが入力となり、解析された感情データが出力される。このステップでは端末がカメラやマイクを使用してデータを取得する。 The device uses an emotion engine (e.g., Affectiva API) to analyze the user's facial expressions and voice in real time and obtain emotional data. Captured facial and voice data is input, and analyzed emotional data is output. In this step, the device obtains data using the camera and microphone.

ステップ6: Step 6:

サーバは、感情データに基づいてユーザに最適な衣類やコーディネートを提案する。入力は感情データであり、出力はユーザの好みに合わせたコーディネート提案である。この提案は動的に行われ、リアルタイムで調整される。 The server suggests optimal clothing and outfits for the user based on emotional data. The input is emotional data, and the output is outfit suggestions tailored to the user's preferences. These suggestions are made dynamically and adjusted in real time.

ステップ7: Step 7:

ユーザの端末は、サーバから送信された試着イメージを表示する。入力は試着イメージであり、出力はユーザインタフェースに表示された試着イメージである。ユーザは表示された試着イメージを確認し、必要に応じて異なる角度のイメージや他の衣類の試着をリクエストすることができる。 The user's device displays the try-on images sent from the server. The input is the try-on image, and the output is the try-on image displayed on the user interface. The user can review the displayed try-on image and, if necessary, request images from different angles or to try on other clothing items.

ステップ8: Step 8:

ユーザが提案されたコーディネートを気に入った場合、購入手続きを行う。ユーザは「購入」ボタンをクリックし、端末は購入情報をサーバに送信する。入力は購入情報であり、出力は購入確認と配送情報である。サーバは、ネットストアの決済システムと連携し、注文を記録し、確認通知をユーザに送信する。 If the user likes the suggested outfit, they proceed with the purchase. The user clicks the "Purchase" button, and the device sends the purchase information to the server. The input is the purchase information, and the output is purchase confirmation and delivery information. The server connects with the online store's payment system, records the order, and sends a confirmation to the user.

これにより、ユーザは自分の体型にフィットする衣類をバーチャル試着し、感情データに基づいたパーソナライズされたコーディネート提案を受け、最終的に購入することができる。 This allows users to virtually try on clothes that fit their body type, receive personalized outfit suggestions based on emotional data, and ultimately make a purchase.

特定処理部290は、特定処理の結果をロボット414に送信する。ロボット414では、制御部46Aが、スピーカ240及び制御対象443に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。 The specific processing unit 290 transmits the results of the specific processing to the robot 414. In the robot 414, the control unit 46A causes the speaker 240 and the control target 443 to output the results of the specific processing. The microphone 238 acquires audio indicating the user input regarding the results of the specific processing. The control unit 46A transmits audio data indicating the user input acquired by the microphone 238 to the data processing device 12. In the data processing device 12, the specific processing unit 290 acquires the audio data.

データ生成モデル58は、いわゆる生成系AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。 Data generation model 58 is what is known as generative AI (artificial intelligence). Examples of data generation model 58 include generative AI such as ChatGPT (Internet search <URL: https://openai.com/blog/chatgpt>) and Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>). Data generation model 58 is obtained by performing deep learning on a neural network. A prompt containing an instruction is input to data generation model 58, and inference data such as voice data indicating speech, text data indicating text, and image data indicating an image is also input. Data generation model 58 performs inference on the input inference data in accordance with the instructions indicated by the prompt, and outputs the inference results in the form of data such as voice data and text data. Here, inference refers to, for example, analysis, classification, prediction, and/or summarization.

上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、ロボット414によって特定処理が行われるようにしてもよい。 In the above embodiment, an example was given in which the specific processing was performed by the data processing device 12, but the technology disclosed herein is not limited to this, and the specific processing may also be performed by the robot 414.

なお、感情エンジンとしての感情特定モデル59は、特定のマッピングに従い、ユーザの感情を決定してよい。具体的には、感情特定モデル59は、特定のマッピングである感情マップ(図9参照)に従い、ユーザの感情を決定してよい。また、感情特定モデル59は、同様に、ロボットの感情を決定し、特定処理部290は、ロボットの感情を用いた特定処理を行うようにしてもよい。 The emotion identification model 59, which serves as an emotion engine, may determine the user's emotion according to a specific mapping. Specifically, the emotion identification model 59 may determine the user's emotion according to an emotion map (see Figure 9), which is a specific mapping. Similarly, the emotion identification model 59 may determine the robot's emotion, and the identification processing unit 290 may perform identification processing using the robot's emotion.

図9は、複数の感情がマッピングされる感情マップ400を示す図である。感情マップ400において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向及び下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ400では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。 Figure 9 shows an emotion map 400 on which multiple emotions are mapped. In emotion map 400, emotions are arranged in concentric circles radiating from the center. Emotions closer to the center of the concentric circles are more primitive. Emotions representing states and actions arising from a state of mind are arranged on the outer edges of the concentric circles. The concept of emotion includes both emotions and mental states. Emotions that are generally generated from reactions that occur in the brain are arranged on the left side of the concentric circles. Emotions that are generally induced by situational judgment are arranged on the right side of the concentric circles. Emotions that are generally generated from reactions that occur in the brain and are induced by situational judgment are arranged above and below the concentric circles. Furthermore, the emotion of "pleasure" is arranged on the top side of the concentric circles, and the emotion of "discomfort" is arranged on the bottom side. In this way, emotion map 400 maps multiple emotions based on the structure by which emotions are generated, with emotions that tend to occur simultaneously being mapped close together.

これらの感情は、感情マップ400の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ400の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。 These emotions are distributed in the 3 o'clock direction on emotion map 400, and usually fluctuate between relief and anxiety. In the right half of emotion map 400, situational awareness takes precedence over internal sensations, resulting in a sense of calm.

感情マップ400の内側は心の中、感情マップ400の外側は行動を表すため、感情マップ400の外側に行くほど、感情が目に見える(行動に表れる)ようになる。 The inside of emotion map 400 represents what is going on in the mind, and the outside of emotion map 400 represents behavior, so the further out you go on emotion map 400, the more visible (expressed in behavior) the emotion becomes.

ここで、人の感情は、姿勢や血糖値のような様々なバランスを基礎としており、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示す。ロボットや自動車やバイク等においても、姿勢やバッテリー残量のような様々なバランスを基礎として、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示すように感情を作ることができる。感情マップは、例えば、光吉博士の感情地図(音声感情認識及び情動の脳生理信号分析システムに関する研究、徳島大学、博士論文:https://ci.nii.ac.jp/naid/500000375379)に基づいて生成されてよい。感情地図の左半分には、感覚が優位にたつ「反応」と呼ばれる領域に属する感情が並ぶ。また、感情地図の右半分には、状況認識が優位にたつ「状況」と呼ばれる領域に属する感情が並ぶ。 Here, human emotions are based on various balances such as posture and blood sugar levels, and when these balances deviate from the ideal, it indicates discomfort, and when they approach the ideal, it indicates pleasure. Emotions can also be created for robots, cars, motorcycles, etc., based on various balances such as posture and remaining battery life, so that when these balances deviate from the ideal, it indicates discomfort, and when they approach the ideal, it indicates pleasure. Emotion maps may be generated, for example, based on Dr. Mitsuyoshi's emotion map (Research on speech emotion recognition and emotional brain physiological signal analysis systems, Tokushima University, doctoral dissertation: https://ci.nii.ac.jp/naid/500000375379). The left half of the emotion map is lined with emotions belonging to an area called "reaction," where sensation is dominant. The right half of the emotion map is lined with emotions belonging to an area called "situation," where situational awareness is dominant.

感情マップでは学習を促す感情が2つ定義される。1つは、状況側にあるネガティブな「懺悔」や「反省」の真ん中周辺の感情である。つまり、「もう2度とこんな想いはしたくない」「もう叱られたくない」というネガティブな感情がロボットに生じたときである。もう1つは、反応側にあるポジティブな「欲」のあたりの感情である。つまり、「もっと欲しい」「もっと知りたい」というポジティブな気持ちのときである。 The emotion map defines two emotions that encourage learning. One is the negative emotion around the middle of "repentance" or "reflection" on the situation side. In other words, this is when the robot experiences negative emotions such as "I never want to feel this way again" or "I don't want to be scolded again." The other is the positive emotion around "desire" on the response side. In other words, this is when the robot experiences positive feelings such as "I want more" or "I want to know more."

感情特定モデル59は、ユーザ入力を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、ユーザの感情を決定する。このニューラルネットワークは、ユーザ入力と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図10に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図10では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。 The emotion identification model 59 inputs user input into a pre-trained neural network, obtains emotion values indicating each emotion shown in the emotion map 400, and determines the user's emotion. This neural network is pre-trained based on multiple pieces of training data that are combinations of user input and emotion values indicating each emotion shown in the emotion map 400. Furthermore, this neural network is trained so that emotions that are close to each other have similar values, as in the emotion map 900 shown in Figure 10. Figure 10 shows an example in which multiple emotions, such as "relieved," "calm," and "reassuring," have similar emotion values.

以上、本開示に係るシステムをデータ処理装置12の機能を主として説明したが、本開示に係るシステムはサーバに実装されているとは限らない。本開示に係るシステムは、一般的な情報処理システムとして実装されていてもよい。本開示は、例えば、パーソナルコンピュータで動作するソフトウェアプログラム、スマートフォン等で動作するアプリケーションとして実装されてもよい。本開示に係る方法はSaaS(Software as a Service)形式でユーザに対して提供されてもよい。 The system according to the present disclosure has been described above primarily in terms of the functions of the data processing device 12, but the system according to the present disclosure is not necessarily implemented on a server. The system according to the present disclosure may also be implemented as a general information processing system. The present disclosure may also be implemented, for example, as a software program that runs on a personal computer or an application that runs on a smartphone, etc. The method according to the present disclosure may also be provided to users in the form of SaaS (Software as a Service).

上記実施形態では、1台のコンピュータ22によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、コンピュータ22を含めた複数のコンピュータによる特定処理に対する分散処理が行われるようにしてもよい。例えば、データ生成モデル58が、データ処理装置12の外部装置に設けられ、当該外部装置において、入力データに応じたデータの生成を行うようにしてもよい。 In the above embodiment, an example was given in which a specific process was performed by a single computer 22, but the technology of the present disclosure is not limited to this, and distributed processing of the specific process may be performed by multiple computers, including the computer 22. For example, the data generation model 58 may be provided in a device external to the data processing device 12, and data may be generated in that external device in response to input data.

上記実施形態では、ストレージ32に特定処理プログラム56が格納されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、特定処理プログラム56がUSB(Universal Serial Bus)メモリなどの可搬型のコンピュータ読み取り可能な非一時的格納媒体に格納されていてもよい。非一時的格納媒体に格納されている特定処理プログラム56は、データ処理装置12のコンピュータ22にインストールされる。プロセッサ28は、特定処理プログラム56に従って特定処理を実行する。 In the above embodiment, an example was described in which the specific processing program 56 is stored in the storage 32, but the technology of the present disclosure is not limited to this. For example, the specific processing program 56 may be stored in a portable, computer-readable, non-transitory storage medium such as a USB (Universal Serial Bus) memory. The specific processing program 56 stored in the non-transitory storage medium is installed in the computer 22 of the data processing device 12. The processor 28 executes the specific processing in accordance with the specific processing program 56.

また、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に特定処理プログラム56を格納させておき、データ処理装置12の要求に応じて特定処理プログラム56がダウンロードされ、コンピュータ22にインストールされるようにしてもよい。 Alternatively, the specific processing program 56 may be stored in a storage device such as a server connected to the data processing device 12 via the network 54, and the specific processing program 56 may be downloaded and installed on the computer 22 in response to a request from the data processing device 12.

なお、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に特定処理プログラム56の全てを格納させておいたり、ストレージ32に特定処理プログラム56の全てを記憶させたりしておく必要はなく、特定処理プログラム56の一部を格納させておいてもよい。 It is not necessary to store the entire specific processing program 56 in a storage device such as a server connected to the data processing device 12 via the network 54, or to store the entire specific processing program 56 in the storage 32; only a portion of the specific processing program 56 may be stored.

特定処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、特定処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field-Programmable Gate Array)、PLD(Programmable Logic Device)、又はASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで特定処理を実行する。 The following types of processors can be used as hardware resources for executing specific processes. Examples of processors include a CPU, a general-purpose processor that functions as a hardware resource for executing specific processes by executing software, i.e., a program. Other examples of processors include dedicated electrical circuits, such as FPGAs (Field-Programmable Gate Arrays), PLDs (Programmable Logic Devices), or ASICs (Application Specific Integrated Circuits), which are processors with a circuit configuration designed specifically for executing specific processes. All processors have built-in or connected memory, and all use the memory to execute specific processes.

特定処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、特定処理を実行するハードウェア資源は1つのプロセッサであってもよい。 The hardware resource that executes the specific processing may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same or different types (for example, a combination of multiple FPGAs, or a combination of a CPU and an FPGA). The hardware resource that executes the specific processing may also be a single processor.

1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、特定処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、特定処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、特定処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。 As an example of a configuration using a single processor, first, there is a configuration in which one processor is configured using a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes specific processing. Second, there is a configuration in which a processor is used to realize the functions of an entire system, including multiple hardware resources that execute specific processing, on a single IC chip, as typified by SoC (System-on-a-chip). In this way, specific processing is realized using one or more of the various processors listed above as hardware resources.

更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の特定処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 More specifically, the hardware structure of these various processors can be an electrical circuit that combines circuit elements such as semiconductor devices. Furthermore, the specific processing described above is merely an example. Therefore, it goes without saying that unnecessary steps can be deleted, new steps can be added, or the processing order can be rearranged, all within the scope of the spirit of the invention.

以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。 The above-described written content and illustrations are a detailed explanation of the parts related to the technology of the present disclosure and are merely an example of the technology of the present disclosure. For example, the above explanation of the configuration, functions, actions, and effects is an explanation of an example of the configuration, functions, actions, and effects of the parts related to the technology of the present disclosure. Therefore, it goes without saying that unnecessary parts may be deleted, new elements may be added, or substitutions may be made to the above-described written content and illustrations, as long as they do not deviate from the spirit of the technology of the present disclosure. Furthermore, to avoid confusion and facilitate understanding of the parts related to the technology of the present disclosure, the above-described written content and illustrations omit explanations of common technical knowledge that do not require particular explanation to enable the implementation of the technology of the present disclosure.

本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All publications, patent applications, and technical standards mentioned in this specification are incorporated by reference herein to the same extent as if each individual publication, patent application, and technical standard was specifically and individually indicated to be incorporated by reference.

以上の実施形態に関し、更に以下を開示する。 The following is further disclosed regarding the above embodiments.

(請求項1) (Claim 1)

ユーザの体型情報を入力する手段と、 A means for inputting the user's body shape information,

ユーザの全身写真を複数角度から撮影し、アップロードする手段と、 A means for users to take and upload full-body photos from multiple angles,

販売されている衣服のデータを収集する手段と、 Means of collecting data on the clothes being sold,

生成されたユーザの3Dモデルに対して衣服を合成する手段と、 A means of synthesizing clothing onto the generated 3D model of the user,

ユーザの端末に試着イメージを提示する手段と、 A means of displaying try-on images on the user's device,

を含むシステム。 A system including

(請求項2) (Claim 2)

ユーザの好みに基づいたコーディネートの提案を販売員にリクエストする手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for requesting a salesperson to suggest outfits based on the user's preferences.

(請求項3) (Claim 3)

提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for generating a try-on image of the proposed outfit and presenting it on the user's terminal.

「実施例1」 "Example 1"

(請求項1) (Claim 1)

ユーザの体型情報を入力する手段と、 A means for inputting the user's body shape information,

ユーザの全身写真を複数角度から撮影し、アップロードする手段と、 A means for users to take and upload full-body photos from multiple angles,

オンラインで販売されている衣服のデータを収集する手段と、 Means of collecting data on clothing sold online,

生成されたユーザの高解像度3Dモデルに対して衣服を合成する手段と、 A means of synthesizing clothing onto the generated high-resolution 3D model of the user,

生成された試着イメージをユーザの端末に送信する手段と、 A means for sending the generated try-on images to the user's device;

ユーザの端末に試着イメージを表示する手段と、 A means of displaying try-on images on the user's device,

を含むシステム。 A system including

(請求項2) (Claim 2)

ユーザの好みに基づいたコーディネートの提案を販売員にリクエストする手段をさらに備える請求項1記載のシステム。 The system of claim 1 further comprises means for requesting a salesperson to suggest outfits based on the user's preferences.

(請求項3) (Claim 3)

提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段をさらに備える請求項1記載のシステム。 The system described in claim 1 further comprises means for generating an image of the proposed outfit to be tried on and presenting it on the user's terminal.

「応用例1」 "Application Example 1"

(請求項1) (Claim 1)

ユーザの体型情報を入力する手段と、 A means for inputting the user's body shape information,

ユーザの全身写真を複数角度から撮影し、アップロードする手段と、 A means for users to take and upload full-body photos from multiple angles,

購入可能な物品のデータを収集する手段と、 Means of collecting data on items available for purchase,

生成されたユーザの3Dモデルに対して物品を合成する手段と、 A means for synthesizing items onto the generated user's 3D model;

ユーザの端末にバーチャル試着イメージを提示する手段と、 A means of presenting virtual try-on images to the user's device,

ユーザが自身の端末を使用して体型情報を入力し、全身写真をアップロードする手段と、 Users can enter their body type information and upload a full-body photo using their own device.

提携オンラインストアのAPIまたはウェブスクレイピング技術を用いてオンラインで販売されている物品のデータを収集し、保存する手段と、 Means of collecting and storing data on items sold online using APIs or web scraping technology from affiliated online stores;

ユーザの体型情報およびアップロードされた全身写真を解析し、ユーザの高解像度3Dモデルを生成する手段と、 A means for analyzing the user's body shape information and uploaded full-body photos to generate a high-resolution 3D model of the user;

複数の角度から試着イメージを生成し、ユーザの端末に送信する手段と、 A means for generating try-on images from multiple angles and sending them to the user's device;

を含むシステム。 A system including

(請求項2) (Claim 2)

ユーザの好みに基づいたコーディネートの提案を販売員にリクエストする手段と、 A way to request a salesperson to suggest outfits based on the user's preferences,

サーバにコーディネート提案のリクエストを送信し、提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for sending a request for outfit suggestions to the server, generating an image of the suggested outfits to try on, and presenting it on the user's terminal.

(請求項3) (Claim 3)

提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段を備える、請求項1記載のシステム。 The system described in claim 1, further comprising means for generating a try-on image of the proposed outfit and presenting it on the user's terminal.

「感情エンジンを組み合わせた場合の実施例2」 "Example 2: Combining Emotion Engines"

(請求項1) (Claim 1)

ユーザの体型情報を入力する手段と、 A means for inputting the user's body shape information,

ユーザの全身画像を複数方向から撮影し、アップロードする手段と、 A means to take and upload full-body images of the user from multiple angles,

販売されている衣服のデータを収集する手段と、 Means of collecting data on the clothes being sold,

生成されたユーザの三次元モデルに対して衣料品を合成する手段と、 A means for synthesizing clothing onto the generated 3D model of the user;

ユーザの端末に試着イメージを提示する手段と、 A means of displaying try-on images on the user's device,

ユーザの表情や音声を解析し感情を認識する手段と、 A means of analyzing the user's facial expressions and voice to recognize emotions,

感情に基づいて提案を調整する手段と、 Methods for adjusting suggestions based on emotions,

を含むシステム。 A system including

(請求項2) (Claim 2)

ユーザの好みに基づいたコーディネートの提案を販売員にリクエストする手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for requesting a salesperson to suggest outfits based on the user's preferences.

(請求項3) (Claim 3)

提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for generating a try-on image of the proposed outfit and presenting it on the user's terminal.

「感情エンジンを組み合わせた場合の応用例2」 "Application Example 2: Combining Emotion Engines"

(請求項1) (Claim 1)

ユーザの体型情報を入力する手段と、 A means for inputting the user's body shape information,

ユーザの全身写真を複数角度から撮影し、アップロードする手段と、 A means for users to take and upload full-body photos from multiple angles,

販売されている衣類のデータを収集する手段と、 Means of collecting data on clothing sold,

生成されたユーザの高解像度3Dモデルに対して衣類を合成する手段と、 A means of synthesizing clothing onto the generated high-resolution 3D model of the user,

ユーザの感情を解析し、感情データに基づいて衣類やコーディネートの提案を行う手段と、 A method for analyzing user emotions and suggesting clothing and outfits based on emotional data,

ユーザの端末に試着イメージを提示する手段と、 A means of displaying try-on images on the user's device,

を含むシステム。 A system including

(請求項2) (Claim 2)

ユーザの好みに基づいたコーディネートの提案を販売員にリクエストする手段をさらに備え、感情データを利用して提案内容をリアルタイムで調整する、請求項1記載のシステム。 The system of claim 1 further comprises means for requesting a salesperson to suggest outfits based on the user's preferences, and adjusts the suggestions in real time using emotional data.

(請求項3) (Claim 3)

提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示し、感情データを基にコーディネートのフィードバックを行う手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for generating try-on images of the proposed outfits, presenting them on the user's terminal, and providing feedback on the outfits based on emotional data.

10、210、310、410 データ処理システム
12 データ処理装置
14 スマートデバイス
214 スマート眼鏡
314 ヘッドセット型端末
414 ロボット

10, 210, 310, 410 Data processing system 12 Data processing device 14 Smart device 214 Smart glasses 314 Headset type terminal 414 Robot

Claims (3)

ユーザの体型情報を入力する手段と、
ユーザの全身写真を複数角度から撮影し、アップロードする手段と、
販売されている衣服のデータを収集する手段と、
生成されたユーザの3Dモデルに対して衣服を合成する手段と、
ユーザの端末に試着イメージを提示する手段と、
を含むシステム。
A means for inputting user body type information;
A means for taking and uploading full-body photographs of the user from multiple angles;
a means of collecting data on the clothing being sold;
means for synthesizing clothing onto the generated 3D model of the user;
means for displaying try-on images on a user's device;
A system including:
ユーザの好みに基づいたコーディネートの提案を販売員にリクエストする手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for requesting a salesperson to suggest outfits based on the user's preferences. 提案されたコーディネートの試着イメージを生成し、ユーザの端末に提示する手段をさらに備える、請求項1記載のシステム。 The system of claim 1 further comprises means for generating a try-on image of the proposed outfit and presenting it on the user's terminal.
JP2024121486A 2024-07-26 2024-07-26 system Pending JP2026019738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024121486A JP2026019738A (en) 2024-07-26 2024-07-26 system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024121486A JP2026019738A (en) 2024-07-26 2024-07-26 system

Publications (1)

Publication Number Publication Date
JP2026019738A true JP2026019738A (en) 2026-02-05

Family

ID=98650348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024121486A Pending JP2026019738A (en) 2024-07-26 2024-07-26 system

Country Status (1)

Country Link
JP (1) JP2026019738A (en)

Similar Documents

Publication Publication Date Title
JP2026019738A (en) system
JP2026017279A (en) system
JP2026018018A (en) system
JP2026021192A (en) system
JP2026019787A (en) system
JP2026014179A (en) system
JP2026017389A (en) system
JP2026026882A (en) system
JP2026017299A (en) system
JP2026017289A (en) system
JP2026023957A (en) system
JP2026026900A (en) system
JP2026022447A (en) system
JP2026018035A (en) system
JP2026022410A (en) system
JP2026025616A (en) system
JP2025043848A (en) system
JP2026014284A (en) system
JP2026021044A (en) system
JP2026019823A (en) system
JP2026024071A (en) system
JP2025044234A (en) system
JP2026014901A (en) system
JP2026028013A (en) system
JP2026025737A (en) system