[go: up one dir, main page]

WO2026018673A1 - Information processing device and information processing method - Google Patents

Information processing device and information processing method

Info

Publication number
WO2026018673A1
WO2026018673A1 PCT/JP2025/023602 JP2025023602W WO2026018673A1 WO 2026018673 A1 WO2026018673 A1 WO 2026018673A1 JP 2025023602 W JP2025023602 W JP 2025023602W WO 2026018673 A1 WO2026018673 A1 WO 2026018673A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
unit
item
moving body
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2025/023602
Other languages
French (fr)
Japanese (ja)
Inventor
祐介 川部
和孝 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of WO2026018673A1 publication Critical patent/WO2026018673A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

The present technology relates to an information processing device and an information processing method that make it possible to easily generate a virtual item to be attached to a moving virtual body in a virtual space. This information processing device comprises: an image acquisition unit that acquires image data of an autonomous moving body that takes a pose corresponding to an attached item; and an image processing unit that generates, on the basis of the image data, a virtual item that can be attached to a moving virtual body in a virtual space. The present technology can be applied to, for example, smartphones.

Description

情報処理装置及び情報処理方法Information processing device and information processing method

 本技術は、情報処理装置及び情報処理方法に関し、仮想空間において仮想移動体に装着する仮想アイテムを生成する場合に用いて好適な情報処理装置及び情報処理方法に関する。 This technology relates to an information processing device and information processing method suitable for use when generating virtual items to be worn by virtual moving objects in a virtual space.

 従来、自走式ロボットが存在する現実の空間に則した仮想空間を構成する技術が提案されている(例えば、特許文献1参照)。 Technology has been proposed to create a virtual space that conforms to the real space in which a self-propelled robot exists (see, for example, Patent Document 1).

 また、近年、仮想空間において、ペット型ロボット等の自律移動体に対応する仮想移動体とコミュニケーション等を行うことができるアプリケーション(以下、仮想移動体アプリケーションと称する)が普及している。仮想移動体アプリケーションの中には、例えば、仮想移動体に仮想の衣装等の仮想アイテムを装着することが可能なものがある。 Furthermore, in recent years, applications (hereinafter referred to as virtual mobile object applications) that allow users to communicate with virtual mobile objects corresponding to autonomous mobile objects such as pet-type robots in virtual spaces have become popular. Some virtual mobile object applications, for example, allow users to equip virtual items such as virtual clothing on the virtual mobile objects.

特開2023-41983号公報JP 2023-41983 A

 例えば、仮想移動体アプリケーションにおいて、個性的な仮想アイテムを生成したいというニーズがある。 For example, in virtual mobile applications, there is a need to generate unique virtual items.

 本技術は、このような状況に鑑みてなされたものであり、仮想空間において仮想移動体に装着する仮想アイテムを容易に生成できるようにするものである。 This technology was developed in response to these circumstances, making it easy to generate virtual items to be worn by virtual moving objects in virtual space.

 本技術の一側面の情報処理装置は、装着されたアイテムに対応するポーズをとる第1の自律移動体の画像データを取得する画像取得部と、前記画像データに基づいて、仮想空間内の第1の仮想移動体に装着可能な仮想アイテムを生成する画像処理部とを備える。 An information processing device according to one aspect of the present technology includes an image acquisition unit that acquires image data of a first autonomous moving body striking a pose corresponding to an attached item, and an image processing unit that generates, based on the image data, a virtual item that can be attached to the first virtual moving body in a virtual space.

 本技術の一側面の情報処理方法は、情報処理装置が、装着されたアイテムに対応するポーズをとる自律移動体の画像データを取得することと、前記画像データに基づいて、仮想空間内の仮想移動体に装着可能な仮想アイテムを生成することとを含む。 An information processing method according to one aspect of the present technology includes an information processing device acquiring image data of an autonomous moving body striking a pose corresponding to an attached item, and generating, based on the image data, a virtual item that can be attached to the virtual moving body in a virtual space.

 本技術の一側面においては、装着されたアイテムに対応するポーズをとる自律移動体の画像データが取得され、前記画像データに基づいて、仮想空間内の仮想移動体に装着可能な仮想アイテムが生成される。 In one aspect of this technology, image data of an autonomous moving body striking a pose corresponding to an attached item is acquired, and a virtual item that can be attached to the virtual moving body in a virtual space is generated based on the image data.

本技術を適用した情報処理システムの一実施の形態を示すブロック図である。1 is a block diagram showing an embodiment of an information processing system to which the present technology is applied. 自律移動体のハードウエア構成例を示す図である。FIG. 2 is a diagram illustrating an example of the hardware configuration of an autonomous moving body. 自律移動体が備えるアクチュエータの構成例である。10 is a diagram illustrating a configuration example of an actuator provided in an autonomous moving body. 自律移動体が備えるディスプレイの機能について説明するための図である。FIG. 2 is a diagram for explaining functions of a display provided in an autonomous moving body. 自律移動体の動作例を示す図である。FIG. 10 is a diagram illustrating an example of the operation of an autonomous moving body. 自律移動体の機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the functional configuration of an autonomous moving body. 情報処理端末の機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of the information processing terminal. 情報処理端末の情報処理部の機能構成例を示すブロック図である。3 is a block diagram showing an example of a functional configuration of an information processing unit of the information processing terminal; 情報処理サーバの機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of an information processing server. 着せ替えアイテム生成処理を説明するためのフローチャートである。10 is a flowchart illustrating a dress-up item generation process. スキャン処理の詳細を説明するためのフローチャートである。10 is a flowchart illustrating details of a scan process. スキャン用ポーズの例を示す図である。FIG. 10 is a diagram illustrating an example of a scan pause. スキャン用ポーズの例を示す図である。FIG. 10 is a diagram illustrating an example of a scan pause. スキャン用ポーズの例を示す図である。FIG. 10 is a diagram illustrating an example of a scan pause. スキャン用ポーズがとれたときの自律移動体の動作例を説明するための図である。10A and 10B are diagrams for explaining an example of the operation of an autonomous moving body when a scanning pose is taken. 自律移動体の撮影方法の例を示す図である。FIG. 10 is a diagram illustrating an example of a method for capturing an image of an autonomous moving body. 撮影時の自律移動体の動作例を説明するための図である。10A and 10B are diagrams for explaining an example of the operation of an autonomous moving body during imaging. 3Dデータ化処理の詳細を説明するためのフローチャートである。10 is a flowchart for explaining details of a 3D data generation process. 仮想アイテム化処理の詳細を説明するためのフローチャートである。10 is a flowchart illustrating details of a virtual item creation process. 3Dアイテムの抽出方法の例を示す図である。FIG. 10 is a diagram illustrating an example of a method for extracting a 3D item. 3Dアイテムの例を示す図である。FIG. 10 is a diagram illustrating an example of a 3D item. 着せ替え処理を説明するためのフローチャートである。10 is a flowchart illustrating a dress-up process. 選択メニューの例を示す図である。FIG. 10 is a diagram showing an example of a selection menu. 着せ替え画像の例を示す図である。FIG. 10 is a diagram showing an example of a dress-up image. 着せ替えアイテムの流用例を示す図である。FIG. 10 is a diagram showing an example of the reuse of dress-up items. 着せ替えアイテムの流用例を示す図である。FIG. 10 is a diagram showing an example of the reuse of dress-up items. コンピュータの構成例を示す図である。FIG. 1 illustrates an example of the configuration of a computer.

 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 3.その他
Hereinafter, embodiments of the present technology will be described in the following order.
1. Embodiment 2. Modification 3. Other

<<1.実施の形態>>
 図1~図24を参照して、本技術の実施の形態について説明する。
<<1. Embodiment>>
An embodiment of the present technology will be described with reference to FIGS. 1 to 24. FIG.

 <情報処理システム1の構成例>
 図1は、本技術を適用した情報処理システム1の一実施の形態を示すブロック図である。
<Configuration example of information processing system 1>
FIG. 1 is a block diagram showing an embodiment of an information processing system 1 to which the present technology is applied.

 情報処理システム1は、自律移動体11-1~自律移動体11-n、情報処理端末12-1~情報処理端末12-n、及び、情報処理サーバ13を備える。 The information processing system 1 includes autonomous mobile units 11-1 to 11-n, information processing terminals 12-1 to 12-n, and an information processing server 13.

 なお、以下、自律移動体11-1~自律移動体11-nを個々に区別する必要がない場合、単に自律移動体11と称する。以下、情報処理端末12-1~情報処理端末12-nを個々に区別する必要がない場合、単に情報処理端末12と称する。 Note that, hereinafter, when there is no need to distinguish between the autonomous mobile units 11-1 to 11-n, they will simply be referred to as autonomous mobile units 11. Hereinafter, when there is no need to distinguish between the information processing terminals 12-1 to 12-n, they will simply be referred to as information processing terminals 12.

 各自律移動体11と情報処理サーバ13との間、各情報処理端末12と情報処理サーバ13との間、各自律移動体11と各情報処理端末12との間、各自律移動体11間、及び、各情報処理端末12間において、ネットワーク21を介した通信が可能である。また、各自律移動体11と各情報処理端末12との間、各自律移動体11間、及び、各情報処理端末12間においては、ネットワーク21を介さずに直接通信することも可能である。 Communication is possible between each autonomous mobile body 11 and the information processing server 13, between each information processing terminal 12 and the information processing server 13, between each autonomous mobile body 11 and each information processing terminal 12, between each autonomous mobile body 11, and between each information processing terminal 12 via the network 21. Furthermore, direct communication is also possible between each autonomous mobile body 11 and each information processing terminal 12, between each autonomous mobile body 11, and between each information processing terminal 12 without going through the network 21.

 自律移動体11は、収集したセンサデータ等に基づいて、自分及び周囲の状況を認識し、状況に応じた種々の動作を自律的に選択し、実行する情報処理装置である。自律移動体11は、単にユーザの指示に従った動作を行うロボットとは異なり、状況に応じた適切な動作を自律的に実行することを特徴の一つとする。 The autonomous mobile unit 11 is an information processing device that recognizes its own and its surrounding situations based on collected sensor data, etc., and autonomously selects and executes various actions according to the situation. Unlike robots that simply perform actions according to user instructions, one of the features of the autonomous mobile unit 11 is that it autonomously executes appropriate actions according to the situation.

 自律移動体11は、例えば、撮影した画像に基づくユーザ認識や、物体認識等を実行し、認識したユーザや物体等に応じた種々の自律行動を行うことが可能である。また、自律移動体11は、例えば、ユーザの発話に基づく音声認識を実行し、ユーザの指示などに基づく行動を行うこともできる。 The autonomous mobile body 11 can, for example, perform user recognition or object recognition based on captured images, and perform various autonomous actions in response to the recognized user or object. The autonomous mobile body 11 can also, for example, perform voice recognition based on the user's speech, and take actions based on the user's instructions.

 さらに、自律移動体11は、ユーザ認識や物体認識の能力を獲得するために、パターン認識学習を行う。この際、自律移動体11は、与えられた学習データに基づく教師学習だけでなく、ユーザ等による教示に基づいて、動的に学習データを収集し、物体などに係るパターン認識学習を行うことが可能である。 Furthermore, the autonomous mobile body 11 performs pattern recognition learning to acquire the ability to recognize users and objects. In this case, the autonomous mobile body 11 can not only perform supervised learning based on given learning data, but also dynamically collect learning data based on instructions from users, etc., and perform pattern recognition learning related to objects, etc.

 また、自律移動体11は、ユーザにより躾けられることができる。ここで、自律移動体11の躾とは、例えば、決まりや禁止事項を教えて覚えさせる一般的な躾より広く、ユーザが自律移動体11に関わることにより、自律移動体11にユーザが感じられる変化が表れることをいう。 Furthermore, the autonomous mobile body 11 can be disciplined by the user. Here, discipline of the autonomous mobile body 11 is broader than general discipline, such as teaching and making the autonomous mobile body 11 memorize rules and prohibitions, and refers to changes in the autonomous mobile body 11 that the user can sense as a result of the user's interaction with the autonomous mobile body 11.

 自律移動体11の形状、能力、欲求等のレベルは、目的や役割に応じて適宜設計され得る。例えば、自律移動体11は、空間内を自律的に移動し、種々の動作を実行する自律移動型ロボットにより構成される。具体的には、例えば、自律移動体11は、ヒトやイヌなどの動物を模した形状や動作能力を有する自律移動型ロボットにより構成される。また、例えば、自律移動体11は、ユーザとのコミュニケーション能力を有する車両やその他の装置により構成される。 The shape, capabilities, desires, and other levels of the autonomous mobile body 11 can be designed appropriately according to its purpose and role. For example, the autonomous mobile body 11 may be an autonomous mobile robot that moves autonomously within a space and performs various actions. Specifically, the autonomous mobile body 11 may be an autonomous mobile robot that has a shape and movement capabilities that mimic those of a human, dog, or other animal. Also, for example, the autonomous mobile body 11 may be a vehicle or other device that has the ability to communicate with the user.

 情報処理端末12は、例えば、スマートフォン、タブレット端末、PC(パーソナルコンピュータ)等からなり、自律移動体11のユーザにより使用される。情報処理端末12は、所定のアプリケーションプログラム(以下、単にアプリケーションと称する)を実行することにより、各種の機能を実現する。例えば、情報処理端末12は、ネットワーク21を介して情報処理サーバ13と通信を行ったり、自律移動体11と直接通信を行ったりして、自律移動体11に関する各種のデータを収集し、ユーザに提示したり、自律移動体11に指示を与えたりする。 The information processing terminal 12 may be, for example, a smartphone, tablet terminal, or PC (personal computer), and is used by the user of the autonomous mobile body 11. The information processing terminal 12 performs various functions by executing a predetermined application program (hereinafter simply referred to as an application). For example, the information processing terminal 12 communicates with the information processing server 13 via the network 21 or directly with the autonomous mobile body 11 to collect various data related to the autonomous mobile body 11, present it to the user, and issue instructions to the autonomous mobile body 11.

 情報処理端末12が実行するアプリケーションの中には、例えば、仮想空間内において、自律移動体11に対応する仮想移動体とコミュニケーション等を行うことができる仮想移動体アプリケーションが含まれる。仮想移動体アプリケーションは、例えば、仮想の衣装等の仮想のアイテム(以下、着せ替えアイテムと称する)を仮想移動体に装着可能な着せ替え機能を含む。 The applications executed by the information processing terminal 12 include, for example, a virtual mobile object application that allows communication with a virtual mobile object corresponding to the autonomous mobile object 11 in a virtual space. The virtual mobile object application includes, for example, a dress-up function that allows virtual items such as virtual clothing (hereinafter referred to as dress-up items) to be attached to the virtual mobile object.

 自律移動体11に対応する仮想移動体とは、例えば、仮想空間において自律移動体11をシミュレートした仮想の移動体である。なお、仮想移動体の外観は、必ずしも自律移動体11とそっくりである必要はなく、ある程度デフォルメされたものでもよい。また、例えば、自律移動体11の外観以外の特徴(例えば、性別、年齢、性格、行動パターン等)が、仮想移動体によりシミュレートされてもよい。 A virtual moving body corresponding to the autonomous moving body 11 is, for example, a virtual moving body that simulates the autonomous moving body 11 in a virtual space. Note that the appearance of the virtual moving body does not necessarily have to be identical to that of the autonomous moving body 11, and may be somewhat deformed. Also, for example, characteristics of the autonomous moving body 11 other than its appearance (e.g., gender, age, personality, behavior patterns, etc.) may be simulated by the virtual moving body.

 情報処理サーバ13は、例えば、各自律移動体11及び各情報処理端末12から各種のデータを収集したり、各自律移動体11及び各情報処理端末12に各種のデータを提供したり、各自律移動体11の動作を制御したりする。また、例えば、情報処理サーバ13は、各自律移動体11及び各情報処理端末12から収集したデータに基づいて、自律移動体11と同様に、パターン認識学習や、ユーザの躾に対応した処理を行うことも可能である。さらに、例えば、情報処理サーバ13は、上述したアプリケーションや各自律移動体11に関する各種のデータを各情報処理端末12に供給する。 The information processing server 13, for example, collects various types of data from each autonomous mobile body 11 and each information processing terminal 12, provides various types of data to each autonomous mobile body 11 and each information processing terminal 12, and controls the operation of each autonomous mobile body 11. Furthermore, for example, the information processing server 13 can also perform pattern recognition learning and processing corresponding to user discipline, similar to the autonomous mobile body 11, based on the data collected from each autonomous mobile body 11 and each information processing terminal 12. Furthermore, for example, the information processing server 13 supplies each information processing terminal 12 with the above-mentioned applications and various types of data related to each autonomous mobile body 11.

 ネットワーク21は、例えば、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等のいくつかにより構成される。また、ネットワーク21は、IP-VPN(Internet Protocol-Virtual Private Network)等の専用回線網を含んでもよい。また、ネットワーク21は、Wi-Fi(登録商標)、Bluetooth(登録商標)等の無線通信網を含んでもよい。 Network 21 may be composed of, for example, public network such as the Internet, telephone network, satellite communication network, or various LANs (Local Area Networks) including Ethernet (registered trademark), WANs (Wide Area Networks), etc. Network 21 may also include dedicated network such as IP-VPN (Internet Protocol-Virtual Private Network). Network 21 may also include wireless communication networks such as Wi-Fi (registered trademark) and Bluetooth (registered trademark).

 なお、情報処理システム1の構成は、仕様や運用等に応じて柔軟に変更され得る。例えば、自律移動体11は、情報処理端末12及び情報処理サーバ13の他に、種々の外部装置とさらに情報通信を行ってもよい。上記の外部装置には、例えば、天気やニュース、その他のサービス情報を発信するサーバや、ユーザが所持する各種の家電機器などが含まれ得る。 The configuration of the information processing system 1 can be flexibly changed depending on specifications, operations, etc. For example, the autonomous mobile body 11 may communicate information with various external devices in addition to the information processing terminal 12 and information processing server 13. These external devices may include, for example, servers that transmit weather, news, and other service information, as well as various home appliances owned by the user.

 また、例えば、自律移動体11と情報処理端末12とは、必ずしも一対一の関係である必要はなく、例えば、多対多、多対一、又は、一対多の関係であってもよい。例えば、1人のユーザが、1台の情報処理端末12を用いて複数の自律移動体11に関するデータを確認したり、複数の情報処理端末を用いて1台の自律移動体11に関するデータを確認したりすることが可能である。 Furthermore, for example, the relationship between the autonomous mobile bodies 11 and the information processing terminals 12 does not necessarily have to be one-to-one, and may be, for example, a many-to-many, many-to-one, or one-to-many relationship. For example, one user can use one information processing terminal 12 to check data related to multiple autonomous mobile bodies 11, or use multiple information processing terminals to check data related to one autonomous mobile body 11.

 <自律移動体11のハードウエア構成例>
 次に、自律移動体11のハードウエア構成例について説明する。なお、以下では、自律移動体11がイヌ型の四足歩行ロボットである場合を例に説明する。
<Example of Hardware Configuration of Autonomous Mobile Body 11>
Next, a description will be given of an example of the hardware configuration of the autonomous moving body 11. In the following, a case will be described where the autonomous moving body 11 is a dog-type four-legged walking robot.

 図2は、自律移動体11のハードウエア構成例を示す図である。自律移動体11は、頭部、胴部、4つの脚部、及び、尾部を備えるイヌ型の四足歩行ロボットである。 Figure 2 is a diagram showing an example of the hardware configuration of the autonomous mobile body 11. The autonomous mobile body 11 is a dog-like quadrupedal robot equipped with a head, a torso, four legs, and a tail.

 自律移動体11は、頭部に2つのディスプレイ51L及びディスプレイ51Rを備える。なお、以下、ディスプレイ51Lとディスプレイ51Rを個々に区別する必要がない場合、単にディスプレイ51と称する。 The autonomous moving body 11 is equipped with two displays, 51L and 51R, on its head. Hereinafter, when there is no need to distinguish between the displays 51L and 51R, they will simply be referred to as displays 51.

 また、自律移動体11は、種々のセンサを備える。自律移動体11は、例えば、マイクロフォン52、カメラ53、ToF(Time Of Flight)センサ525、人感センサ55、測距センサ56、タッチセンサ57、照度センサ58、足裏ボタン59、及び、慣性センサ60を備える。 The autonomous mobile body 11 also includes various sensors. For example, the autonomous mobile body 11 includes a microphone 52, a camera 53, a ToF (Time Of Flight) sensor 525, a human presence sensor 55, a distance measurement sensor 56, a touch sensor 57, an illuminance sensor 58, a sole button 59, and an inertial sensor 60.

 自律移動体11は、例えば、頭部に4つのマイクロフォン52を備える。各マイクロフォン52は、例えば、ユーザの発話や、周囲の環境音を含む周囲の音を収集する。また、複数のマイクロフォン52を備えることで、周囲で発生する音を感度高く収集すると共に、音源定位が可能となる。 The autonomous mobile body 11 is equipped with, for example, four microphones 52 on its head. Each microphone 52 collects surrounding sounds, including, for example, the user's speech and ambient environmental sounds. Furthermore, by providing multiple microphones 52, it is possible to collect surrounding sounds with high sensitivity and localize the sound source.

 自律移動体11は、例えば、鼻先と腰部に2つの広角のカメラ53を備え、自律移動体11の周囲を撮影する。例えば、鼻先に配置されたカメラ53は、自律移動体11の前方視野(すなわち、イヌの視野)内の撮影を行う。腰部に配置されたカメラ53は、自律移動体11の上方を中心とする周囲の撮影を行う。自律移動体11は、例えば、腰部に配置されたカメラ53により撮影された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。 The autonomous mobile body 11 is equipped with two wide-angle cameras 53, for example, located at the nose and waist, which capture images of the area around the autonomous mobile body 11. For example, the camera 53 located at the nose captures images within the autonomous mobile body 11's forward field of view (i.e., the dog's field of view). The camera 53 located at the waist captures images of the area around the autonomous mobile body 11, with the area above the autonomous mobile body 11 as the center. The autonomous mobile body 11 can extract feature points on the ceiling, for example, based on images captured by the camera 53 located at the waist, and achieve SLAM (Simultaneous Localization and Mapping).

 ToFセンサ54は、例えば、鼻先に設けられ、頭部前方に存在する物体との距離を検出する。自律移動体11は、ToFセンサ54により種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することができる。 The ToF sensor 54 is mounted, for example, on the tip of the nose and detects the distance to an object located in front of the head. The ToF sensor 54 enables the autonomous mobile body 11 to accurately detect the distance to various objects, enabling it to perform operations according to the relative position of objects, including the user, and obstacles.

 人感センサ55は、例えば、胸部に配置され、ユーザやユーザが飼育するペットなどの所在を検知する。自律移動体11は、人感センサ55により前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することができる。 The human presence sensor 55 is placed, for example, on the chest and detects the location of the user or the user's pets. By detecting an animal in front of the autonomous mobile body 11 using the human presence sensor 55, the autonomous mobile body 11 can perform various actions in response to the animal, such as actions in response to emotions such as interest, fear, or surprise.

 測距センサ56は、例えば、胸部に配置され、自律移動体11の前方床面の状況を検出する。自律移動体11は、測距センサ56により前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。 The distance measurement sensor 56 is placed, for example, on the chest, and detects the condition of the floor surface in front of the autonomous mobile body 11. The distance measurement sensor 56 allows the autonomous mobile body 11 to accurately detect the distance to an object on the floor surface in front of it, and to perform operations according to the relative position of that object.

 タッチセンサ57は、例えば、頭頂、あご下、背中など、ユーザが自律移動体11に触れる可能性が高い部位に配置され、ユーザによる接触を検知する。タッチセンサ57は、例えば、静電容量式や感圧式のタッチセンサにより構成される。自律移動体11は、タッチセンサ57により、ユーザの触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことができる。 The touch sensor 57 is placed in areas where the user is likely to touch the autonomous moving body 11, such as the top of the head, under the chin, or on the back, and detects contact by the user. The touch sensor 57 is configured, for example, by a capacitance-type or pressure-sensitive touch sensor. The touch sensor 57 allows the autonomous moving body 11 to detect contact actions by the user, such as touching, stroking, tapping, or pushing, and to perform an action in accordance with the contact action.

 照度センサ58は、例えば、頭部背面において尾部の付け根などに配置され、自律移動体11が位置する空間の照度を検出する。自律移動体11は、照度センサ58により周囲の明るさを検出し、当該明るさに応じた動作を実行することができる。 The illuminance sensor 58 is located, for example, on the back of the head at the base of the tail, and detects the illuminance of the space in which the autonomous mobile body 11 is located. The autonomous mobile body 11 can detect the ambient brightness using the illuminance sensor 58 and perform operations according to the brightness.

 足裏ボタン59は、例えば、4つの脚部の肉球に該当する部位にそれぞれ配置され、自律移動体11の脚部底面が床と接触しているか否かを検知する。自律移動体11は、足裏ボタン59により床面との接触または非接触を検知することができ、例えば、ユーザにより抱き上げられたことなどを把握することができる。 The sole buttons 59 are, for example, positioned on the areas corresponding to the pads of each of the four legs, and detect whether the bottom surfaces of the legs of the autonomous mobile body 11 are in contact with the floor. The sole buttons 59 allow the autonomous mobile body 11 to detect whether or not it is in contact with the floor, and can, for example, determine when it has been picked up by a user.

 慣性センサ60は、例えば、頭部および胴部にそれぞれ配置され、頭部や胴部の速度、加速度、回転等の物理量を検出する。例えば、慣性センサ60は、X軸、Y軸、Z軸の加速度および角速度を検出する6軸センサにより構成される。自律移動体11は、慣性センサ60により頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することができる。 The inertial sensors 60 are placed, for example, on the head and torso, respectively, and detect physical quantities such as the speed, acceleration, and rotation of the head and torso. For example, the inertial sensors 60 are configured with a six-axis sensor that detects acceleration and angular velocity along the X, Y, and Z axes. The autonomous mobile body 11 can accurately detect the movement of the head and torso using the inertial sensors 60, enabling it to control its movement according to the situation.

 なお、自律移動体11が備えるセンサの構成は、仕様や運用等に応じて柔軟に変更され得る。例えば、自律移動体11は、上記の構成のほか、例えば、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)信号受信機を含む各種の通信装置などをさらに備えてよい。 The configuration of the sensors equipped in the autonomous mobile body 11 can be flexibly changed depending on the specifications, operation, etc. For example, in addition to the above configuration, the autonomous mobile body 11 may further be equipped with various communication devices including, for example, a temperature sensor, a geomagnetic sensor, and a GNSS (Global Navigation Satellite System) signal receiver.

 次に、図3を参照して、自律移動体11の関節部の構成例について説明する。図3は、自律移動体11が備えるアクチュエータ71の構成例を示している。自律移動体11は、図3に示す回転箇所に加え、耳部と尾部に2つずつ、口に1つの合計22の回転自由度を有する。 Next, an example configuration of the joints of the autonomous mobile body 11 will be described with reference to Figure 3. Figure 3 shows an example configuration of the actuator 71 provided in the autonomous mobile body 11. In addition to the rotation points shown in Figure 3, the autonomous mobile body 11 has two degrees of freedom of rotation each in the ears and tail, and one in the mouth, for a total of 22 degrees of freedom of rotation.

 例えば、自律移動体11は、頭部に3自由度を有することで、頷きや首を傾げる動作を両立することができる。また、自律移動体11は、腰部に備えるアクチュエータ71により、腰のスイング動作を再現することで、より現実のイヌに近い自然かつ柔軟な動作を実現することができる。 For example, the autonomous mobile body 11 has three degrees of freedom in its head, allowing it to perform both nodding and tilting its head. Furthermore, the autonomous mobile body 11 can reproduce swinging movements of its waist using the actuator 71 provided in its waist, allowing it to achieve natural and flexible movements that are closer to those of a real dog.

 なお、自律移動体11は、例えば、1軸アクチュエータと2軸アクチュエータを組み合わせることで、上記の22の回転自由度を実現してもよい。例えば、脚部における肘や膝部分においては1軸アクチュエータを、肩や大腿の付け根には2軸アクチュエータをそれぞれ採用してもよい。 The autonomous mobile body 11 may achieve the above-mentioned 22 degrees of rotational freedom by, for example, combining a single-axis actuator and a two-axis actuator. For example, single-axis actuators may be used in the elbows and knees of the legs, and two-axis actuators may be used in the shoulders and thigh joints.

 次に、図4を参照して、自律移動体11が備えるディスプレイ51の機能について説明する。 Next, the functions of the display 51 provided on the autonomous moving body 11 will be explained with reference to Figure 4.

 自律移動体11は、右眼および左眼にそれぞれ相当する2つのディスプレイ51R及びディスプレイ51Lを備える。各ディスプレイ51は、自律移動体11の目の動きや感情を視覚的に表現する機能を備える。例えば、各ディスプレイ51は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することで、実在するイヌなどの動物に近い自然な動作を演出し、自律移動体11の視線や感情を高精度かつ柔軟に表現することができる。また、ユーザは、ディスプレイ51に表示される眼球の動作から、自律移動体11の状態を直観的に把握することができる。 The autonomous mobile body 11 is equipped with two displays 51R and 51L, which correspond to the right and left eyes, respectively. Each display 51 has the function of visually expressing the eye movements and emotions of the autonomous mobile body 11. For example, each display 51 can express the movements of the eyeballs, pupils, and eyelids in accordance with emotions and actions, thereby producing natural movements similar to those of real animals such as dogs, and can express the line of sight and emotions of the autonomous mobile body 11 with high precision and flexibility. Furthermore, the user can intuitively grasp the state of the autonomous mobile body 11 from the eyeball movements displayed on the display 51.

 また、各ディスプレイ51は、例えば、独立した2つのOLED(Organic Light Emitting Diode)により実現される。OLEDを用いることにより、眼球の曲面を再現することが可能となる。その結果、1枚の平面ディスプレイにより一対の眼球を表現する場合や、2枚の独立した平面ディスプレイにより2つの眼球をそれぞれ表現する場合と比較して、より自然な外装を実現することができる。 Furthermore, each display 51 is realized, for example, by two independent OLEDs (Organic Light Emitting Diodes). By using OLEDs, it is possible to reproduce the curved surface of an eyeball. As a result, a more natural appearance can be achieved compared to when a pair of eyeballs are represented by a single flat display, or when two eyeballs are each represented by two independent flat displays.

 自律移動体11は、上記の構成により、図5に示されるように、関節部や眼球の動作を精度高く、柔軟に制御することで、より実在の生物に近い動作及び感情表現を再現することができる。 With the above configuration, the autonomous mobile body 11 can reproduce movements and emotional expressions that are closer to those of real living creatures by controlling the movements of its joints and eyeballs with high precision and flexibility, as shown in Figure 5.

 なお、図5は、自律移動体11の動作例を示す図であるが、図5では、自律移動体11の関節部及び眼球の動作について着目して説明を行うため、自律移動体11の外部構造を簡略化して示している。 Note that Figure 5 is a diagram showing an example of the operation of the autonomous mobile body 11, but in Figure 5, the external structure of the autonomous mobile body 11 is shown in a simplified manner in order to focus the explanation on the operation of the joints and eyeballs of the autonomous mobile body 11.

 <自律移動体11の機能構成例>
 次に、図6を参照して、自律移動体11の機能構成例について説明する。自律移動体11は、入力部101、センシング部102、通信部103、情報処理部104、駆動部105、出力部106、及び、記憶部107を備える。
<Example of functional configuration of autonomous moving body 11>
Next, an example of the functional configuration of the autonomous mobile body 11 will be described with reference to Fig. 6. The autonomous mobile body 11 includes an input unit 101, a sensing unit 102, a communication unit 103, an information processing unit 104, a drive unit 105, an output unit 106, and a storage unit 107.

 入力部101は、例えば、スイッチ、ボタン等の入力デバイスを備える。入力部101は、入力デバイスを介して入力される入力データを情報処理部104に供給する。 The input unit 101 includes input devices such as switches and buttons. The input unit 101 supplies input data input via the input devices to the information processing unit 104.

 センシング部102は、例えば、図2に示される各種のセンサ等を備え、ユーザや周囲の状況に関する各種のセンサデータを収集する機能を備える。センシング部102は、収集したセンサデータを情報処理部104に供給する。 The sensing unit 102 includes, for example, various sensors shown in FIG. 2 and has the function of collecting various sensor data related to the user and the surrounding conditions. The sensing unit 102 supplies the collected sensor data to the information processing unit 104.

 通信部103は、ネットワーク21を介して、又は、ネットワーク21を介さずに、他の自律移動体11、情報処理端末12、及び、情報処理サーバ13と通信を行い、各種のデータの送受信を行う。通信部103は、受信したデータを情報処理部104に供給し、送信するデータを情報処理部104から取得する。 The communication unit 103 communicates with other autonomous mobile bodies 11, information processing terminals 12, and information processing servers 13, either via the network 21 or without the network 21, to send and receive various types of data. The communication unit 103 supplies received data to the information processing unit 104 and obtains data to be sent from the information processing unit 104.

 なお、通信部103の通信方式は、特に限定されず、仕様や運用に応じて柔軟に変更することが可能である。 The communication method of the communication unit 103 is not particularly limited and can be flexibly changed depending on the specifications and operation.

 情報処理部104は、例えば、CPU(Central Processing Unit)等のプロセッサ等を備え、各種の情報処理を行ったり、自律移動体11の各部の制御を行ったりする。情報処理部104は、認識部121、学習部122、行動計画部123、及び、動作制御部124を備える。 The information processing unit 104 includes a processor such as a CPU (Central Processing Unit), and performs various types of information processing and controls each part of the autonomous mobile body 11. The information processing unit 104 includes a recognition unit 121, a learning unit 122, an action planning unit 123, and an operation control unit 124.

 認識部121は、入力部101から供給される入力データ、センシング部102から供給されるセンサデータ、及び、通信部103から供給される受信データに基づいて、自律移動体11が置かれている状況の認識を行う。自律移動体11が置かれている状況は、例えば、自分及び周囲の状況を含む。自分の状況は、例えば、自律移動体11の状態及び動きを含む。周囲の状況は、例えば、ユーザ等の周囲の人の状態、動き、及び、指示、ペット等の周囲の生物の状態及び動き、周囲の物体の状態及び動き、時間、場所、並びに、周囲の環境等を含む。周囲の物体は、例えば、他の自律移動体を含む。また、認識部121は、状況を認識するために、例えば、人識別、表情や視線の認識、感情認識、物体認識、動作認識、空間領域認識、色認識、形認識、マーカ認識、障害物認識、段差認識、明るさ認識、温度認識、音声認識、単語理解、位置推定、姿勢推定等を行う。 The recognition unit 121 recognizes the situation in which the autonomous mobile body 11 is located, based on input data supplied from the input unit 101, sensor data supplied from the sensing unit 102, and received data supplied from the communication unit 103. The situation in which the autonomous mobile body 11 is located includes, for example, its own situation and its surroundings. Its own situation includes, for example, the state and movement of the autonomous mobile body 11. The surrounding situation includes, for example, the state, movement, and instructions of surrounding people such as the user, the state and movement of surrounding living things such as pets, the state and movement of surrounding objects, time, location, and the surrounding environment. Surrounding objects include, for example, other autonomous mobile bodies. Furthermore, in order to recognize the situation, the recognition unit 121 performs, for example, person identification, facial expression and gaze recognition, emotion recognition, object recognition, action recognition, spatial region recognition, color recognition, shape recognition, marker recognition, obstacle recognition, step recognition, brightness recognition, temperature recognition, voice recognition, word understanding, position estimation, and posture estimation.

 また、認識部121は、認識した各種の情報に基づいて、状況を推定し、理解する機能を備える。この際、認識部121は、事前に記憶される知識を用いて総合的に状況の推定を行ってもよい。 The recognition unit 121 also has the ability to estimate and understand the situation based on the various types of information that it recognizes. In this case, the recognition unit 121 may use knowledge stored in advance to comprehensively estimate the situation.

 認識部121は、状況の認識結果又は推定結果を示すデータ(以下、状況データと称する)を学習部122及び行動計画部123に供給する。また、認識部121は、状況の認識結果又は推定結果を示すデータを、記憶部107に記憶されている行動履歴データに登録する。 The recognition unit 121 supplies data indicating the situation recognition results or estimation results (hereinafter referred to as situation data) to the learning unit 122 and the action planning unit 123. The recognition unit 121 also registers the data indicating the situation recognition results or estimation results in the action history data stored in the memory unit 107.

 行動履歴データは、自律移動体11の行動の履歴を示すデータである。行動履歴データは、例えば、行動を開始した日時、行動を終了した日時、行動を実行したきっかけ、行動が指示された場所(ただし、場所が指示された場合)、行動したときの状況、行動を完了したか(行動を最後まで実行したか)否かの項目を含む。 The behavior history data is data that indicates the behavior history of the autonomous mobile body 11. The behavior history data includes, for example, items such as the date and time the behavior started, the date and time the behavior ended, the trigger for performing the behavior, the location where the behavior was instructed (if a location was instructed), the circumstances under which the behavior occurred, and whether the behavior was completed (whether the behavior was performed to the end).

 行動を実行したきっかけには、例えば、ユーザの指示をきっかけに行動が実行された場合、その指示内容が登録される。また、例えば、所定の状況になったことをきっかけに行動が実行された場合、その状況の内容が登録される。さらに、例えば、ユーザにより指示された物体、又は、認識した物体をきっかけに行動が実行された場合、その物体の種類が登録される。 For example, if an action is performed as a result of a user instruction, the content of that instruction is registered as the trigger for the action. Also, for example, if an action is performed as a result of a specific situation occurring, the content of that situation is registered. Furthermore, for example, if an action is performed as a result of an object indicated by the user or a recognized object, the type of object is registered.

 学習部122は、入力部101から供給される入力データ、センシング部102から供給されるセンサデータ、及び、通信部103から供給される受信データに基づいて、認識部121から供給される状況データ、行動計画部123から供給される自律移動体11の行動に関するデータ、及び、記憶部107に記憶されている行動履歴データに基づいて、状況と行動、及び、当該行動による環境への作用を学習する。例えば、学習部122は、上述したパターン認識学習を行ったり、ユーザの躾に対応する行動パターンの学習を行ったりする。 The learning unit 122 learns the situation, behavior, and the effect of that behavior on the environment based on the input data supplied from the input unit 101, the sensor data supplied from the sensing unit 102, and the received data supplied from the communication unit 103, as well as the situation data supplied from the recognition unit 121, data related to the behavior of the autonomous mobile body 11 supplied from the behavior planning unit 123, and the behavior history data stored in the memory unit 107. For example, the learning unit 122 performs the pattern recognition learning described above and learns behavior patterns corresponding to the user's discipline.

 例えば、学習部122は、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部122が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。 For example, the learning unit 122 achieves the above learning using a machine learning algorithm such as deep learning. Note that the learning algorithm employed by the learning unit 122 is not limited to the above example, and can be designed as appropriate.

 学習部122は、学習結果を示すデータ(以下、学習結果データと称する)を行動計画部123に供給したり、記憶部107に記憶させたりする。 The learning unit 122 supplies data indicating the learning results (hereinafter referred to as learning result data) to the action planning unit 123 and stores it in the memory unit 107.

 行動計画部123は、認識又は推定された状況、及び、学習結果データに基づいて、自律移動体11が行う行動を計画する。行動計画部123は、計画した行動を示すデータ(以下、行動計画データと称する)を動作制御部124に供給する。また、行動計画部123は、自律移動体11の行動に関するデータを学習部122に供給したり、記憶部107に記憶されている行動履歴データに登録したりする。 The behavior planning unit 123 plans the behavior of the autonomous mobile body 11 based on the recognized or estimated situation and the learning result data. The behavior planning unit 123 supplies data indicating the planned behavior (hereinafter referred to as behavior plan data) to the operation control unit 124. The behavior planning unit 123 also supplies data regarding the behavior of the autonomous mobile body 11 to the learning unit 122 and registers it in the behavior history data stored in the memory unit 107.

 動作制御部124は、行動計画データに基づいて、駆動部105及び出力部106を制御することにより、計画された行動を実行するように自律移動体11の動作を制御する。動作制御部124は、例えば、行動計画に基づいて、アクチュエータ71の回転制御や、ディスプレイ51の表示制御、スピーカによる音声出力制御などを行う。 The operation control unit 124 controls the operation of the autonomous mobile body 11 so as to execute the planned action by controlling the drive unit 105 and output unit 106 based on the action plan data. For example, the operation control unit 124 controls the rotation of the actuator 71, the display of the display 51, and the audio output from the speaker based on the action plan.

 駆動部105は、動作制御部124による制御に基づいて、自律移動体11が有する複数の関節部を屈伸させる。より具体的には、駆動部105は、動作制御部124による制御に基づいて、各関節部が備えるアクチュエータ71を駆動させる。 The drive unit 105 bends and stretches the multiple joints of the autonomous mobile body 11 based on control by the movement control unit 124. More specifically, the drive unit 105 drives the actuators 71 provided in each joint based on control by the movement control unit 124.

 出力部106は、例えば、ディスプレイ51、スピーカ、ハプティクスデバイス等を備え、動作制御部124による制御に基づいて、視覚情報、聴覚情報、触覚情報等の出力を行う。 The output unit 106 includes, for example, a display 51, a speaker, a haptic device, etc., and outputs visual information, auditory information, tactile information, etc. based on the control of the operation control unit 124.

 記憶部107は、例えば、不揮発性メモリ及び揮発性メモリを備え、各種のプログラム及びデータを記憶する。 The storage unit 107 includes, for example, non-volatile memory and volatile memory, and stores various programs and data.

 なお、以下、自律移動体11の各部が通信部103及びネットワーク21を介して情報処理サーバ13等と通信を行う場合の「通信部103及びネットワーク21を介して」の記載を適宜省略する。例えば、認識部121が通信部103及びネットワーク21を介して情報処理サーバ13と通信を行う場合、単に、認識部121が情報処理サーバ13と通信を行うと記載する。 Note that hereinafter, when each unit of the autonomous mobile body 11 communicates with the information processing server 13, etc. via the communication unit 103 and the network 21, the phrase "via the communication unit 103 and the network 21" will be omitted as appropriate. For example, when the recognition unit 121 communicates with the information processing server 13 via the communication unit 103 and the network 21, it will simply be stated that the recognition unit 121 communicates with the information processing server 13.

 <情報処理端末12の機能構成例>
 次に、図7を参照して、情報処理端末12の機能構成例について説明する。情報処理端末12は、入力部201、センシング部202、通信部203、情報処理部204、出力部205、及び、記憶部206を備える。
<Example of functional configuration of information processing terminal 12>
Next, an example of the functional configuration of the information processing terminal 12 will be described with reference to Fig. 7. The information processing terminal 12 includes an input unit 201, a sensing unit 202, a communication unit 203, an information processing unit 204, an output unit 205, and a storage unit 206.

 入力部201は、例えば、スイッチ(不図示)、ボタン(不図示)等の入力デバイスを備える。入力部201は、入力デバイスを介して入力される入力データを情報処理部204に供給する。 The input unit 201 includes input devices such as switches (not shown) and buttons (not shown). The input unit 201 supplies input data input via the input devices to the information processing unit 204.

 センシング部202は、例えば、カメラ(不図示)、マイクロフォン(不図示)、慣性センサ(不図示)等の各種のセンサを備える。センシング部202は、各種のセンサから出力されるセンサデータを情報処理部204に供給する。 The sensing unit 202 includes various sensors, such as a camera (not shown), a microphone (not shown), and an inertial sensor (not shown). The sensing unit 202 supplies sensor data output from the various sensors to the information processing unit 204.

 通信部203は、ネットワーク21を介して、又は、ネットワーク21を介さずに、自律移動体11、他の情報処理端末12、及び、情報処理サーバ13と通信を行い、各種のデータの送受信を行う。通信部203は、受信したデータを情報処理部204に供給し、送信するデータを情報処理部204から取得する。 The communication unit 203 communicates with the autonomous mobile body 11, other information processing terminals 12, and the information processing server 13 via the network 21 or without the network 21, and transmits and receives various types of data. The communication unit 203 supplies received data to the information processing unit 204 and obtains data to be transmitted from the information processing unit 204.

 なお、通信部203の通信方式は、特に限定されず、仕様や運用に応じて柔軟に変更することが可能である。 The communication method of the communication unit 203 is not particularly limited and can be flexibly changed depending on the specifications and operation.

 情報処理部204は、例えば、CPU等のプロセッサ等を備え、各種の情報処理を行ったり、情報処理端末12の各部の制御を行ったり、各種のアプリケーションを実行したりする。 The information processing unit 204 includes, for example, a processor such as a CPU, and performs various types of information processing, controls each part of the information processing terminal 12, and executes various applications.

 出力部205は、例えば、ディスプレイ(不図示)、スピーカ(不図示)、ハプティクスデバイス(不図示)等を備え、情報処理部204による制御に基づいて、視覚情報、聴覚情報、触覚情報等の出力を行う。 The output unit 205 includes, for example, a display (not shown), a speaker (not shown), a haptic device (not shown), etc., and outputs visual information, auditory information, tactile information, etc. based on the control of the information processing unit 204.

 記憶部206は、例えば、不揮発性メモリ及び揮発性メモリを備え、各種のプログラム及びデータを記憶する。 The storage unit 206 includes, for example, non-volatile memory and volatile memory, and stores various programs and data.

 なお、情報処理端末12の機能構成は、仕様や運用に応じて柔軟に変更することが可能である。 The functional configuration of the information processing terminal 12 can be flexibly changed depending on the specifications and operation.

 また、以下、情報処理端末12の各部が通信部203及びネットワーク21を介して情報処理サーバ13等と通信を行う場合の「通信部203及びネットワーク21を介して」の記載を適宜省略する。例えば、情報処理部204が通信部203及びネットワーク21を介して情報処理サーバ13と通信を行う場合、単に、情報処理部204が情報処理サーバ13と通信を行うと記載する。 Furthermore, hereinafter, when each unit of the information processing terminal 12 communicates with the information processing server 13, etc. via the communication unit 203 and the network 21, the phrase "via the communication unit 203 and the network 21" will be omitted as appropriate. For example, when the information processing unit 204 communicates with the information processing server 13 via the communication unit 203 and the network 21, it will simply be stated that the information processing unit 204 communicates with the information processing server 13.

 <情報処理部204の機能構成例>
 次に、図8は、情報処理端末12の情報処理部204の機能の構成例の一部を示している。特に、図8は、仮想移動体アプリケーションの着せ替え機能に関する処理を行う部分の機能の構成例を示している。
<Example of functional configuration of information processing unit 204>
Next, Fig. 8 shows a part of an example of the functional configuration of the information processing unit 204 of the information processing terminal 12. In particular, Fig. 8 shows an example of the functional configuration of a part that performs processing related to the dress-up function of the virtual mobile application.

 情報処理部204は、着せ替えアイテム生成部241、着せ替え画像生成部242、及び、UI制御部243を備える。 The information processing unit 204 includes a dress-up item generation unit 241, a dress-up image generation unit 242, and a UI control unit 243.

 着せ替えアイテム生成部241は、着せ替えアイテムを生成する処理を実行する。着せ替えアイテム生成部241は、画像取得部251、画像処理部252、及び、登録部253を備える。 The dress-up item generation unit 241 executes processing to generate dress-up items. The dress-up item generation unit 241 includes an image acquisition unit 251, an image processing unit 252, and a registration unit 253.

 画像取得部251は、衣装等の現実のアイテムを装着した現実の自律移動体11を撮影することにより得られた画像データをセンシング部202から取得する。画像取得部251は、取得した画像データを画像処理部252の3D(3次元)データ化部261に供給する。 The image acquisition unit 251 acquires image data obtained by photographing a real autonomous moving body 11 wearing real items such as clothing from the sensing unit 202. The image acquisition unit 251 supplies the acquired image data to the 3D (three-dimensional) data conversion unit 261 of the image processing unit 252.

 また、例えば、画像取得部251は、センシング部202による自律移動体11の撮影を制御することが可能である。さらに、例えば、画像取得部251は、通信部203を介して、自律移動体11に指示を与えることにより、撮影時にスキャン用のポーズをとるように自律移動体11を制御することが可能である。 Furthermore, for example, the image acquisition unit 251 can control the autonomous mobile body 11 being photographed by the sensing unit 202. Furthermore, for example, the image acquisition unit 251 can control the autonomous mobile body 11 to assume a pose for scanning when photographing by issuing instructions to the autonomous mobile body 11 via the communication unit 203.

 画像処理部252は、自律移動体11の画像データに対して画像処理を実行することにより、着せ替えアイテムを生成する。画像処理部252は、3Dデータ化部261及び仮想アイテム化部262を備える。 The image processing unit 252 generates dress-up items by performing image processing on the image data of the autonomous moving body 11. The image processing unit 252 includes a 3D data conversion unit 261 and a virtual item conversion unit 262.

 3Dデータ化部261は、自律移動体11の画像データに基づいて、自律移動体11の3Dデータ(以下、3D移動体と称する)を生成する。3Dデータ化部261は、3D移動体のデータを仮想アイテム化部262の抽出部271に供給する。 The 3D data generation unit 261 generates 3D data of the autonomous mobile body 11 (hereinafter referred to as the 3D mobile body) based on the image data of the autonomous mobile body 11. The 3D data generation unit 261 supplies the data of the 3D mobile body to the extraction unit 271 of the virtual item generation unit 262.

 仮想アイテム化部262は、3D移動体に基づいて、自律移動体11が装着しているアイテムに対応する仮想アイテムである着せ替えアイテムを生成する。仮想アイテム化部262は、抽出部271及び編集部272を備える。 The virtual item creation unit 262 generates, based on the 3D moving body, a dress-up item, which is a virtual item corresponding to the item worn by the autonomous moving body 11. The virtual item creation unit 262 includes an extraction unit 271 and an editing unit 272.

 抽出部271は、自律移動体11の3Dモデルを用いて、自律移動体11が装着しているアイテムの3Dデータ(以下、3Dアイテムと称する)を、3D移動体から抽出する。自律移動体11の3Dモデルは、例えば、自律移動体11の設計時に作成されたCADデータ等であり、記憶部206に記憶されている。抽出部271は、3Dアイテムのデータを編集部272に供給する。 The extraction unit 271 uses the 3D model of the autonomous mobile body 11 to extract 3D data of items (hereinafter referred to as 3D items) worn by the autonomous mobile body 11 from the 3D mobile body. The 3D model of the autonomous mobile body 11 is, for example, CAD data created when the autonomous mobile body 11 was designed, and is stored in the storage unit 206. The extraction unit 271 supplies the data of the 3D items to the editing unit 272.

 編集部272は、3Dアイテムに対して各種の編集処理を実行し、着せ替えアイテムを生成する。編集部272は、着せ替えアイテムのデータを登録部253に供給する。 The editing unit 272 performs various editing processes on the 3D items to generate dress-up items. The editing unit 272 supplies the dress-up item data to the registration unit 253.

 登録部253は、着せ替えアイテムのデータを情報処理サーバ13に送信し、仮想移動体アプリケーションの着せ替え機能に着せ替えアイテムを登録する処理を実行する。 The registration unit 253 transmits data on the dress-up items to the information processing server 13 and executes processing to register the dress-up items in the dress-up function of the virtual mobile application.

 着せ替え画像生成部242は、仮想移動体のデータ、及び、着せ替えアイテムのデータを情報処理サーバ13から受信する。着せ替え画像生成部242は、仮想移動体に着せ替えアイテムを装着した画像(以下、着せ替え画像と称する)を生成し、着せ替え画像のデータをUI制御部243に供給する。 The dress-up image generation unit 242 receives data on the virtual moving object and data on the dress-up items from the information processing server 13. The dress-up image generation unit 242 generates an image of the virtual moving object equipped with the dress-up items (hereinafter referred to as the dress-up image), and supplies the data on the dress-up image to the UI control unit 243.

 UI制御部243は、入力部201及び出力部205による着せ替え機能に関するユーザインタフェースの制御を実行する。例えば、UI制御部243は、出力部205による着せ替え画像の表示を制御する。 The UI control unit 243 controls the user interface related to the dress-up function provided by the input unit 201 and the output unit 205. For example, the UI control unit 243 controls the display of dress-up images provided by the output unit 205.

 <情報処理サーバ13の機能構成例>
 次に、図9を参照して、情報処理サーバ13の機能構成例について説明する。情報処理サーバ13は、通信部301、情報処理部302、及び、記憶部303を備える。
<Example of functional configuration of information processing server 13>
Next, an example of the functional configuration of the information processing server 13 will be described with reference to Fig. 9. The information processing server 13 includes a communication unit 301, an information processing unit 302, and a storage unit 303.

 通信部301は、ネットワーク21を介して、各自律移動体11及び各情報処理端末12と通信を行い、各種のデータの送受信を行う。通信部301は、受信したデータを情報処理部302に供給し、送信するデータを情報処理部302から取得する。 The communication unit 301 communicates with each autonomous mobile body 11 and each information processing terminal 12 via the network 21, sending and receiving various types of data. The communication unit 301 supplies the received data to the information processing unit 302 and obtains data to be transmitted from the information processing unit 302.

 なお、通信部301の通信方式は、特に限定されず、仕様や運用に応じて柔軟に変更することが可能である。 The communication method of the communication unit 301 is not particularly limited and can be flexibly changed depending on the specifications and operation.

 情報処理部302は、例えば、CPU等のプロセッサ等を備え、各種の情報処理を行ったり、情報処理端末12の各部の制御を行ったりする。情報処理部302は、自律移動体制御部321及びアプリケーション制御部322を備える。 The information processing unit 302 includes, for example, a processor such as a CPU, and performs various types of information processing and controls each unit of the information processing terminal 12. The information processing unit 302 includes an autonomous mobile object control unit 321 and an application control unit 322.

 自律移動体制御部321は、自律移動体11の情報処理部104と同様の構成を備える。具体的には、自律移動体制御部321は、認識部331、学習部332、行動計画部333、及び、動作制御部334を備える。 The autonomous mobile object control unit 321 has a configuration similar to that of the information processing unit 104 of the autonomous mobile object 11. Specifically, the autonomous mobile object control unit 321 has a recognition unit 331, a learning unit 332, an action planning unit 333, and an operation control unit 334.

 そして、自律移動体制御部321は、自律移動体11の情報処理部104と同様の機能を備える。例えば、自律移動体制御部321は、自律移動体11からセンサデータ、入力データ等、行動履歴データ等を受信し、自律移動体11及び周囲の状況を認識する。例えば、自律移動体制御部321は、自律移動体11及び周囲の状況に基づいて、自律移動体11の動作を制御する制御データを生成し、自律移動体11に送信することにより、自律移動体11の動作を制御する。例えば、自律移動体制御部321は、自律移動体11と同様に、パターン認識学習や、ユーザの躾に対応する行動パターンの学習を行う。 The autonomous mobile object control unit 321 has the same functions as the information processing unit 104 of the autonomous mobile object 11. For example, the autonomous mobile object control unit 321 receives sensor data, input data, behavioral history data, etc. from the autonomous mobile object 11, and recognizes the situation of the autonomous mobile object 11 and its surroundings. For example, the autonomous mobile object control unit 321 generates control data for controlling the operation of the autonomous mobile object 11 based on the situation of the autonomous mobile object 11 and its surroundings, and controls the operation of the autonomous mobile object 11 by transmitting this data to the autonomous mobile object 11. For example, the autonomous mobile object control unit 321, like the autonomous mobile object 11, performs pattern recognition learning and learns behavioral patterns corresponding to user discipline.

 なお、自律移動体制御部321の学習部332は、複数の自律移動体11から収集したデータに基づいて、パターン認識学習や、ユーザの躾に対応する行動パターンの学習を行うことより、複数の自律移動体11に共通する集合知の学習を行うことも可能である。 In addition, the learning unit 332 of the autonomous mobile object control unit 321 can also learn collective intelligence common to multiple autonomous mobile objects 11 by performing pattern recognition learning and learning behavioral patterns corresponding to user discipline based on data collected from multiple autonomous mobile objects 11.

 アプリケーション制御部322は、通信部301を介して、自律移動体11及び情報処理端末12と通信を行い、情報処理端末12により実行されるアプリケーションの制御を行う。 The application control unit 322 communicates with the autonomous mobile body 11 and the information processing terminal 12 via the communication unit 301, and controls applications executed by the information processing terminal 12.

 例えば、アプリケーション制御部322は、通信部301を介して、自律移動体11に関する各種のデータを自律移動体11から収集する。そして、アプリケーション制御部322は、通信部301を介して、収集したデータを情報処理端末12に送信することにより、自律移動体11に関するデータを情報処理端末12により実行されるアプリケーションに表示させる。 For example, the application control unit 322 collects various data related to the autonomous mobile body 11 from the autonomous mobile body 11 via the communication unit 301. The application control unit 322 then transmits the collected data to the information processing terminal 12 via the communication unit 301, thereby displaying the data related to the autonomous mobile body 11 in an application executed by the information processing terminal 12.

 例えば、アプリケーション制御部322は、通信部301を介して、アプリケーションを介して入力される自律移動体11への指示を示すデータを情報処理端末12から受信する。そして、アプリケーション制御部322は、通信部301を介して、受信したデータを自律移動体11に送信することにより、自律移動体11にユーザからの指示を与える。 For example, the application control unit 322 receives data indicating instructions to the autonomous mobile body 11 input via an application from the information processing terminal 12 via the communication unit 301. The application control unit 322 then transmits the received data to the autonomous mobile body 11 via the communication unit 301, thereby providing instructions from the user to the autonomous mobile body 11.

 例えば、アプリケーション制御部322は、通信部301を介して、仮想移動体アプリケーションに対する各種の操作に関するデータを情報処理端末12から受信する。そして、アプリケーション制御部322は、通信部301を介して、受信したデータに基づいて、仮想移動体アプリケーションの制御や設定等を実行する。 For example, the application control unit 322 receives data related to various operations on the virtual mobile application from the information processing terminal 12 via the communication unit 301. Then, the application control unit 322 controls and configures the virtual mobile application based on the data received via the communication unit 301.

 記憶部303は、例えば、不揮発性メモリ及び揮発性メモリを備え、各種のプログラム及びデータを記憶する。 The storage unit 303 includes, for example, non-volatile memory and volatile memory, and stores various programs and data.

 なお、情報処理サーバ13の機能構成は、仕様や運用に応じて柔軟に変更することが可能である。 The functional configuration of the information processing server 13 can be flexibly changed depending on the specifications and operations.

 また、以下、情報処理サーバ13の各部が通信部301及びネットワーク21を介して情報処理端末12等と通信を行う場合の「通信部301及びネットワーク21を介して」の記載を適宜省略する。例えば、アプリケーション制御部322が通信部301及びネットワーク21を介して情報処理端末12と通信を行う場合、単に、アプリケーション制御部322が情報処理端末12と通信を行うと記載する。 Furthermore, hereinafter, when each unit of the information processing server 13 communicates with the information processing terminal 12, etc. via the communication unit 301 and the network 21, the phrase "via the communication unit 301 and the network 21" will be omitted as appropriate. For example, when the application control unit 322 communicates with the information processing terminal 12 via the communication unit 301 and the network 21, it will simply be stated that the application control unit 322 communicates with the information processing terminal 12.

 <着せ替えアイテム生成処理>
 次に、図10のフローチャートを参照して、情報処理システム1により実行される着せ替えアイテム生成処理について説明する。
<Clothing item generation process>
Next, the dress-up item generation process executed by the information processing system 1 will be described with reference to the flowchart of FIG.

 ステップS1において、情報処理システム1は、スキャン処理を実行する。 In step S1, the information processing system 1 executes a scan process.

 ここで、図11のフローチャートを参照して、スキャン処理の詳細について説明する。 Here, we will explain the details of the scanning process with reference to the flowchart in Figure 11.

 ステップS21において、情報処理システム1は、自律移動体11のスキャンの開始を受け付ける。 In step S21, the information processing system 1 accepts the start of scanning of the autonomous moving body 11.

 例えば、情報処理端末12の出力部205は、UI制御部243の制御の下に、操作メニューを表示する。例えば、操作メニューの中には、自律移動体11が装着しているアイテムをスキャンするための「アイテムスキャン」の項目が含まれる。 For example, the output unit 205 of the information processing terminal 12 displays an operation menu under the control of the UI control unit 243. For example, the operation menu includes an "item scan" item for scanning an item attached to the autonomous moving body 11.

 これに対して、例えば、ユーザが、入力部201を介して、操作メニューの中から「アイテムスキャン」を選択した場合、入力部201は、アイテムスキャンが選択されたことを情報処理部204に通知する。 In response to this, for example, if the user selects "Item Scan" from the operation menu via the input unit 201, the input unit 201 notifies the information processing unit 204 that item scan has been selected.

 情報処理部204のUI制御部243は、通信部203を介して、アイテムスキャンを開始することを自律移動体11に通知する。 The UI control unit 243 of the information processing unit 204 notifies the autonomous mobile body 11 via the communication unit 203 that an item scan will begin.

 これに対して、自律移動体11の認識部121は、通信部103を介して、情報処理端末12からの通知を受信する。これにより、認識部121は、アイテムスキャンが開始されることを認識する。 In response to this, the recognition unit 121 of the autonomous mobile object 11 receives a notification from the information processing terminal 12 via the communication unit 103. As a result, the recognition unit 121 recognizes that an item scan will begin.

 なお、ステップS21の処理は、省略することが可能である。 Note that step S21 may be omitted.

 ステップS22において、自律移動体11は、スキャン用のポーズを開始する。 In step S22, the autonomous mobile body 11 begins a scanning pause.

 例えば、ユーザは、所定の音声コマンド(例えば、「ハイ、スキャン」)により、スキャン用のポーズの実行を自律移動体11に指示する。 For example, the user instructs the autonomous mobile body 11 to perform a scanning pause by issuing a predetermined voice command (e.g., "Hi, scan").

 これに対して、自律移動体11のセンシング部102は、音声コマンドに対応する音声を収集し、収集した音声に対応する音声データを情報処理部104に供給する。情報処理部104の認識部121は、音声データに基づいて音声コマンドを認識することにより、スキャン用のポーズの実行が指示されたことを認識する。 In response, the sensing unit 102 of the autonomous mobile body 11 collects the voice corresponding to the voice command and supplies the voice data corresponding to the collected voice to the information processing unit 104. The recognition unit 121 of the information processing unit 104 recognizes that the voice command has been instructed to execute a pause for scanning by recognizing the voice command based on the voice data.

 または、例えば、ユーザは、情報処理端末12の入力部201を介して、自律移動体11へのスキャン用のポーズの実行の指示を入力する。 Alternatively, for example, the user inputs an instruction to the autonomous moving body 11 to perform a scanning pose via the input unit 201 of the information processing terminal 12.

 これに対して、情報処理端末12の入力部201は、スキャン用のポーズの開始の指示が入力されたことを情報処理部204に通知する。情報処理部204の画像取得部251は、通信部203を介して、スキャン用のポーズの実行の指示を自律移動体11に送信する。 In response to this, the input unit 201 of the information processing terminal 12 notifies the information processing unit 204 that an instruction to start a scan pause has been input. The image acquisition unit 251 of the information processing unit 204 transmits an instruction to execute a scan pause to the autonomous mobile body 11 via the communication unit 203.

 これに対して、自律移動体11の認識部121は、通信部103を介して、スキャン用のポーズの実行の指示を情報処理端末12から受信する。これにより、認識部121は、スキャン用のポーズの実行が指示されたことを認識する。 In response to this, the recognition unit 121 of the autonomous mobile body 11 receives an instruction to execute a scanning pause from the information processing terminal 12 via the communication unit 103. As a result, the recognition unit 121 recognizes that an instruction to execute a scanning pause has been issued.

 自律移動体11の認識部121は、スキャン用のポーズの実行が指示されたことを認識した場合、センシング部202からのセンサデータ等に基づいて、自律移動体11に装着されているアイテムの位置を認識する。認識部121は、スキャン用のポーズの指示、及び、装着されているアイテムの位置の認識結果を示す状況データを行動計画部123に供給する。 When the recognition unit 121 of the autonomous mobile body 11 recognizes that an instruction to perform a scanning pose has been issued, it recognizes the position of the item attached to the autonomous mobile body 11 based on sensor data from the sensing unit 202, etc. The recognition unit 121 supplies the instruction to perform a scanning pose and situation data indicating the recognition result of the position of the attached item to the action planning unit 123.

 行動計画部123は、自律移動体11が装着しているアイテムに対応するポーズを取るように、自律移動体11の行動を計画する。装着しているアイテムに対応するポーズとは、例えば、アイテムの撮影を容易にするポーズである。行動計画部123は、計画した行動を示す行動計画データを動作制御部124に供給する。 The behavior planning unit 123 plans the behavior of the autonomous mobile body 11 so that the autonomous mobile body 11 assumes a pose that corresponds to the item worn by the autonomous mobile body 11. A pose that corresponds to the worn item is, for example, a pose that makes it easy to photograph the item. The behavior planning unit 123 supplies behavior plan data indicating the planned behavior to the operation control unit 124.

 動作制御部124は、行動計画データに基づいて、駆動部105及び出力部106を制御することにより、装着しているアイテムに対応するポーズをとるように自律移動体11の動作を制御する。 The movement control unit 124 controls the movement of the autonomous mobile body 11 so that it assumes a pose corresponding to the item it is wearing by controlling the drive unit 105 and output unit 106 based on the behavior plan data.

 例えば、自律移動体11は、靴(不図示)を履いている場合、図12のA及びBに示されるように、足裏まで撮影しやすくなるように、脚を上げてしばらく静止するポーズをとる。 For example, when the autonomous moving body 11 is wearing shoes (not shown), it will assume a pose in which it stands still for a while with its legs raised, as shown in A and B of Figure 12, so that the soles of its feet can be easily photographed.

 例えば、自律移動体11は、帽子(不図示)や首輪(不図示)を装着している場合、図13に示されるように、前後左右から撮影しやすくなるように、お座りした状態で頭をしっかりと上げたポーズをとる。さらに、自律移動体11は、首輪を装着している場合、例えば、首周りを撮影しやすくするように、口を閉じる。 For example, when the autonomous mobile body 11 is wearing a hat (not shown) or a collar (not shown), it will assume a pose in a sitting position with its head held firmly up, as shown in FIG. 13, to make it easier to photograph it from the front, back, left and right. Furthermore, when the autonomous mobile body 11 is wearing a collar, it will close its mouth, for example, to make it easier to photograph the area around its neck.

 例えば、自律移動体11は、服(不図示)を着ている場合、図14に示されるように、腹部の裏側まで撮影しやすくなるように、脚をしっかり開いて伸ばして立つポーズをとる。例えば、自律移動体11は、尾部にリボン(不図示)等が装着されている場合、図14に示されるように、尾部を上げて静止させるポーズをとる。 For example, when the autonomous mobile body 11 is wearing clothes (not shown), it will assume a standing pose with its legs spread and stretched out so that it can easily photograph the underside of its abdomen, as shown in FIG. 14. For example, when the autonomous mobile body 11 has a ribbon (not shown) or the like attached to its tail, it will assume a stationary pose with its tail raised, as shown in FIG. 14.

 例えば、図15に示されるように、自律移動体11は、ポーズがとれたら、「わん!」と吠えて、ポーズがとれたことをユーザに通知するようにしてもよい。 For example, as shown in FIG. 15, when the autonomous mobile body 11 has struck a pose, it may bark "Woof!" to notify the user that the pose has been struck.

 ステップS23において、情報処理端末12は、自律移動体11を撮影する。 In step S23, the information processing terminal 12 captures an image of the autonomous moving body 11.

 例えば、情報処理端末12の出力部205は、UI制御部243の制御の下に、自律移動体11を撮影するためのガイダンスを表示する。 For example, the output unit 205 of the information processing terminal 12 displays guidance for photographing the autonomous moving body 11 under the control of the UI control unit 243.

 これに対して、ユーザは、ガイダンスに従って、情報処理端末12を用いて自律移動体11を撮影する。例えば、一般的なフォトグラメトリで3Dモデルを生成する場合と同様の方法により、自律移動体11が撮影される。具体的には、例えば、少なくとも自律移動体11のアイテムが装着されている部分周辺の3Dデータが生成可能な枚数以上、周囲360度の方向から自律移動体11が撮影される。 In response, the user follows the guidance and photographs the autonomous moving body 11 using the information processing terminal 12. For example, the autonomous moving body 11 is photographed using a method similar to that used to generate a 3D model using general photogrammetry. Specifically, for example, the autonomous moving body 11 is photographed from a 360-degree angle, at least the number of images required to generate 3D data for the area around the part of the autonomous moving body 11 where the item is attached.

 このとき、例えば、ユーザが、情報処理端末12を持って自律移動体11の周囲を回りながら、自律移動体11を撮影するようにしてもよい。または、例えば、図16に示されるように、ユーザは、情報処理端末12を固定した状態で、自律移動体11を置いたターンテーブル402を回しながら、自律移動体11を撮影するようにしてもよい。 At this time, for example, the user may photograph the autonomous mobile body 11 while holding the information processing terminal 12 and moving around the autonomous mobile body 11. Alternatively, for example, as shown in FIG. 16, the user may photograph the autonomous mobile body 11 while rotating the turntable 402 on which the autonomous mobile body 11 is placed, with the information processing terminal 12 fixed.

 なお、図16には、自律移動体11が、アイテムとして帽子401を被っている例が示されている。 Note that Figure 16 shows an example in which the autonomous moving body 11 is wearing a hat 401 as an item.

 また、例えば、ユーザは、図17に示されるように、情報処理端末12を用いて、自律移動体11の斜め上、正面、斜め下の3方向からそれぞれ自律移動体11の周囲を撮影するようにしてもよい。 Furthermore, for example, as shown in FIG. 17, a user may use the information processing terminal 12 to capture images of the surroundings of the autonomous moving body 11 from three directions: diagonally above, in front of, and diagonally below the autonomous moving body 11.

 情報処理端末12の画像取得部251は、自律移動体11を撮影することにより得られた画像データをセンシング部202から取得する。 The image acquisition unit 251 of the information processing terminal 12 acquires image data obtained by photographing the autonomous moving body 11 from the sensing unit 202.

 例えば、画像取得部251は、自律移動体11の撮影(スキャン)の進捗状況を示す情報を生成し、UI制御部243に供給したり、通信部203を介して、自律移動体11に送信したりしてもよい。 For example, the image acquisition unit 251 may generate information indicating the progress of the imaging (scanning) of the autonomous moving body 11, and supply the information to the UI control unit 243 or transmit it to the autonomous moving body 11 via the communication unit 203.

 自律移動体11の撮影の進捗状況を示す情報は、例えば、3D移動体の生成に必要な画像データのうち、撮影済みの画像データと未撮影の画像データを示す情報、撮影が必要な方向に関する情報等を含む。 Information indicating the progress of the imaging of the autonomous moving body 11 includes, for example, information indicating which image data has been captured and which image data has not yet been captured, and information regarding the direction in which imaging is required.

 これに対して、例えば、出力部205は、UI制御部243の制御の下に、自律移動体11の撮影の進捗状況を表示するようにしてもよい。 In response to this, for example, the output unit 205 may display the progress of the image capture of the autonomous moving body 11 under the control of the UI control unit 243.

 また、例えば、自律移動体11が、自律移動体11の撮影の進捗状況に応じた反応を示すようにしてもよい。例えば、図17に示されるように、撮影が順調に進捗している場合、自律移動体11が「ワン」と吠えるようにしてもよい。例えば、撮影が順調に進捗していない場合、例えば、必要な方向からの撮影が行われていない場合、自律移動体11が「クゥーン」と鳴くようにしてもよい。 Furthermore, for example, the autonomous mobile body 11 may be configured to show a reaction according to the progress of the autonomous mobile body 11's filming. For example, as shown in FIG. 17, if filming is progressing smoothly, the autonomous mobile body 11 may be configured to bark "woof." For example, if filming is not progressing smoothly, for example, if filming is not being performed from the required direction, the autonomous mobile body 11 may be configured to meow "meow."

 例えば、自律移動体11は、複数のアイテムを装着している場合、アイテム毎に異なるポーズをとるようにしてもよい。そして、ユーザが、自律移動体11が異なるポーズをとる毎に、自律移動体11を周囲360度から撮影するようにしてもよい。 For example, if the autonomous mobile body 11 is wearing multiple items, it may be configured to assume a different pose for each item. Then, the user may photograph the autonomous mobile body 11 from 360 degrees around it each time the autonomous mobile body 11 assumes a different pose.

 ステップS24において、自律移動体11は、スキャン用のポーズを終了する。 In step S24, the autonomous mobile body 11 ends the scanning pause.

 例えば、ユーザは、所定の音声コマンド(例えば、「もういいよ」、「終わったよ」等)により、スキャン用のポーズの終了を自律移動体11に指示する。 For example, the user instructs the autonomous mobile body 11 to end the scanning pause by issuing a predetermined voice command (e.g., "That's enough," "It's done," etc.).

 これに対して、自律移動体11のセンシング部102は、音声コマンドに対応する音声を収集し、収集した音声に対応する音声データを情報処理部104に供給する。情報処理部104の認識部121は、音声データに基づいて音声コマンドを認識することにより、スキャン用のポーズの終了が指示されたことを認識する。 In response, the sensing unit 102 of the autonomous mobile body 11 collects the voice corresponding to the voice command and supplies the voice data corresponding to the collected voice to the information processing unit 104. The recognition unit 121 of the information processing unit 104 recognizes the voice command based on the voice data, thereby recognizing that an instruction to end the scanning pause has been issued.

 または、例えば、ユーザは、情報処理端末12の入力部201を介して、自律移動体11へのスキャン用のポーズの終了の指示を入力する。 Alternatively, for example, the user inputs an instruction to end the scanning pause to the autonomous moving body 11 via the input unit 201 of the information processing terminal 12.

 これに対して、情報処理端末12の入力部201は、スキャン用のポーズの終了の指示が入力されたことを情報処理部204に通知する。情報処理部204の画像取得部251は、通信部203を介して、スキャン用のポーズの終了の指示を自律移動体11に送信する。 In response to this, the input unit 201 of the information processing terminal 12 notifies the information processing unit 204 that an instruction to end the scan pause has been input. The image acquisition unit 251 of the information processing unit 204 transmits the instruction to end the scan pause to the autonomous mobile body 11 via the communication unit 203.

 これに対して、自律移動体11の認識部121は、通信部103を介して、スキャン用のポーズの終了の指示を情報処理端末12から受信する。これにより、認識部121は、スキャン用のポーズの終了が指示されたことを認識する。 In response to this, the recognition unit 121 of the autonomous mobile body 11 receives an instruction to end the scanning pause from the information processing terminal 12 via the communication unit 103. As a result, the recognition unit 121 recognizes that an instruction to end the scanning pause has been issued.

 自律移動体11の認識部121は、スキャン用のポーズの終了が指示されたことを認識した場合、認識結果を示す状況データを行動計画部123に供給する。 When the recognition unit 121 of the autonomous mobile body 11 recognizes that an instruction to end the scanning pause has been issued, it supplies situation data indicating the recognition result to the action planning unit 123.

 行動計画部123は、スキャン用のポーズを終了するように、自律移動体11の行動を計画する。行動計画部123は、計画した行動を示す行動計画データを動作制御部124に供給する。 The behavior planning unit 123 plans the behavior of the autonomous mobile body 11 so that the scanning pose ends. The behavior planning unit 123 supplies behavior plan data indicating the planned behavior to the operation control unit 124.

 動作制御部124は、行動計画データに基づいて、駆動部105及び出力部106を制御することにより、スキャン用のポーズを終了する。 The motion control unit 124 ends the scanning pause by controlling the drive unit 105 and output unit 106 based on the action plan data.

 その後、スキャン処理は終了する。 The scanning process will then end.

 図10に戻り、ステップS2において、情報処理端末12は、3Dデータ化処理を実行する。 Returning to FIG. 10, in step S2, the information processing terminal 12 executes the 3D data creation process.

 ここで、図18のフローチャートを参照して、3Dデータ化処理の詳細について説明する。 Here, we will explain the details of the 3D data creation process with reference to the flowchart in Figure 18.

 ステップS41において、情報処理端末12の3Dデータ化部261は、自律移動体11の3Dデータ(3D移動体)を生成する。具体的には、画像取得部251は、自律移動体11を撮影した画像データを3Dデータ化部261に供給する。 In step S41, the 3D data conversion unit 261 of the information processing terminal 12 generates 3D data (3D moving body) of the autonomous moving body 11. Specifically, the image acquisition unit 251 supplies image data of the autonomous moving body 11 to the 3D data conversion unit 261.

 3Dデータ化部261は、例えば、一般的なフォトグラメトリ技術を用いて、複数の異なる方向から撮影された複数の画像データから、自律移動体11の3Dデータである3D移動体を生成する。 The 3D data generation unit 261 generates a 3D moving body, which is 3D data of the autonomous moving body 11, from multiple image data captured from multiple different directions, using, for example, common photogrammetry technology.

 ステップS42において、3Dデータ化部261は、自律移動体11の3Dデータ(3D移動体)の大きさを調整する。例えば、3Dデータ化部261は、3D移動体の所定の部位(例えば、手、目等)を検出する。3Dデータ化部261は、検出した部位に基づいて、3D移動体の大きさ(例えば、寸法)を、自律移動体11の実寸と同等の大きさに調整する。3Dデータ化部261は、大きさを調整した後の3D移動体を抽出部271に供給する。 In step S42, the 3D data generation unit 261 adjusts the size of the 3D data (3D moving body) of the autonomous moving body 11. For example, the 3D data generation unit 261 detects a specific part of the 3D moving body (e.g., a hand, an eye, etc.). Based on the detected part, the 3D data generation unit 261 adjusts the size (e.g., dimensions) of the 3D moving body to be equivalent to the actual size of the autonomous moving body 11. The 3D data generation unit 261 supplies the 3D moving body after the size adjustment to the extraction unit 271.

 その後、3Dデータ化処理は終了する。 The 3D data conversion process then ends.

 図10に戻り、ステップS3において、情報処理端末12は、仮想アイテム化処理を実行する。 Returning to FIG. 10, in step S3, the information processing terminal 12 executes the virtual item creation process.

 ここで、図19のフローチャートを参照して、仮想アイテム化処理の詳細について説明する。 Here, the virtual item creation process will be explained in detail with reference to the flowchart in Figure 19.

 ステップS61において、情報処理端末12の抽出部271は、アイテムの3Dデータ(3Dアイテム)を抽出する。例えば、抽出部271は、3D移動体から自律移動体11の3Dモデルを減算することにより、自律移動体11に装着されているアイテムの3Dデータである3Dアイテムを抽出する。 In step S61, the extraction unit 271 of the information processing terminal 12 extracts 3D data of the item (3D item). For example, the extraction unit 271 extracts the 3D item, which is the 3D data of the item attached to the autonomous mobile body 11, by subtracting the 3D model of the autonomous mobile body 11 from the 3D mobile body.

 例えば、図20のAは、自律移動体11の頭部の3Dモデル411(CADデータ)の例を示している。 For example, A in Figure 20 shows an example of a 3D model 411 (CAD data) of the head of the autonomous mobile body 11.

 図20のBは、図20のAの3Dモデル411に基づいて、図16に示される帽子401を被った自律移動体11の3Dデータから削除される部分を模式的に示している。例えば、図20のBの斜線で示される部分が削除される。 B in Figure 20 schematically shows the portion to be deleted from the 3D data of the autonomous moving body 11 wearing the hat 401 shown in Figure 16, based on the 3D model 411 in A in Figure 20. For example, the portion shown with diagonal lines in B in Figure 20 is deleted.

 これにより、例えば、図21に示されるように、帽子401の3Dデータが抽出される。 As a result, 3D data for hat 401 is extracted, as shown in Figure 21, for example.

 抽出部271は、3Dアイテムを編集部272に供給する。 The extraction unit 271 supplies the 3D items to the editing unit 272.

 ステップS62において、編集部272は、アイテムの3Dデータ(3Dアイテム)の大きさを調整する。例えば、編集部272は、3Dアイテムの大きさを、仮想移動体アプリケーション用に調整する。 In step S62, the editing unit 272 adjusts the size of the item's 3D data (3D item). For example, the editing unit 272 adjusts the size of the 3D item for a virtual mobile object application.

 なお、例えば、ステップS62の処理を省略し、後述するステップS64において、必要に応じて、3Dアイテムの大きさが調整されるようにしてもよい。 For example, step S62 may be omitted, and the size of the 3D item may be adjusted as necessary in step S64, which will be described later.

 ステップS63において、編集部272は、アイテムの3Dデータ(3Dアイテム)の表面の質感を変更する。例えば、編集部272は、3Dアイテムの表面の質感(マテリアル)を、仮想移動体アプリケーション用に変更する。 In step S63, the editing unit 272 changes the surface texture of the item's 3D data (3D item). For example, the editing unit 272 changes the surface texture (material) of the 3D item for a virtual mobile object application.

 編集部272は、3DアイテムをUI制御部243に供給する。出力部205は、UI制御部243の制御の下に、3Dアイテムを表示する。 The editing unit 272 supplies the 3D items to the UI control unit 243. The output unit 205 displays the 3D items under the control of the UI control unit 243.

 なお、例えば、ステップS63の処理を省略し、後述するステップS64において、必要に応じて、3Dアイテムの質感が変更されるようにしてもよい。 For example, the processing of step S63 may be omitted, and the texture of the 3D item may be changed as necessary in step S64, which will be described later.

 ステップS64において、編集部272は、アイテムの3Dデータ(3Dアイテム)を編集する。 In step S64, the editing unit 272 edits the 3D data of the item (3D item).

 例えば、ユーザは、入力部201を介して、必要に応じて出力部205に表示されている3Dアイテムを編集する操作を行う。例えば、ユーザは、3Dアイテムに複数のアイテムが含まれる場合、各アイテムを分離する操作を行う。例えば、ユーザは、必要に応じて、3Dアイテムのノイズを除去したり、形状を整えたりする操作を行う。例えば、ユーザは、必要に応じて、3Dアイテムの大きさやデザイン(例えば、色、模様、形状等)を変更する操作を行う。例えば、ユーザは、3Dアイテムに、他のアイテムの3Dデータを組み合わせる操作を行う。 For example, the user performs an operation via the input unit 201 to edit the 3D item displayed on the output unit 205 as needed. For example, if the 3D item includes multiple items, the user performs an operation to separate each item. For example, the user performs an operation to remove noise from the 3D item or adjust the shape as needed. For example, the user performs an operation to change the size or design (e.g., color, pattern, shape, etc.) of the 3D item as needed. For example, the user performs an operation to combine the 3D data of another item with the 3D item.

 これに対して、入力部201は、ユーザによる編集内容を示す入力データを情報処理部204に供給する。情報処理部204の編集部272は、ユーザによる編集内容に基づいて、3Dアイテムを編集する。これにより、自律移動体11に装着されているアイテムに対応する仮想のアイテムである着せ替えアイテムが生成される。 In response to this, the input unit 201 supplies input data indicating the edits made by the user to the information processing unit 204. The editing unit 272 of the information processing unit 204 edits the 3D items based on the edits made by the user. This generates dress-up items, which are virtual items corresponding to the items attached to the autonomous moving body 11.

 なお、編集が不要であれば、ステップS64の処理が省略されてもよい。 If editing is not required, step S64 may be omitted.

 また、例えば、編集部272が、AI(Artificial Intelligence)等を用いて、自動的に3Dアイテムを編集するようにしてもよい。 Furthermore, for example, the editing unit 272 may use AI (Artificial Intelligence) or the like to automatically edit 3D items.

 ステップS65において、編集部272は、着せ替えアイテムにタイトルを付与する。 In step S65, the editing unit 272 assigns a title to the dress-up item.

 例えば、ユーザは、情報処理端末12の入力部201を介して、着せ替えアイテムに付与するタイトルを入力する。 For example, the user inputs a title to be assigned to the dress-up item via the input unit 201 of the information processing terminal 12.

 これに対して、入力部201は、入力されたタイトルを示す入力データを情報処理部204に供給する。情報処理部204の編集部272は、入力されたタイトルを着せ替えアイテムに付与する。 In response, the input unit 201 supplies input data indicating the input title to the information processing unit 204. The editing unit 272 of the information processing unit 204 assigns the input title to the dress-up item.

 編集部272は、タイトルが付与された着せ替えアイテムを登録部253に供給する。 The editing unit 272 supplies the dress-up items with the titles assigned to them to the registration unit 253.

 なお、例えば、3Dアイテムの編集前に、タイトルを付与するようにしてもよい。 For example, a title may be assigned to a 3D item before editing it.

 その後、仮想アイテム化処理は終了する。 The virtual item conversion process then ends.

 図10に戻り、ステップS4において、登録部253は、着せ替えアイテムを登録する。具体的には、登録部253は、着せ替えアイテムのデータを情報処理サーバ13に送信する。 Returning to FIG. 10, in step S4, the registration unit 253 registers the dress-up item. Specifically, the registration unit 253 transmits data on the dress-up item to the information processing server 13.

 これに対して、情報処理サーバ13の情報処理部302は、着せ替えアイテムのデータを受信する。例えば、情報処理部302のアプリケーション制御部322は、ユーザのアカウントの仮想移動体アプリケーションにおいて、着せ替えアイテムの一覧に、新たに生成された着せ替えアイテムを追加する。 In response, the information processing unit 302 of the information processing server 13 receives the dress-up item data. For example, the application control unit 322 of the information processing unit 302 adds the newly generated dress-up item to a list of dress-up items in the virtual mobile application of the user's account.

 これにより、ユーザは、仮想移動体アプリケーションにおいて、生成した着せ替えアイテムを選択して使用することが可能になる。 This allows users to select and use the created dress-up items in virtual mobile applications.

 その後、着せ替えアイテム生成処理は終了する。 Then the costume item generation process ends.

 <着せ替え処理>
 次に、図22のフローチャートを参照して、情報処理端末12により実行される着せ替え処理について説明する。
<Dressing process>
Next, the dress-up process executed by the information processing terminal 12 will be described with reference to the flowchart of FIG.

 ステップS101において、情報処理端末12は、着せ替えアイテムを取得する。 In step S101, the information processing terminal 12 acquires a dress-up item.

 例えば、出力部205は、UI制御部243の制御の下に、図23のメニュー画面451を表示する。メニュー画面451には、「おきがえ」の項目が含まれている。 For example, the output unit 205 displays the menu screen 451 in FIG. 23 under the control of the UI control unit 243. The menu screen 451 includes an item for "changing clothes."

 これに対して、例えば、ユーザは、入力部201を介して、メニュー画面451から「おきがえ」を選択する。 In response to this, for example, the user selects "Change Clothes" from the menu screen 451 via the input unit 201.

 これに対して、入力部201は、「おきがえ」が選択されたことを示す入力データを情報処理部204に供給する。情報処理部204のUI制御部243は、出力部205を制御して、ユーザが使用可能な着せ替えアイテムの一覧を表示させる。 In response to this, the input unit 201 supplies input data indicating that "Dress Up" has been selected to the information processing unit 204. The UI control unit 243 of the information processing unit 204 controls the output unit 205 to display a list of dress-up items available to the user.

 これに対して、例えば、ユーザは、入力部201を介して、着せ替えアイテムの一覧の中から所望の着せ替えアイテムを選択する。 In response to this, for example, the user selects a desired dress-up item from a list of dress-up items via the input unit 201.

 これに対して、入力部201は、選択された着せ替えアイテムを示す入力データを情報処理部204に供給する。着せ替え画像生成部242は、仮想移動体、及び、選択された着せ替えアイテムのデータを情報処理サーバ13から受信する。 In response, the input unit 201 supplies input data indicating the selected dress-up item to the information processing unit 204. The dress-up image generation unit 242 receives data on the virtual moving object and the selected dress-up item from the information processing server 13.

 ステップS102において、着せ替え画像生成部242は、仮想移動体に着せ替えアイテムを装着する。具体的には、着せ替え画像生成部242は、仮想移動体及び着せ替えアイテムのデータに基づいて、仮想移動体に着せ替えアイテムを合成した3D画像を生成する。着せ替え画像生成部242は、生成した3D画像のデータをUI制御部243に供給する。 In step S102, the dress-up image generation unit 242 attaches dress-up items to the virtual moving object. Specifically, the dress-up image generation unit 242 generates a 3D image in which the dress-up items are combined with the virtual moving object based on data on the virtual moving object and the dress-up items. The dress-up image generation unit 242 supplies data for the generated 3D image to the UI control unit 243.

 ステップS103において、情報処理端末12は、着せ替えアイテムを装着した仮想移動体を表示する。具体的には、UI制御部243は、取得した3D画像のデータに基づいて、着せ替えアイテムを装着した仮想移動体の3D画像を出力部205に表示させる。これにより、例えば、図24のAに示されるように、着せ替えアイテムである帽子502を被った仮想移動体501が表示される。 In step S103, the information processing terminal 12 displays the virtual moving object wearing the dress-up item. Specifically, the UI control unit 243 causes the output unit 205 to display a 3D image of the virtual moving object wearing the dress-up item based on the acquired 3D image data. As a result, for example, as shown in A of FIG. 24, a virtual moving object 501 wearing a hat 502, which is a dress-up item, is displayed.

 なお、例えば、ユーザ操作に従って、仮想移動体を表示する視点を自由に変更できるようにしてもよい。例えば、図24のBに示されるように、帽子502を被った仮想移動体501を表示する視点を変更できるようにしてもよい。 In addition, for example, the viewpoint from which the virtual moving object is displayed may be freely changed in accordance with user operation. For example, as shown in B of Figure 24, the viewpoint from which the virtual moving object 501 wearing a hat 502 is displayed may be changed.

 その後、着せ替え処理は終了する。 Then the dress-up process will end.

 以上のようにして、仮想移動体に装着可能な着せ替えアイテムを容易に生成することができる。 In this way, it is possible to easily generate dress-up items that can be worn on virtual moving objects.

 例えば、ユーザは、帽子、洋服、靴等のアイテムを自律移動体11に装着して、情報処理端末12により自律移動体11を撮影するだけで、装着したアイテムに対応する着せ替えアイテムを生成することができる。 For example, a user can attach items such as hats, clothes, or shoes to the autonomous moving body 11 and generate dress-up items corresponding to the attached items simply by taking a photo of the autonomous moving body 11 using the information processing terminal 12.

 これにより、ユーザは、世界に1つだけのオリジナルの着せ替えアイテムを簡単に生成することができる。また、例えば、ユーザは、市販のアイテムや布等を用いて、簡単に着せ替えアイテムを生成することができる。 This allows users to easily create original, one-of-a-kind dress-up items. Furthermore, for example, users can easily create dress-up items using commercially available items, fabrics, etc.

 また、例えば、アイテムを単独で撮影して着せ替えアイテムを生成しようとした場合、自律移動体11のフォルムに沿った形状をアイテムが保持できない場合がある。すなわち、アイテムの形状が、自律移動体11に装着した状態と異なる場合がある。これにより、生成された着せ替えアイテムのイメージが、実際に自律移動体11に装着したイメージと異なる場合がある。 Furthermore, for example, if an attempt is made to generate a dress-up item by photographing an item alone, the item may not be able to maintain a shape that matches the shape of the autonomous moving body 11. In other words, the shape of the item may differ from the state when it is attached to the autonomous moving body 11. As a result, the image of the generated dress-up item may differ from the image of the item actually attached to the autonomous moving body 11.

 一方、本技術では、実際に自律移動体11に装着した状態のアイテムに基づいて、着せ替えアイテムが生成されるため、着せ替えアイテムの形状が理想的な状態に保持される。 In contrast, with this technology, the dress-up items are generated based on the items actually attached to the autonomous moving body 11, so the shape of the dress-up items is maintained in an ideal state.

 さらに、実際に自律移動体11に装着した状態のアイテムに基づいて、着せ替えアイテムが生成されるため、例えば、情報処理端末12の仮想アイテム化部262は、仮想移動体における着せ替えアイテムの装着位置を容易に認識することができる。この認識した情報を用いることにより、例えば、ユーザが着せ替えアイテムの装着位置を設定しなくても、仮想移動体の適切な位置に自動的に着せ替えアイテムを装着することが可能になる。 Furthermore, because the dress-up items are generated based on the items actually attached to the autonomous moving body 11, the virtual item generation unit 262 of the information processing terminal 12, for example, can easily recognize the attachment position of the dress-up items on the virtual moving body. By using this recognized information, for example, it becomes possible to automatically attach dress-up items to appropriate positions on the virtual moving body without the user having to set the attachment position of the dress-up items.

<<2.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
<<2. Modified Examples>>
Hereinafter, modifications of the above-described embodiment of the present technology will be described.

 <情報処理システム1の処理の分担に関する変形例>
 上述した情報処理システム1の各装置の処理の分担は、その一例であり、適宜変更することが可能である。
<Modifications regarding sharing of processing in information processing system 1>
The above-described division of processing roles among the devices in the information processing system 1 is one example, and can be changed as appropriate.

 例えば、情報処理サーバ13が、上述した情報処理端末12の処理の一部を実行するようにしてもよい。例えば、情報処理サーバ13が、情報処理端末12の着せ替えアイテム生成部241の処理の一部を実行するようにしてもよい。すなわち、情報処理サーバ13が着せ替えアイテムを生成するようにしてもよい。 For example, the information processing server 13 may be configured to execute part of the processing of the information processing terminal 12 described above. For example, the information processing server 13 may be configured to execute part of the processing of the dress-up item generation unit 241 of the information processing terminal 12. In other words, the information processing server 13 may be configured to generate dress-up items.

 例えば、アイテムを装着した自律移動体11(以下、対象移動体と称する)を他の自律移動体11(以下、撮影移動体と称する)が撮影するようにしてもよい。 For example, an autonomous moving body 11 (hereinafter referred to as a target moving body) wearing an item may be photographed by another autonomous moving body 11 (hereinafter referred to as a photographing moving body).

 例えば、ユーザが撮影移動体に対象移動体をスキャンするように指示した場合、対象移動体は、装着しているアイテムに対応するポーズをとる。撮影移動体は、対象移動体の周囲を移動しながら、カメラ53により対象移動体を撮影する。 For example, when a user instructs the photographing moving object to scan a target moving object, the target moving object will assume a pose corresponding to the item it is wearing. The photographing moving object photographs the target moving object with camera 53 while moving around the target moving object.

 この場合、例えば、撮影移動体が、撮影した画像データに基づいて、着せ替えアイテムを生成するようにしてもよい。または、例えば、撮影移動体が、撮影した画像データを情報処理端末12又は情報処理サーバ13に送信し、情報処理端末12又は情報処理サーバ13が、着せ替えアイテムを生成するようにしてもよい。 In this case, for example, the photographing mobile object may generate a dress-up item based on the captured image data. Alternatively, for example, the photographing mobile object may transmit the captured image data to the information processing terminal 12 or the information processing server 13, and the information processing terminal 12 or the information processing server 13 may generate a dress-up item.

 例えば、情報処理端末12の画像取得部251が、通信部203を介して、スキャン用のポーズの指示を自律移動体11に送信し、自律移動体11のポーズを制御するようにしてもよい。 For example, the image acquisition unit 251 of the information processing terminal 12 may transmit a scanning pose instruction to the autonomous moving body 11 via the communication unit 203, thereby controlling the pose of the autonomous moving body 11.

 <着せ替えアイテムの流用について>
 例えば、自律移動体11(以下、流用元現実移動体と称する)が装着しているアイテム、又は、自律移動体11に対応する仮想移動体(以下、流用元仮想移動体と称する)用の着せ替えアイテムに基づいて、他の自律移動体(以下、流用先現実移動体と称する)に対応する仮想移動体(以下、流用先仮想移動体と称する)の着せ替えアイテムが生成されるようにしてもよい。
<About reusing costume items>
For example, a dress-up item for a virtual moving body (hereinafter referred to as a destination virtual moving body) corresponding to another autonomous moving body (hereinafter referred to as a destination real moving body) may be generated based on an item worn by the autonomous moving body 11 (hereinafter referred to as the source real moving body) or a dress-up item for a virtual moving body (hereinafter referred to as the source virtual moving body) corresponding to the autonomous moving body 11.

 例えば、情報処理端末12の3Dデータ化部261は、流用元現実移動体の画像データに基づいて生成された3Dアイテムを、流用元現実移動体の大きさ及び形状、並びに、流用先現実移動体の大きさ、形状、及び、想定されるアイテムの装着位置に基づいて、流用先現実移動体に対応する大きさ及び形状に修正する。すなわち、流用元現実移動体の画像データに基づいて生成された3Dアイテムの大きさ及び形状が、流用先現実移動体に合わせて変更される。そして、修正後の3Dアイテムに基づいて着せ替えアイテムが生成されることにより、流用先仮想移動体に装着可能な仮想アイテムが生成される。 For example, the 3D data conversion unit 261 of the information processing terminal 12 modifies the 3D item generated based on the image data of the source real moving body to a size and shape that corresponds to the destination real moving body, based on the size and shape of the source real moving body, the size and shape of the destination real moving body, and the expected item attachment position. In other words, the size and shape of the 3D item generated based on the image data of the source real moving body is changed to match the destination real moving body. Then, a dress-up item is generated based on the modified 3D item, thereby generating a virtual item that can be attached to the destination virtual moving body.

 例えば、情報処理端末12の編集部272は、流用元仮想移動体用の着せ替えアイテムを、流用元仮想移動体の大きさ及び形状、並びに、流用先仮想移動体の大きさ、形状、及び、着せ替えアイテムの装着位置に基づいて、流用先仮想移動体の形状及び装着位置に対応した大きさ及び形状に修正する。すなわち、流用元仮想移動体用の着せ替えアイテムの大きさ及び形状が、流用先仮想移動体に合わせて変更される。これにより、流用先仮想移動体に装着可能な仮想アイテムが生成される。 For example, the editing unit 272 of the information processing terminal 12 modifies the dress-up item for the source virtual moving body to a size and shape that corresponds to the shape and attachment position of the destination virtual moving body, based on the size and shape of the source virtual moving body and the size, shape, and attachment position of the dress-up item of the destination virtual moving body. In other words, the size and shape of the dress-up item for the source virtual moving body are changed to match the destination virtual moving body. This generates a virtual item that can be attached to the destination virtual moving body.

 例えば、図25に示されるように、仮想移動体501が被っている仮想アイテムである帽子522Aと同様のデザインであり、仮想移動体501と異なる種類の自律移動体に対応する仮想移動体521が被ることが可能な仮想アイテムである帽子522Bが生成される。例えば、図26に示されるように、仮想移動体501が着ている仮想アイテムである衣装531Aと同様のデザインであり、仮想移動体521が着ることが可能な仮想アイテムである衣装531Bが生成される。 For example, as shown in FIG. 25, hat 522B is generated as a virtual item that can be worn by virtual moving body 521, which corresponds to a different type of autonomous moving body from virtual moving body 501, and has the same design as hat 522A, which is a virtual item worn by virtual moving body 501. For example, as shown in FIG. 26, outfit 531B is generated as a virtual item that can be worn by virtual moving body 521, and has the same design as outfit 531A, which is a virtual item worn by virtual moving body 501.

 なお、後者の生成方法の場合、流用先仮想移動体に対応する流用先現実移動体は、必ずしも存在しなくてもよい。すなわち、流用先仮想移動体が、仮想空間のみに存在していてもよい。 In the latter generation method, a destination real moving body corresponding to the destination virtual moving body does not necessarily have to exist. In other words, the destination virtual moving body may exist only in virtual space.

 逆に、例えば、同様の方法により、他の自律移動体に装着されているアイテム、又は、他の自律移動体に対応する仮想移動体用の着せ替えアイテムに基づいて、自律移動体11に対応する仮想移動体用の着せ替えアイテムを生成することが可能である。 Conversely, for example, using a similar method, it is possible to generate dress-up items for a virtual moving body corresponding to the autonomous moving body 11 based on items attached to other autonomous moving bodies or dress-up items for virtual moving bodies corresponding to other autonomous moving bodies.

 この場合、例えば、他の自律移動体をユーザとすることにより、ユーザに装着されているアイテムに基づいて、自律移動体11に対応する仮想移動体用の着せ替えアイテムを生成することが可能である。これにより、例えば、仮想移動体アプリケーションにおいて、ユーザとお揃いの着せ替えアイテムを仮想移動体に装着することが可能になる。 In this case, for example, by setting another autonomous mobile body as the user, it is possible to generate dress-up items for the virtual mobile body corresponding to the autonomous mobile body 11 based on items worn by the user. This makes it possible, for example, in a virtual mobile body application, to wear dress-up items that match the user's on the virtual mobile body.

 また、例えば、他の自律移動体を犬や猫等のペットとすることにより、ペットに装着されているアイテムに基づいて、自律移動体11に対応する仮想移動体用の着せ替えアイテムを生成することが可能である。これにより、例えば、仮想移動体アプリケーションにおいて、ペットとお揃いの着せ替えアイテムを仮想移動体に装着することが可能になる。 Furthermore, for example, by treating the other autonomous moving body as a pet such as a dog or cat, it is possible to generate dress-up items for the virtual moving body corresponding to the autonomous moving body 11 based on the items attached to the pet. This makes it possible, for example, in a virtual moving body application, to attach dress-up items that match the pet to the virtual moving body.

 <その他の変形例>
 例えば、着せ替えアイテムは、3Dデータであってもよいし、2D(2次元)データであってもよい。
<Other Modifications>
For example, the dress-up items may be 3D data or 2D (two-dimensional) data.

 例えば、あるユーザが生成した着せ替えアイテムをインターネット等で公開し、他のユーザが使用できるようにしてもよい。さらに、他のユーザが、公開された着せ替えアイテムを編集できるようにしてもよい。 For example, a dress-up item created by a user may be made public on the Internet, etc., so that other users can use it. Furthermore, other users may be able to edit the published dress-up items.

 本技術を適用可能な自律移動体は、例えば、現実世界においてアイテムを装着可能であり、かつ、仮想空間において、対応する仮想移動体に仮想アイテムを装着可能な現実の自律移動体であれば、特に限定されない。そのような自律移動体は、例えば、人(例えば、ユーザ)や動物(例えば、ペット)等の生物であってもよい。 The autonomous moving bodies to which this technology can be applied are not particularly limited, as long as they are real autonomous moving bodies that can be equipped with items in the real world and that can equip corresponding virtual items to a corresponding virtual moving body in a virtual space. Such autonomous moving bodies may be living beings such as people (e.g., users) or animals (e.g., pets).

<<3.その他>>
 <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<<3. Other>>
<Example of computer configuration>
The above-described series of processes can be executed by hardware or software. When the series of processes is executed by software, the programs that make up the software are installed on a computer. Here, the term "computer" includes computers built into dedicated hardware, and general-purpose personal computers, for example, that can execute various functions by installing various programs.

 図27は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 Figure 27 is a block diagram showing an example of the hardware configuration of a computer that executes the above-mentioned series of processes using a program.

 コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。 In computer 1000, CPU (Central Processing Unit) 1001, ROM (Read Only Memory) 1002, and RAM (Random Access Memory) 1003 are interconnected by bus 1004.

 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。 Further connected to the bus 1004 is an input/output interface 1005. Connected to the input/output interface 1005 are an input unit 1006, an output unit 1007, a recording unit 1008, a communication unit 1009, and a drive 1010.

 入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。 The input unit 1006 consists of input switches, buttons, a microphone, an image sensor, etc. The output unit 1007 consists of a display, a speaker, etc. The recording unit 1008 consists of a hard disk, non-volatile memory, etc. The communication unit 1009 consists of a network interface, etc. The drive 1010 drives removable media 1011 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory.

 以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。 In the computer 1000 configured as described above, the CPU 1001 loads a program recorded in the recording unit 1008, for example, into the RAM 1003 via the input/output interface 1005 and bus 1004, and executes it, thereby performing the series of processes described above.

 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer 1000 (CPU 1001) can be provided by being recorded on removable media 1011, such as package media. The program can also be provided via wired or wireless transmission media, such as a local area network, the Internet, or digital satellite broadcasting.

 コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。 In the computer 1000, a program can be installed in the recording unit 1008 via the input/output interface 1005 by inserting the removable media 1011 into the drive 1010. The program can also be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the recording unit 1008. Alternatively, the program can be pre-installed in the ROM 1002 or the recording unit 1008.

 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or a program in which processing is performed in parallel or at the required timing, such as when called.

 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Furthermore, in this specification, a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all of the components are contained in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device with multiple modules housed in a single housing, are both systems.

 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of this technology are not limited to the above-described embodiments, and various modifications are possible within the scope of the gist of this technology.

 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, this technology can be configured as a cloud computing system in which a single function is shared and processed collaboratively by multiple devices over a network.

 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, each step described in the above flowchart can be performed by a single device, or can be shared and executed by multiple devices.

 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, if one step includes multiple processes, the multiple processes included in that one step can be executed by one device, or they can be shared and executed by multiple devices.

  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
<Configuration combination example>
The present technology can also be configured as follows.

(1)
 装着されたアイテムに対応するポーズをとる第1の自律移動体の画像データを取得する画像取得部と、
 前記画像データに基づいて、仮想空間内の第1の仮想移動体に装着可能な仮想アイテムを生成する画像処理部と
 を備える情報処理装置。
(2)
 前記画像処理部は、
  異なる複数の方向から前記第1の自律移動体を撮影した複数の前記画像データに基づいて、前記第1の自律移動体の3Dデータである3D移動体を生成する3Dデータ化部と、
  前記3D移動体から前記アイテムの3Dデータである3Dアイテムを抽出する抽出部と、
  前記3Dアイテムを編集し、前記仮想アイテムを生成する編集部と
 を備える
 前記(1)に記載の情報処理装置。
(3)
 前記編集部は、前記3Dアイテムの大きさ、デザイン、及び、表面の質感のうち少なくとも1つを変更する
 前記(2)に記載の情報処理装置。
(4)
 前記抽出部は、前記第1の自律移動体の3Dモデルを用いて、前記3D移動体から前記3Dアイテムを抽出する
 前記(2)又は(3)に記載の情報処理装置。
(5)
 前記第1の仮想移動体は、前記仮想空間において前記第1の自律移動体と異なる第2の自律移動体をシミュレートしたものである
 前記(2)~(4)のいずれかに記載の情報処理装置。
(6)
 前記編集部は、前記第1の自律移動体の大きさ及び形状、並びに、前記第2の自律移動体の大きさ、形状、及び、前記アイテムの装着位置に基づいて、前記第2の自律移動体に合わせて前記3Dアイテムの大きさ及び形状を変更し、変更後の前記3Dアイテムを編集し、前記仮想アイテムを生成する
 前記(5)に記載の情報処理装置。
(7)
 前記編集部は、前記第1の自律移動体に対応する第2の仮想移動体の大きさ及び形状、並びに、前記第1の仮想移動体の大きさ、形状、及び、前記仮想アイテムの装着位置に基づいて、前記第1の仮想移動体に合わせて前記仮想アイテムの大きさ及び形状を変更する
 前記(5)に記載の情報処理装置。
(8)
 前記第1の仮想移動体は、前記仮想空間において前記第1の自律移動体をシミュレートしたものである
 前記(1)~(4)のいずれかに記載の情報処理装置。
(9)
 前記アイテムに対応するポーズは、前記アイテムの撮影を容易にするポーズである
 前記(1)~(8)のいずれかに記載の情報処理装置。
(10)
 前記画像取得部は、前記第1の自律移動体のポーズを制御する
 前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
 前記画像取得部は、前記第1の自律移動体の撮影の進捗状況を示す情報を出力する
 前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
 前記仮想空間において、前記第1の仮想移動体に前記仮想アイテムを装着した画像を生成する画像生成部を
 前記(1)~(11)に記載の情報処理装置。
(13)
 情報処理装置が、
 装着されたアイテムに対応するポーズをとる自律移動体の画像データを取得することと、
 前記画像データに基づいて、仮想空間内の仮想移動体に装着可能な仮想アイテムを生成することと
 を含む情報処理方法。
(1)
an image acquisition unit that acquires image data of the first autonomous moving body taking a pose corresponding to the attached item;
an image processing unit that generates a virtual item that can be attached to a first virtual moving object in a virtual space based on the image data.
(2)
The image processing unit
a 3D data generation unit that generates a 3D moving body, which is 3D data of the first autonomous moving body, based on a plurality of image data obtained by photographing the first autonomous moving body from a plurality of different directions;
an extraction unit that extracts a 3D item, which is 3D data of the item, from the 3D moving object;
and an editing unit that edits the 3D item and generates the virtual item.
(3)
The information processing device according to (2), wherein the editing unit changes at least one of the size, design, and surface texture of the 3D item.
(4)
The information processing device according to (2) or (3), wherein the extraction unit extracts the 3D item from the 3D moving body using a 3D model of the first autonomous moving body.
(5)
The information processing device according to any one of (2) to (4), wherein the first virtual moving body is a simulation of a second autonomous moving body different from the first autonomous moving body in the virtual space.
(6)
The information processing device described in (5), wherein the editing unit changes the size and shape of the 3D item to match the second autonomous moving body based on the size and shape of the first autonomous moving body, the size and shape of the second autonomous moving body, and the attachment position of the item, edits the changed 3D item, and generates the virtual item.
(7)
The information processing device described in (5), wherein the editing unit changes the size and shape of the virtual item to match the first virtual moving body based on the size and shape of a second virtual moving body corresponding to the first autonomous moving body, as well as the size and shape of the first virtual moving body and the wearing position of the virtual item.
(8)
The information processing device according to any one of (1) to (4), wherein the first virtual moving body is a simulation of the first autonomous moving body in the virtual space.
(9)
The information processing device according to any one of (1) to (8), wherein the pose corresponding to the item is a pose that makes it easy to photograph the item.
(10)
The information processing device according to any one of (1) to (9), wherein the image acquisition unit controls a pose of the first autonomous moving body.
(11)
The information processing device according to any one of (1) to (10), wherein the image acquisition unit outputs information indicating a progress status of the image capturing of the first autonomous moving body.
(12)
The information processing device according to any one of (1) to (11), further comprising an image generating unit that generates an image of the first virtual moving object wearing the virtual item in the virtual space.
(13)
The information processing device
Acquiring image data of the autonomous moving body that assumes a pose corresponding to the attached item;
generating a virtual item that can be attached to a virtual moving body in a virtual space based on the image data.

 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 Please note that the effects described in this specification are merely examples and are not limiting, and other effects may also be present.

 1 情報処理システム, 11-1~11-n 自律移動体, 12-1~12-n 情報処理端末, 13 情報処理サーバ, 104 情報処理部, 105 駆動部, 106 出力部, 121 認識部, 123 行動計画部, 124 動作制御部, 202 センシング部, 204 情報処理部, 241 着せ替えアイテム生成部, 242 着せ替え画像生成部, 243 UI制御部, 251 画像取得部, 252 画像処理部, 261 3Dデータ化部, 262 仮想アイテム化部, 271 抽出部, 272 編集部, 302 情報処理部, 322 アプリケーション制御部, 501 仮想移動体 1. Information processing system, 11-1 to 11-n. Autonomous mobile objects, 12-1 to 12-n. Information processing terminals, 13. Information processing server, 104. Information processing unit, 105. Drive unit, 106. Output unit, 121. Recognition unit, 123. Action planning unit, 124. Motion control unit, 202. Sensing unit, 204. Information processing unit, 241. Dress-up item generation unit, 242. Dress-up image generation unit, 243. UI control unit, 251. Image acquisition unit, 252. Image processing unit, 261. 3D data conversion unit, 262. Virtual item conversion unit, 271. Extraction unit, 272. Editing unit, 302. Information processing unit, 322. Application control unit, 501. Virtual mobile object

Claims (13)

 装着されたアイテムに対応するポーズをとる第1の自律移動体の画像データを取得する画像取得部と、
 前記画像データに基づいて、仮想空間内の第1の仮想移動体に装着可能な仮想アイテムを生成する画像処理部と
 を備える情報処理装置。
an image acquisition unit that acquires image data of the first autonomous moving body taking a pose corresponding to the attached item;
an image processing unit that generates a virtual item that can be attached to a first virtual moving object in a virtual space based on the image data.
 前記画像処理部は、
  異なる複数の方向から前記第1の自律移動体を撮影した複数の前記画像データに基づいて、前記第1の自律移動体の3Dデータである3D移動体を生成する3Dデータ化部と、
  前記3D移動体から前記アイテムの3Dデータである3Dアイテムを抽出する抽出部と、
  前記3Dアイテムを編集し、前記仮想アイテムを生成する編集部と
 を備える
 請求項1に記載の情報処理装置。
The image processing unit
a 3D data generation unit that generates a 3D moving body, which is 3D data of the first autonomous moving body, based on a plurality of image data obtained by photographing the first autonomous moving body from a plurality of different directions;
an extraction unit that extracts a 3D item, which is 3D data of the item, from the 3D moving object;
The information processing device according to claim 1 , further comprising: an editing unit that edits the 3D item and generates the virtual item.
 前記編集部は、前記3Dアイテムの大きさ、デザイン、及び、表面の質感のうち少なくとも1つを変更する
 請求項2に記載の情報処理装置。
The information processing device according to claim 2 , wherein the editing unit changes at least one of the size, design, and surface texture of the 3D item.
 前記抽出部は、前記第1の自律移動体の3Dモデルを用いて、前記3D移動体から前記3Dアイテムを抽出する
 請求項2に記載の情報処理装置。
The information processing device according to claim 2 , wherein the extraction unit extracts the 3D item from the 3D moving body by using a 3D model of the first autonomous moving body.
 前記第1の仮想移動体は、前記仮想空間において前記第1の自律移動体と異なる第2の自律移動体をシミュレートしたものである
 請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2 , wherein the first virtual moving body is a simulation of a second autonomous moving body different from the first autonomous moving body in the virtual space.
 前記編集部は、前記第1の自律移動体の大きさ及び形状、並びに、前記第2の自律移動体の大きさ、形状、及び、前記アイテムの装着位置に基づいて、前記第2の自律移動体に合わせて前記3Dアイテムの大きさ及び形状を変更し、変更後の前記3Dアイテムを編集し、前記仮想アイテムを生成する
 請求項5に記載の情報処理装置。
The information processing device according to claim 5, wherein the editing unit changes the size and shape of the 3D item to match the second autonomous moving body based on the size and shape of the first autonomous moving body and the size, shape, and attachment position of the item of the second autonomous moving body, edits the changed 3D item, and generates the virtual item.
 前記編集部は、前記第1の自律移動体に対応する第2の仮想移動体の大きさ及び形状、並びに、前記第1の仮想移動体の大きさ、形状、及び、前記仮想アイテムの装着位置に基づいて、前記第1の仮想移動体に合わせて前記仮想アイテムの大きさ及び形状を変更する
 請求項5に記載の情報処理装置。
The information processing device according to claim 5, wherein the editing unit changes the size and shape of the virtual item to match the first virtual moving body based on the size and shape of a second virtual moving body corresponding to the first autonomous moving body, as well as the size and shape of the first virtual moving body and the position at which the virtual item is attached.
 前記第1の仮想移動体は、前記仮想空間において前記第1の自律移動体をシミュレートしたものである
 請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1 , wherein the first virtual moving body is a simulation of the first autonomous moving body in the virtual space.
 前記アイテムに対応するポーズは、前記アイテムの撮影を容易にするポーズである
 請求項1に記載の情報処理装置。
The information processing device according to claim 1 , wherein the pose corresponding to the item is a pose that makes it easy to photograph the item.
 前記画像取得部は、前記第1の自律移動体のポーズを制御する
 請求項1に記載の情報処理装置。
The information processing device according to claim 1 , wherein the image acquisition unit controls a pose of the first autonomous moving body.
 前記画像取得部は、前記第1の自律移動体の撮影の進捗状況を示す情報を出力する
 請求項1に記載の情報処理装置。
The information processing device according to claim 1 , wherein the image acquisition unit outputs information indicating a progress status of the image capturing of the first autonomous moving body.
 前記仮想空間において、前記第1の仮想移動体に前記仮想アイテムを装着した画像を生成する画像生成部を
 請求項1に記載の情報処理装置。
The information processing device according to claim 1 , further comprising an image generating unit configured to generate an image of the first virtual moving object equipped with the virtual item in the virtual space.
 情報処理装置が、
 装着されたアイテムに対応するポーズをとる自律移動体の画像データを取得することと、
 前記画像データに基づいて、仮想空間内の仮想移動体に装着可能な仮想アイテムを生成することと
 を含む情報処理方法。
The information processing device
Acquiring image data of the autonomous moving body that assumes a pose corresponding to the attached item;
generating a virtual item that can be attached to a virtual moving body in a virtual space based on the image data.
PCT/JP2025/023602 2024-07-17 2025-07-01 Information processing device and information processing method Pending WO2026018673A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024-114153 2024-07-17

Publications (1)

Publication Number Publication Date
WO2026018673A1 true WO2026018673A1 (en) 2026-01-22

Family

ID=

Similar Documents

Publication Publication Date Title
JP7375770B2 (en) Information processing device, information processing method, and program
JP7238796B2 (en) ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM
JP7559900B2 (en) Information processing device, information processing method, and program
US12204338B2 (en) Information processing apparatus, information processing method, and program
JP7375748B2 (en) Information processing device, information processing method, and program
US20200269421A1 (en) Information processing device, information processing method, and program
US12236152B2 (en) Information processing apparatus and information processing method for displaying a feeling parameter associated with an autonomous moving body
US20250026020A1 (en) Information processing device and information processing method
US20220371178A1 (en) Information processing apparatus, information processing method, and program
JP7363823B2 (en) Information processing device and information processing method
US20240066420A1 (en) Autonomous moving object and information processing method
WO2021005878A1 (en) Information processing device, information processing method, and information processing program
CN112823083A (en) Configurable and interactive robotic system
JP4281286B2 (en) Robot apparatus and control method thereof
WO2026018673A1 (en) Information processing device and information processing method
US12487594B2 (en) Information processing apparatus, and information processing method for interaction with an autonomous mobile body
US20240019868A1 (en) Autonomous mobile body, information processing apparatus, information processing method, and program
WO2025037529A1 (en) Control device and control method
WO2024203004A1 (en) Autonomous mobile body and operation control method
JP2004299006A (en) Robot apparatus and method of presenting face recognition status by robot apparatus