JP2019169154A - Terminal device and control method thereof, and program - Google Patents
Terminal device and control method thereof, and program Download PDFInfo
- Publication number
- JP2019169154A JP2019169154A JP2019071287A JP2019071287A JP2019169154A JP 2019169154 A JP2019169154 A JP 2019169154A JP 2019071287 A JP2019071287 A JP 2019071287A JP 2019071287 A JP2019071287 A JP 2019071287A JP 2019169154 A JP2019169154 A JP 2019169154A
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- display
- image
- specifying
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ディスプレイに表示させた実空間の画像上に、所望のキャラクターを表示させ、環境の変化に応じて、当該所望のキャラクターの表示を変更させることができる端末装置及びその制御方法、並びにプログラムを提供する。【解決手段】撮像装置を備える端末装置であって、実空間の三次元モデルにおける端末装置の位置を特定し、撮像装置を介して三次元空間画像を取得し、三次元モデルにおける端末装置の位置と三次元空間画像に含まれる実オブジェクトの位置関係を特定し、端末装置の環境情報を取得し、三次元モデルにおける、第2の取得手段にて取得された環境情報が発される起点の位置を特定し、ディスプレイにて表示している画像上において、三次元空間画像に含まれる実オブジェクトと端末装置の位置関係に基づき、所定の画像を重畳して表示し、取得された環境情報の変化および特定された環境情報が発される位置に応じて、所定の画像の表示を変化させる。【選択図】図3A terminal device capable of displaying a desired character on an image of a real space displayed on a display and changing the display of the desired character according to a change in environment, a control method therefor, and a program I will provide a. A terminal device including an imaging device, wherein the position of the terminal device in a three-dimensional model of a real space is specified, a three-dimensional space image is acquired via the imaging device, and the position of the terminal device in the three-dimensional model is obtained. And the positional relationship between the real objects included in the three-dimensional space image, the environment information of the terminal device is acquired, and the position of the starting point at which the environment information acquired by the second acquisition means is issued in the three-dimensional model On the image displayed on the display, based on the positional relationship between the real object and the terminal device included in the three-dimensional space image, and superimposes and displays a predetermined image to change the acquired environmental information. The display of a predetermined image is changed according to the position where the specified environmental information is issued. [Selection diagram] FIG.
Description
本発明は、端末装置およびその制御方法、並びにプログラムに関する。特に、実空間のオブジェクトと端末装置との距離に基づいて、ディスプレイ上で実空間の画像に所定のオブジェクトを重畳して表示する技術に関する。 The present invention relates to a terminal device, a control method thereof, and a program. In particular, the present invention relates to a technique for displaying a predetermined object superimposed on a real space image on a display based on a distance between the real space object and a terminal device.
近年、カメラ等の撮像手段にて撮影された実空間上の空間画像をディスプレイ上に表示する際に、その空間画像に所定のオブジェクト画像を重畳して表示する、所謂AR(Augmented Reality)技術が普及してきている。また、近年の携帯端末の高機能化に伴って、携帯端末上でAR技術を用いる場面が増えてきている。 2. Description of the Related Art In recent years, when displaying a spatial image in a real space photographed by an imaging means such as a camera on a display, a so-called AR (Augmented Reality) technique for displaying a predetermined object image superimposed on the spatial image is provided. It has become widespread. In addition, with the recent increase in functionality of mobile terminals, the use of AR technology on mobile terminals is increasing.
非特許文献1、2には、センサとカメラを組み合わせたシステムが開示される。このシステムは、カメラとセンサから取得した情報に基づき、端末装置の現在位置と向きを特定することができる。 Non-Patent Documents 1 and 2 disclose a system in which a sensor and a camera are combined. This system can specify the current position and orientation of the terminal device based on information acquired from the camera and the sensor.
携帯端末を有するユーザが、携帯端末のディスプレイ上に実空間の画像と所定のオブジェクト画像とを重畳して表示する際に、実際にユーザ自身が体験している環境やその環境変化に伴って、表示している所定のオブジェクト画像を変化させたいという要望がある。 When a user having a mobile terminal superimposes and displays an image of a real space and a predetermined object image on the display of the mobile terminal, along with the environment that the user is actually experiencing and the environment change, There is a desire to change a predetermined object image being displayed.
例えば、所定のオブジェクト画像として、ユーザの好みのキャラクターを携帯端末のディスプレイ上に表示させる際に、その携帯端末(つまり、ユーザ)の周囲の環境変化に伴って、そのキャラクターに何らかのリアクションをさせたい場合や、所定の情報をそのキャラクターを介して提供させたい場合などがある。 本願発明では、ユーザが存在する実環境の情報およびその変化に伴って、そのユーザが有する携帯端末のディスプレイ上の実空間の画像に重畳表示するオブジェクト画像を動的に変化させる手法を提供することを目的とする。 For example, when displaying a user's favorite character as a predetermined object image on the display of the mobile terminal, the character wants to react to the character in accordance with the environmental change around the mobile terminal (that is, the user) There are cases where it is desired to provide predetermined information via the character. The present invention provides a method of dynamically changing an object image superimposed on a real space image on a display of a mobile terminal of the user in accordance with information on a real environment where the user exists and the change thereof. With the goal.
上記課題を解決するために本願発明は以下の構成を有する。すなわち、撮像装置を備える端末装置であって、実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定手段と、前記撮像装置を介して三次元空間画像を取得する第1の取得手段と、前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段と、前記端末装置の環境情報を取得する第2の取得手段と、前記三次元モデルにおける、前記第2の取得手段にて取得された環境情報が発される起点の位置を特定する第3の特定手段と、ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示手段と、前記第2の取得手段にて取得される環境情報の変化および前記第3の特定手段にて特定された環境情報が発される位置に応じて、前記所定の画像の表示を変化させる制御手段とを備える。 In order to solve the above problems, the present invention has the following configuration. That is, a terminal device including an imaging device, the first specifying means for specifying the position of the terminal device in a three-dimensional model in real space, and a first one for acquiring a three-dimensional space image via the imaging device. Acquisition means; second specification means for specifying a positional relationship between the position of the terminal device in the three-dimensional model and a real object included in the three-dimensional space image; and second information for acquiring environment information of the terminal device. Acquisition means; in the three-dimensional model, third specification means for specifying the position of the starting point from which the environmental information acquired by the second acquisition means is issued; and on the image displayed on the display The display unit for displaying a predetermined image superimposed on the basis of the positional relationship between the real object included in the three-dimensional space image and the terminal device, and the environment acquired by the second acquisition unit Depending on the location where the environment information identified by distribution changes and the third identification means is issued, and a control means for changing the display of said predetermined image.
また、本願発明の別の構成として、以下の構成を有する。すなわち、撮像装置を備える端末装置の制御方法であって、実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定工程と、前記撮像装置を介して三次元空間画像を取得する第1の取得工程と、前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定工程と、前記端末装置の環境情報を取得する第2の取得工程と、前記三次元モデルにおける、前記第2の取得工程にて取得された環境情報が発される起点の位置を特定する第3の特定工程と、ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示工程と、前記第2の取得工程にて取得される環境情報の変化および前記第3の特定工程にて特定された環境情報が発される位置に応じて、前記所定の画像の表示を変化させる制御工程とを有する。 Moreover, it has the following structures as another structure of this invention. That is, a method for controlling a terminal device including an imaging device, the first specifying step of specifying the position of the terminal device in a three-dimensional model of real space, and acquiring a three-dimensional space image via the imaging device A first acquisition step, a second specifying step of specifying a positional relationship between the position of the terminal device in the three-dimensional model and a real object included in the three-dimensional space image, and acquiring environmental information of the terminal device The second acquisition step, the third specification step of specifying the position of the starting point where the environmental information acquired in the second acquisition step is emitted in the three-dimensional model, and the display on the display In the display step of superimposing and displaying a predetermined image based on the positional relationship between the real object included in the three-dimensional space image and the terminal device, and in the second acquisition step Depending on the location where the environment information identified by a specific process variation and the third environmental information is issued, and a control step of changing the display of said predetermined image.
また、本願発明の別の構成として、以下の構成を有する。すなわち、プログラムであって、撮像装置を備えるコンピュータを、実空間の三次元モデルにおける前記コンピュータの位置を特定する第1の特定手段、前記撮像装置を介して三次元空間画像を取得する第1の取得手段、前記三次元モデルにおける前記コンピュータの位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段、前記コンピュータの環境情報を取得する第2の取得手段、前記三次元モデルにおける、前記第2の取得手段にて取得された環境情報が発される起点の位置を特定する第3の特定手段と、ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記コンピュータの位置関係に基づき、所定の画像を重畳して表示する表示手段、前記第2の取得手段にて取得される環境情報の変化および前記第3の特定手段にて特定された環境情報が発される位置に応じて、前記所定の画像の表示を変化させる制御手段として機能させる。 Moreover, it has the following structures as another structure of this invention. That is, a first program for obtaining a three-dimensional space image via a first specifying means for specifying a position of the computer in a three-dimensional model of a real space, a computer provided with the imaging device. Acquisition means, second specification means for specifying a positional relationship between the position of the computer in the three-dimensional model and a real object included in the three-dimensional space image, second acquisition means for acquiring environment information of the computer, In the three-dimensional model, on the image displayed on the display, the third specifying means for specifying the position of the starting point from which the environmental information acquired by the second acquiring means is emitted. Display means for superimposing and displaying a predetermined image based on the positional relationship between the real object included in the spatial image and the computer; Depending on the location where the environment information identified at the transition and the third specifying means environment information acquired by means emitted, to function as a control means for changing the display of said predetermined image.
本願発明により、ユーザが存在する実環境の情報およびその変化に伴って、そのユーザが有する携帯端末のディスプレイ上の実空間の画像に重畳表示するオブジェクト画像を動的に変化させることが可能となる。 According to the present invention, it is possible to dynamically change the object image to be superimposed and displayed on the real space image on the display of the mobile terminal possessed by the user in accordance with the information of the real environment where the user exists and the change thereof. .
以下、図面を用いて、本願発明に係る一実地形態について説明を行う。なお、以下に示す実施形態は一例であり、これに限定するものではない。また、以下の説明では、本実施形態に係る端末装置として、スマートフォンなどの携帯端末を例に挙げて説明するが、これに限定するものではない。 Hereinafter, one embodiment according to the present invention will be described with reference to the drawings. In addition, embodiment shown below is an example and is not limited to this. In the following description, a mobile terminal such as a smartphone will be described as an example of the terminal device according to the present embodiment, but the present invention is not limited to this.
[用語の説明]
まず、本願発明の説明にて用いる用語の説明を行う。
[Explanation of terms]
First, terms used in the description of the present invention will be described.
「環境情報」は、携帯端末の周辺環境に関する各種情報である。例えば、温度、湿度、音(音量、音源の位置)、光(光量、光源の位置)、時間(時刻)、日付、経度/緯度、高度などが該当する。 “Environmental information” is various information related to the surrounding environment of the mobile terminal. For example, temperature, humidity, sound (volume, sound source position), light (light quantity, light source position), time (time), date, longitude / latitude, altitude, and the like are applicable.
「動作情報」は、携帯端末が備える各リソースの状態、負荷、動作モード、撮影部による撮影条件、もしくは内部処理の状態などが該当する。 The “operation information” corresponds to the state of each resource included in the mobile terminal, the load, the operation mode, the imaging condition by the imaging unit, or the state of internal processing.
「撮影画像」は、撮影部により撮影された画像(三次元空間画像)であり、ここでは、ディスプレイにリアルタイムに表示される画像も含むものとする。 The “photographed image” is an image (three-dimensional space image) photographed by the photographing unit, and here includes an image displayed in real time on a display.
「三次元モデル」は、携帯端末の周辺の三次元空間の特徴を示す情報を示す。各種センサにて取得された情報にて例えば、撮影部に撮影された画像から抽出される、画像内の各種物体の特徴を示す点群(特徴点)などにより構成される。 The “three-dimensional model” indicates information indicating the characteristics of the three-dimensional space around the mobile terminal. The information acquired by the various sensors includes, for example, a point group (feature point) indicating features of various objects in the image extracted from the image captured by the imaging unit.
「深度情報」は、原点から検知対象までの深さ(距離)を示す情報である。ここでの原点とは、端末装置の位置を基準として設けられるものとする。 “Depth information” is information indicating the depth (distance) from the origin to the detection target. The origin here is assumed to be provided based on the position of the terminal device.
「表示オブジェクト」は、ディスプレイに表示するオブジェクトであり、表示オブジェクトの種類は、人物、動物、オブジェクト、およびアニメーションなどが挙げられる。表示オブジェクトは、二次元形状にて構成されたものでもよいし、三次元形状にて構成されたものでもよい。なお、以下の説明において、表示オブジェクトに対し、撮像部を介して撮影された実空間上の物質を単に「オブジェクト」と称する。 The “display object” is an object to be displayed on the display, and examples of the display object include a person, an animal, an object, and an animation. The display object may be a two-dimensional shape or a three-dimensional shape. In the following description, a substance in real space taken through an imaging unit with respect to a display object is simply referred to as “object”.
[ハードウェア構成]
図1は、本実施形態に係る端末装置の概略的なハードウェア構成の例を示す図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。端末装置10は、制御部100、スピーカ101、マイク102、撮像部103、GPS処理部104、ジャイロセンサ105、ディスプレイ106、深さセンサ107、通信部108、加速度センサ109、地磁気センサ110、および温度/湿度センサ111を備える。
[Hardware configuration]
FIG. 1 is a diagram illustrating an example of a schematic hardware configuration of a terminal device according to the present embodiment. The terminal device 10 is a portable communication terminal such as a smartphone, for example. The terminal device 10 includes a control unit 100, a speaker 101, a microphone 102, an imaging unit 103, a GPS processing unit 104, a gyro sensor 105, a display 106, a depth sensor 107, a communication unit 108, an acceleration sensor 109, a geomagnetic sensor 110, and a temperature. / Humidity sensor 111 is provided.
スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、入力された音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサ(不図示)を有し画像情報を取得して制御部100に出力する。GPS処理部104は、GPS衛星からの信号を受信して受信した信号に基づき、緯度、経度、高度を含む位置情報を制御部100に出力する。ジャイロセンサ105は、端末装置10の角度や角速度を測定して姿勢情報として制御部100に出力する。ディスプレイ106は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。 The speaker 101 converts an audio signal output from the control unit 100 into audio. The microphone 102 converts the input sound into a sound signal and outputs the sound signal to the control unit 100. The imaging unit 103 includes a lens and a CCD sensor (not shown), acquires image information, and outputs the image information to the control unit 100. The GPS processing unit 104 receives a signal from a GPS satellite and outputs position information including latitude, longitude, and altitude to the control unit 100 based on the received signal. The gyro sensor 105 measures the angle and the angular velocity of the terminal device 10 and outputs them to the control unit 100 as posture information. In this embodiment, the display 106 is a touch-sensitive display, and functions as an input unit for user operation in addition to presenting information to the user. When the display is not a touch-sensitive display, an input unit is provided separately.
深さセンサ107は、オブジェクトまでの距離(深さ)を測定して測定結果を深度情報として制御部100に出力する。深さセンサ107としては、例えば、赤外線カメラを用いることができる。通信部108は、移動通信網や無線LAN(Local Area Network)を介した通信処理を行う。加速度センサ109は、端末装置10の加速度を測定して加速度情報として制御部100に出力する。地磁気センサ110は、地磁気を検出して端末の基準方向の現在の向きを示す方位情報を制御部100に出力する。温度/湿度センサ111は、端末装置10の周辺環境における温度および湿度を検知し、制御部100に出力する。 The depth sensor 107 measures the distance (depth) to the object and outputs the measurement result to the control unit 100 as depth information. For example, an infrared camera can be used as the depth sensor 107. The communication unit 108 performs communication processing via a mobile communication network or a wireless LAN (Local Area Network). The acceleration sensor 109 measures the acceleration of the terminal device 10 and outputs it to the control unit 100 as acceleration information. The geomagnetic sensor 110 detects geomagnetism and outputs azimuth information indicating the current orientation of the reference direction of the terminal to the control unit 100. The temperature / humidity sensor 111 detects the temperature and humidity in the surrounding environment of the terminal device 10 and outputs the detected temperature and humidity to the control unit 100.
制御部100は、端末装置10全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAM(Random Access Memory)や、プロセッサが実行するオペレーティングシステム(OS)及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。 The control unit 100 is a control unit for the terminal device 10 as a whole, and includes one or more processors and a memory unit. The memory unit includes a RAM (Random Access Memory) used for temporary storage of data by the processor, an operating system (OS) and applications executed by the processor, and data to be retained even when the power is turned off. Is stored in the flash memory.
なお、上記の装置のハードウェア構成の例は一例であり、上記以外の部位を備えていてもよい。例えば、端末装置10の周囲における環境情報や三次元モデルを取得するために、各情報に対応してセンサを設けていてもよい。 In addition, the example of the hardware constitutions of said apparatus is an example, You may provide the site | parts other than the above. For example, in order to acquire environmental information and a three-dimensional model around the terminal device 10, a sensor may be provided corresponding to each information.
本実施形態において、三次元モデルは、撮像部103で撮像した画像の特徴点の点群と撮像位置とを対応付けて保持する対応テーブルであってもよい。点群は撮像場所や角度が多少変わっても同じ物体だと認識できるように構成される。端末装置10はその特徴点の情報を読み込み、撮像位置が分からない場合に撮像位置がどこかを判定する。すなわち、三次元モデルは風景の見え方を記憶して撮像位置がどこかを求めるためのものであり、深さセンサ107を使わなくても生成可能である。一方、オブジェクトを地面の上に立たせたり現実の物体の大きさを測定したりする場合には深さセンサ107を用いる。 In the present embodiment, the three-dimensional model may be a correspondence table that holds a point group of feature points of an image captured by the imaging unit 103 and an imaging position in association with each other. The point cloud is configured so that it can be recognized as the same object even if the imaging location or angle changes slightly. The terminal device 10 reads the feature point information and determines where the imaging position is when the imaging position is unknown. That is, the three-dimensional model is for storing the appearance of the landscape and determining where the imaging position is, and can be generated without using the depth sensor 107. On the other hand, the depth sensor 107 is used when the object stands on the ground or when the size of an actual object is measured.
[ソフトウェア構成]
図2は、本実施形態に係る概略的なソフトウェア構成の例を示す図である。本実施形態に係る各種処理部の機能は、制御部100が備えるメモリ部に格納されたプログラムをプロセッサが適時読み出して実行することにより実現される。
Software configuration
FIG. 2 is a diagram illustrating an example of a schematic software configuration according to the present embodiment. The functions of the various processing units according to the present embodiment are realized by a processor reading and executing a program stored in a memory unit included in the control unit 100 in a timely manner.
端末装置10は、三次元モデル取得部201、撮影画像取得部202、環境情報取得部203、位置情報取得部204、表示制御部205、オブジェクト制御部206、位置関係特定部207、および音声解析部208を備える。 The terminal device 10 includes a three-dimensional model acquisition unit 201, a captured image acquisition unit 202, an environment information acquisition unit 203, a position information acquisition unit 204, a display control unit 205, an object control unit 206, a positional relationship specifying unit 207, and a voice analysis unit. 208.
三次元モデル取得部201は、端末装置10の周囲の空間に関する三次元モデルを取得する。なお、三次元モデルを取得する方法については、特に限定するものでは無いが、一例として、非特許文献1、2にて示されているTangoを用いることが可能である。 The three-dimensional model acquisition unit 201 acquires a three-dimensional model related to the space around the terminal device 10. The method for acquiring the three-dimensional model is not particularly limited, but as an example, Tango shown in Non-Patent Documents 1 and 2 can be used.
ここで、三次元モデルについて説明する。三次元モデル取得部201は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置10の三次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献2に記載された場所記述情報の生成について説明する。なお、三次元空間位置の原点は、場所記述情報を開始したときの端末装置10(撮像部103)の位置であるものとする。 Here, the three-dimensional model will be described. The three-dimensional model acquisition unit 201 generates location description information based on the technique described in Non-Patent Document 1, for example. The location description information is information for determining the three-dimensional space position of the terminal device 10 and the imaging direction of the imaging unit 103 from the image captured by the imaging unit 103. First, generation of location description information described in Non-Patent Document 2 will be described. Note that the origin of the three-dimensional space position is the position of the terminal device 10 (imaging unit 103) when the location description information is started.
端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。三次元モデル取得部201は、場所記述情報の取得の間、その開始時の位置を原点とし、各種センサにより取得された加速度情報及び角速度情報に基づき端末装置10の位置や撮像方向の向きを判定し続ける。また、三次元モデル取得部201は、撮像部103が撮像している画像内の特徴点を求める。このとき、三次元モデル取得部201は、三次元空間における端末装置10の位置や撮像方向と、画像内の同じ特徴点のカメラ座標における位置を判定する。これにより、三次元モデル取得部201は、三次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、端末装置10は、生成した場所記述情報と、撮像部103が撮像している画像の特徴点とを比較することで、そのときの端末装置10の三次元空間位置と撮像部103の撮像方向を判定することができる。 When the user of the terminal device 10 starts to acquire the location description information, the user changes the position and the imaging direction while capturing an image with the imaging unit 103. The three-dimensional model acquisition unit 201 determines the position of the terminal device 10 and the direction of the imaging direction based on the acceleration information and the angular velocity information acquired by various sensors while acquiring the location description information, using the starting position as the origin. Keep doing. In addition, the three-dimensional model acquisition unit 201 obtains feature points in the image captured by the imaging unit 103. At this time, the three-dimensional model acquisition unit 201 determines the position of the terminal device 10 in the three-dimensional space, the imaging direction, and the position of the same feature point in the image in the camera coordinates. As a result, the 3D model acquisition unit 201 obtains location description information indicating where each feature point can be seen in the image captured by the imaging unit 103 at each position and each imaging direction in the 3D space. Generate. Therefore, the terminal device 10 compares the generated location description information with the feature points of the image captured by the imaging unit 103, so that the 3D spatial position of the terminal device 10 at that time and the imaging of the imaging unit 103 are obtained. The direction can be determined.
また、三次元モデル取得部201は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点との比較により端末装置の三次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき当該既に保存している場所記述情報の更新も行う。 In addition, the 3D model acquisition unit 201 compares the location description information already stored with the feature points of the image captured by the imaging unit 103, and the 3D spatial position of the terminal device and the imaging direction of the imaging unit 103. At the same time, the already-stored location description information is updated based on the feature points of the image captured by the imaging unit 103.
上述した様に、場所記述情報は、端末装置10の位置及び撮像方向と、撮像部103が撮像する画像内にある各オブジェクトの各特徴点のカメラ座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の三次元空間位置の座標を示す三次元空間情報を生成することができる。なお、特徴点の位置は、実空間を模した仮想的な三次元空間の座標(x,y,z)で表される。 As described above, the location description information is information indicating the relationship between the position and imaging direction of the terminal device 10 and the position of each feature point of each object in the image captured by the imaging unit 103 in the camera coordinates. Based on the location description information, three-dimensional space information indicating the coordinates of the three-dimensional space position of each feature point can be generated. The position of the feature point is represented by coordinates (x, y, z) in a virtual three-dimensional space that imitates real space.
ここで生成された場所記述情報は適時、端末装置10の記憶部に保持されていく。このとき、既に生成済みの三次元モデルが存在する場合、新たに取得した三次元モデルと、既に保存している三次元モデルとを比較してもよい。例えば、比較の結果、所定割合以上の特徴点が一致すると、新たに取得した三次元モデルが、既に保存している三次元モデルと同じ場所で取得されていることを認識する。この場合、既に保存している三次元モデルを新たに取得した三次元モデルで更新する。 The location description information generated here is retained in the storage unit of the terminal device 10 as appropriate. At this time, when there is an already generated 3D model, the newly acquired 3D model may be compared with the already stored 3D model. For example, as a result of the comparison, if feature points of a predetermined ratio or more match, it is recognized that the newly acquired 3D model is acquired at the same location as the already stored 3D model. In this case, the already stored 3D model is updated with the newly acquired 3D model.
撮影画像取得部202は、撮像部103を介して撮影した画像を取得する。この取得した画像は、リアルタイムでディスプレイ106に表示したり、上記の三次元モデル取得部201へ渡したりする。 The captured image acquisition unit 202 acquires an image captured via the imaging unit 103. The acquired image is displayed on the display 106 in real time or is transferred to the three-dimensional model acquisition unit 201 described above.
環境情報取得部203は、温度/湿度センサ111を介して、端末装置10の周辺環境における温度情報や湿度情報を取得する。更に、環境情報取得部203は、撮像部103を介して撮影した画像を解析し、画像中の明るさの変化や、光源などを特定する。例えば、光源の特定に関し、端末装置10が備える光センサ(不図示)により検知した方向に基づいて、判定することができる。更に、環境情報取得部203は、音声解析部208により解析された各種音声情報を取得する。なお、環境情報取得部208は、音声情報として、人などの声に限定するものではなく、音楽や所定の音などを取得するようにしてもよい。また、音声解析部208に解析される前の生の音声情報をそのまま環境情報として用いてもよい。また、環境情報取得部203は、通信部108を介して外部の装置(不図示)から環境情報を取得してもよい。外部から取得する情報としては、例えば、音声情報に基づいて、関連する情報(天気情報など)を取得してもよい。 The environment information acquisition unit 203 acquires temperature information and humidity information in the surrounding environment of the terminal device 10 via the temperature / humidity sensor 111. Furthermore, the environment information acquisition unit 203 analyzes an image captured through the imaging unit 103, and specifies a change in brightness, a light source, and the like in the image. For example, it can determine based on the direction detected by the optical sensor (not shown) with which the terminal device 10 is provided regarding specification of a light source. Furthermore, the environment information acquisition unit 203 acquires various types of audio information analyzed by the audio analysis unit 208. Note that the environment information acquisition unit 208 is not limited to voice such as a person as voice information, and may acquire music, a predetermined sound, or the like. Further, raw voice information before being analyzed by the voice analysis unit 208 may be used as it is as environment information. The environment information acquisition unit 203 may acquire environment information from an external device (not shown) via the communication unit 108. As information acquired from the outside, for example, related information (such as weather information) may be acquired based on audio information.
位置情報取得部204は、三次元モデル取得部201にて取得された情報に基づいて、実空間の三次元モデルにおける端末装置10の現在位置を特定する。現在位置は三次元空間の座標(x,y,z)にて特定される。位置情報取得部204は、ジャイロセンサ105から出力される姿勢情報と加速度センサ109から出力される加速度情報とを用いたモーショントラッキングにより、端末装置10の現在位置および傾きを特定する。例えば、位置情報取得部204は、まず三次元モデルとして得られた特徴点によるマッチングを行い、端末装置10が三次元モデルのどの場所にいるかを特定する。特定できた後、位置情報取得部204は、加速度センサ109、ジャイロセンサ105により端末装置10が移動しても三次元モデル上の座標を特定できる。位置情報取得部204は、撮像部103が撮像して得られた画像情報に基づくエリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。 The position information acquisition unit 204 specifies the current position of the terminal device 10 in the real space three-dimensional model based on the information acquired by the three-dimensional model acquisition unit 201. The current position is specified by coordinates (x, y, z) in the three-dimensional space. The position information acquisition unit 204 specifies the current position and tilt of the terminal device 10 by motion tracking using the posture information output from the gyro sensor 105 and the acceleration information output from the acceleration sensor 109. For example, the position information acquisition unit 204 first performs matching using feature points obtained as a three-dimensional model, and specifies where the terminal device 10 is in the three-dimensional model. After the identification, the position information acquisition unit 204 can identify the coordinates on the three-dimensional model even if the terminal device 10 is moved by the acceleration sensor 109 and the gyro sensor 105. The position information acquisition unit 204 may correct the accumulation of shifts in motion tracking by area learning based on image information obtained by imaging by the imaging unit 103.
表示制御部205は、撮像部103を介して撮影されている画像と、オブジェクト制御部206により作成された表示オブジェクトを重畳して表示させる。表示制御部205は、ディスプレイ106上での表示オブジェクトの位置などを、位置情報、三次元モデル、もしくは環境情報などに基づいて決定する。例えば、表示制御部205は、三次元モデルにて示されるオブジェクトの座標と、端末装置10の位置情報と、深さセンサ107によって得られる情報との対応関係に基づいて、表示オブジェクトのディスプレイ106上での位置を特定する。このとき、深さセンサ107から得られた情報を用いることにより、現実空間の壁や床などとの対応関係を考慮して画像の位置や表示を制御することが可能となる。 The display control unit 205 superimposes and displays the image captured via the imaging unit 103 and the display object created by the object control unit 206. The display control unit 205 determines the position of the display object on the display 106 based on position information, a three-dimensional model, environment information, or the like. For example, the display control unit 205 displays the display object on the display 106 based on the correspondence between the coordinates of the object indicated by the three-dimensional model, the position information of the terminal device 10, and the information obtained by the depth sensor 107. Specify the position at. At this time, by using the information obtained from the depth sensor 107, it is possible to control the position and display of the image in consideration of the correspondence with the wall or floor of the real space.
オブジェクト制御部206は、ディスプレイ106に表示する表示オブジェクトおよびその動作を決定し、表示制御部205に渡す。例えば、ここでの動作とは、例えば、表示オブジェクトの動作の他、音声により情報を提供したり、文字としてディスプレイ106上に表示したりすることも含む。また、端末装置10にインストールされている他のアプリケーションや、端末装置10が備える各種ハードウェアから情報を取得し、その情報に基づいて動作を決定してもよい。 The object control unit 206 determines a display object to be displayed on the display 106 and its operation, and passes them to the display control unit 205. For example, the action here includes, for example, providing information by voice or displaying it on the display 106 as characters in addition to the action of the display object. In addition, information may be acquired from other applications installed in the terminal device 10 or various types of hardware included in the terminal device 10, and the operation may be determined based on the information.
位置関係特定部207は、三次元モデル取得部201で取得した三次元モデルと、位置情報取得部204にて取得した位置情報とに基づいて、端末装置10のディスプレイ106で表示されている画像に含まれる各種オブジェクトと、端末装置10との位置関係を特定する。ここで特定された位置関係に基づいて、表示制御部205は、ディスプレイ106に表示されている画像において、所定の表示オブジェクトを表示する位置を特定することとなる。 Based on the 3D model acquired by the 3D model acquisition unit 201 and the position information acquired by the position information acquisition unit 204, the positional relationship specifying unit 207 applies an image displayed on the display 106 of the terminal device 10. The positional relationship between the various objects included and the terminal device 10 is specified. Based on the positional relationship specified here, the display control unit 205 specifies the position where the predetermined display object is displayed in the image displayed on the display 106.
音声解析部208は、マイク102を介して入力された音声を解析し、音の大きさや発された位置(音源)や方向などを特定する。音源の特定方法としては、例えば、端末装置が備える複数のマイクからの入力に基づき、その入力された音の時間差により、音源の位置を推定する方法がある。また、複数のマイクを用いて、音源までの距離などを推定する方法もあるが、その方法を特に限定するものではない。なお、ここでの解析には、例えば、特定のユーザの声の識別なども含まれる。例えば、特定の音(声)のみを抽出するように解析してもよい。音声解析部208により解析された各種音声情報は、環境情報として、環境情報取得部203に渡される。 The voice analysis unit 208 analyzes the voice input through the microphone 102 and specifies the volume of the sound, the position (sound source), the direction, and the like. As a method of identifying a sound source, for example, there is a method of estimating the position of a sound source based on time differences between the input sounds based on inputs from a plurality of microphones provided in the terminal device. There is also a method for estimating the distance to the sound source using a plurality of microphones, but the method is not particularly limited. The analysis here includes, for example, identification of a voice of a specific user. For example, analysis may be performed so that only a specific sound (voice) is extracted. Various types of audio information analyzed by the audio analysis unit 208 are passed to the environment information acquisition unit 203 as environment information.
なお、図2に示す構成では、端末装置10が各種処理を行う構成とした。しかし、端末装置10は、各情報を取得した後、外部装置へデータを送信し、その外部装置側で処理を行わせ、その結果を取得するような構成であってもよい。 In the configuration illustrated in FIG. 2, the terminal device 10 performs various processes. However, the terminal device 10 may be configured such that after acquiring each information, the data is transmitted to the external device, the processing is performed on the external device side, and the result is acquired.
例えば、オブジェクト制御部206が、三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられた表示オブジェクトの情報を外部装置であるサーバからダウンロードしてもよい。ダウンロード方法は様々あり、ユーザが端末装置10を操作して、ダウンロードアイコンを選択するだけでなく、撮像画像又は特徴点の画像を定期的にアップロードし、サーバ側で、画像マッチングで三次元モデルの有無を判定し、該当する三次元モデルをダウンロードしてもよい。また、端末装置10のGPS処理部104にて取得したGPS情報をサーバにアップロードすると、その場所に対応する三次元モデル(対応するアプリケーションが特定されている情報の表示とともに)を選択し、受信してもよい。あるいは、端末装置10は、予め記憶・生成した三次元モデルと三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられたオブジェクト情報を予め保持していてもよい。 For example, the object control unit 206 may download information on a display object associated with a position (coordinates) based on the position of the terminal device 10 specified from the three-dimensional model from a server that is an external device. There are various downloading methods. The user operates the terminal device 10 to select a download icon, and also periodically uploads a captured image or an image of a feature point. The presence or absence may be determined, and the corresponding three-dimensional model may be downloaded. When the GPS information acquired by the GPS processing unit 104 of the terminal device 10 is uploaded to the server, a three-dimensional model corresponding to the location (along with the display of information specifying the corresponding application) is selected and received. May be. Or the terminal device 10 may hold | maintain previously the object information matched with the position (coordinate) based on the position of the terminal device 10 specified from the 3D model memorize | stored and produced | generated and the 3D model.
また、図2に示したような各処理モジュールを統合して構成してもよいし、更に詳細に分け、プロセッサ(コンピュータ)に処理可能なプログラムとして構成してもよい。 Also, the processing modules as shown in FIG. 2 may be integrated and configured, or may be configured as a program that can be further divided and processed by a processor (computer).
[処理フロー]
以下、本実施形態に係る処理フローについて、図3を用いて説明する。なお、本実施形態では、制御部100において、プロセッサがメモリ部に格納された各種プログラムを読み出して実行する事により、以下の処理が実現される。
[Processing flow]
Hereinafter, the processing flow according to the present embodiment will be described with reference to FIG. In the present embodiment, in the control unit 100, the following processing is realized by the processor reading and executing various programs stored in the memory unit.
S301にて、制御部100は、三次元モデル取得部201により、端末装置10の周囲における三次元モデルを取得する。このとき、予め作成されている三次元モデルを取得するように構成してもよいし、端末装置10が備える撮像部103を起動させた上で、三次元モデルを最初から構成するようにしてもよい。なお、本処理フローの開始と共に、撮像部103を起動するように構成してよい。 In S <b> 301, the control unit 100 acquires a three-dimensional model around the terminal device 10 using the three-dimensional model acquisition unit 201. At this time, a three-dimensional model created in advance may be acquired, or the imaging unit 103 included in the terminal device 10 may be activated and the three-dimensional model may be configured from the beginning. Good. In addition, you may comprise so that the imaging part 103 may be started with the start of this processing flow.
S302にて、制御部100は、位置情報取得部204により、三次元モデルにおける端末装置10の現在位置を特定する。 In S302, control unit 100 causes position information acquisition unit 204 to specify the current position of terminal device 10 in the three-dimensional model.
S303にて、制御部100は、位置関係特定部207により、端末装置10の位置情報と、現実の三次元空間の情報(撮影画像内のオブジェクト)との位置関係(対応関係)を特定する。 In S303, the control unit 100 uses the positional relationship specifying unit 207 to specify the positional relationship (corresponding relationship) between the positional information of the terminal device 10 and the actual three-dimensional space information (object in the captured image).
S304にて、制御部100は、表示制御部205により、特定した位置関係に基づいて、ユーザ所望の表示オブジェクトの表示位置を決定する。ここで決定する表示位置は、端末装置10の位置と、画面に表示されているオブジェクト(例えば、壁や床)との距離に基づいてもよいし、端末装置10の位置からの相対的な場所であってもよい。また、上述したように、画面に表示されているオブジェクトとの距離(深さ)は、深さセンサ107により得られる深度情報を用いることができる。 In S304, the control unit 100 determines the display position of the display object desired by the user based on the specified positional relationship by the display control unit 205. The display position determined here may be based on the distance between the position of the terminal device 10 and an object (for example, a wall or a floor) displayed on the screen, or a relative location from the position of the terminal device 10. It may be. Further, as described above, the depth information obtained by the depth sensor 107 can be used as the distance (depth) to the object displayed on the screen.
S305にて、制御部100は、オブジェクト制御部206により、表示オブジェクトを決定する。ここでは、ユーザが予め表示オブジェクトの種類をしていてもよいし、位置情報や環境情報に基づいて表示オブジェクトを決定してもよい。また、表示オブジェクトは1つに限定するものではなく、複数の表示オブジェクトが同時に表示されるようにしてもよい。また、複数の表示オブジェクトそれぞれに対して、環境情報などに基づく表示条件および優先度を設けておき、状況に応じて表示オブジェクトの候補を特定してもよい。ここで、制御部100は、その時点での端末装置10の環境情報および動作情報を取得し、保持しておくものとする。更に、表示オブジェクトの決定において、ここで取得した環境情報および動作情報を用いて表示オブジェクトを決定してもよい。 In step S <b> 305, the control unit 100 determines a display object using the object control unit 206. Here, the user may select the type of display object in advance, or the display object may be determined based on position information or environment information. Further, the number of display objects is not limited to one, and a plurality of display objects may be displayed simultaneously. In addition, display conditions and priorities based on environment information or the like may be provided for each of the plurality of display objects, and display object candidates may be specified according to the situation. Here, the control part 100 shall acquire and hold | maintain the environmental information and operation | movement information of the terminal device 10 at that time. Furthermore, in determining the display object, the display object may be determined using the environment information and the operation information acquired here.
また、表示オブジェクトは、前回表示されたオブジェクトの表示設定(明るさ、影の向きなどのパラメータ設定)を保持しておき、次回の表示の際にそのままの状態で表示するようにしてもよい。更に、表示オブジェクトの表示中に、バックグランドで、表示オブジェクトのパラメータ情報と新たに取得した環境情報に基づいてパラメータを変更するか否かを判定し、変更すべきと判定すれば、表示オブジェクトの表示態様や動作を変更してもよい。このとき、表示オブジェクトの表示態様や動作パターンを複数記憶しておくことにより、環境情報に応じた適切な表示や動作パターンのオブジェクトを取得できる。なお、上記の処理は端末装置10におけるバックグラウンドの処理として述べたが、この処理をサーバ側に要求し、その結果を用いてもよい。また、判定の結果、新たな情報をサーバから取得するようにしてもよい。 In addition, the display object may hold the display settings (parameter settings such as brightness and shadow direction) of the object displayed last time and display it as it is in the next display. Further, during the display of the display object, it is determined whether to change the parameter based on the parameter information of the display object and the newly acquired environment information in the background. The display mode and operation may be changed. At this time, by storing a plurality of display modes and operation patterns of the display object, an object having an appropriate display and operation pattern according to the environment information can be acquired. In addition, although said process was described as a background process in the terminal device 10, this process may be requested | required of the server side and the result may be used. As a result of the determination, new information may be acquired from the server.
また、プログラム起動時に、GPS情報などに基づいて端末装置10が位置する場所が屋内/屋外を特定したり、時刻情報や日付情報に基づいて朝・昼・夜(更には、季節など)を特定したりした上で、これらの情報のいずれかに基づいて、予め決められた表示パターンを選択してもよい。表示パターンとしては、例えば、夏の夜であれば、夏服で夜の明るさに制御したり、屋内向けの設定に制御したりしてよい。更に、その表示中にバックグランドで環境情報に基づいて表示設定等を修正してもよい。つまり、表示タイミングに基づいた情報をまずは優先するように制御することができる。この構成により、ユーザのストレスを解消できる。 In addition, when the program is started, the location where the terminal device 10 is located is specified indoors / outdoors based on GPS information, etc., and morning / day / night (and season, etc.) is specified based on time information and date information. In addition, a predetermined display pattern may be selected based on any of these pieces of information. As a display pattern, for example, if it is a summer night, the brightness of the night may be controlled with summer clothes, or the setting may be controlled for indoor use. Furthermore, display settings and the like may be corrected based on environmental information in the background during the display. That is, it is possible to control so that information based on display timing is given priority first. With this configuration, the user's stress can be eliminated.
S306にて、制御部100は、表示制御部205により、ディスプレイ106上において、S305にて決定した表示オブジェクトを、S304にて決定した画像内の表示位置に表示させる。なお、表示オブジェクトをディスプレイ106上に表示をするかの決定は、端末装置10のアプリの起動時に事前の設定(起動時に表示・非表示)に基づいて判定してもよい。また、アプリ起動時に非表示に制御されている場合でも、端末装置10に対する所定の操作や端末装置10に対して入力された音声情報(例えば、表示オブジェクトに対応する名前の呼びかけ)を検知したことに応じて、表示オブジェクトをディスプレイ106上に表示させるように制御してもよい。 In S306, the control unit 100 causes the display control unit 205 to display the display object determined in S305 on the display 106 at the display position in the image determined in S304. Whether to display the display object on the display 106 may be determined based on a prior setting (display / non-display at startup) when the application of the terminal device 10 is started. In addition, even when the application is controlled to be hidden when the application is activated, a predetermined operation on the terminal device 10 or voice information input to the terminal device 10 (for example, a call for a name corresponding to a display object) is detected. Accordingly, the display object may be controlled to be displayed on the display 106.
また、ディスプレイ106に表示されている画像と、表示オブジェクトの特性に応じて、表示オブジェクトの表示範囲を変更してもよい。例えば、図4に示すように、ディスプレイ106上に表示された画面内において、地面などに対応する、表示オブジェクトを立たせる領域が含まれていたとする。この場合、表示オブジェクトがヒト型キャラクターの場合、その領域に表示オブジェクトを立たせるような表示を行わせ、一方、画面内にそのような領域がなければ(例えば、壁のみ表示)、画面内に上半身あるいは首から頭までの部分のみを表示させるようにしてもよい。 Further, the display range of the display object may be changed according to the image displayed on the display 106 and the characteristics of the display object. For example, as shown in FIG. 4, it is assumed that the screen displayed on the display 106 includes an area for standing a display object corresponding to the ground or the like. In this case, if the display object is a human character, the display object is displayed so that the display object stands in the area. On the other hand, if there is no such area in the screen (for example, only the wall is displayed), Only the upper body or the part from the neck to the head may be displayed.
S307にて、制御部100は、環境情報取得部203により、端末装置10の周囲の各種環境情報および端末装置10の動作情報を取得する。更に制御部100、撮像部103の向きの情報を取得する。つまり、撮像部103の向きが変わることにより、ディスプレイ106上に表示される画像も変更されるため、これに伴って、各種情報が変更されることを意味する。 In S <b> 307, the control unit 100 acquires various environment information around the terminal device 10 and operation information of the terminal device 10 by the environment information acquisition unit 203. Further, information on the orientation of the control unit 100 and the imaging unit 103 is acquired. That is, since the image displayed on the display 106 is changed when the orientation of the imaging unit 103 is changed, it means that various information is changed accordingly.
S308にて、制御部100は、オブジェクト制御部206により、保持している各種情報と、S307にて新たに取得した各種情報とが異なるか否かを判定する。異なる場合は(S308にてYES)S309へ進み、同じである場合は(S308にてNO)S307へ戻る。 In S308, the control unit 100 determines whether or not the various information held by the object control unit 206 is different from the various information newly acquired in S307. If they are different (YES in S308), the process proceeds to S309. If they are the same (NO in S308), the process returns to S307.
S309にて、制御部100は、オブジェクト制御部206により、変化後の各種情報に基づき、新たに表示する表示オブジェクトおよび表示位置を決定する。例えば、新たに表示する表示オブジェクトとしては、これまでに表示していた表示オブジェクトのサイズや向きなどを変更してもよいし、全く異なる表示オブジェクトを表示するようにしてもよい。例えば、環境情報のうち、光源の位置や光量が変化された場合、表示オブジェクトを表示する明るさや影の向きや大きさを変更するようにしてもよい。また、音声情報が新たに入力された場合には、その音声の音源となる位置を特定し、その位置の方向に応じて表示オブジェクトの表示を変更するようにしてもよい。 In step S309, the control unit 100 causes the object control unit 206 to determine a display object to be newly displayed and a display position based on various information after the change. For example, as a display object to be newly displayed, the size and orientation of the display object displayed so far may be changed, or a completely different display object may be displayed. For example, in the environment information, when the position of the light source or the light amount is changed, the brightness at which the display object is displayed and the direction and size of the shadow may be changed. Further, when audio information is newly input, a position that is a sound source of the audio may be specified, and display of the display object may be changed according to the direction of the position.
また、変更する際に、連続して変化していくようにしてもよいし、表示が切り替るようにしてもよい。また、撮像部103の向きが変更になったことに伴い、向きの変更量に応じて、表示オブジェクトの移動距離(移動量)を決定して、移動(例えば、キャラクターであれば、歩いているように動作させる)させるようにしてもよい。 Moreover, when changing, you may make it change continuously and you may make it display switch. Further, as the orientation of the imaging unit 103 is changed, the moving distance (moving amount) of the display object is determined according to the change amount of the orientation, and the movement (for example, a character is walking). May be operated in the manner described above).
S310にて、制御部100、表示制御部205により、ディスプレイ106上において、S309にて決定した表示オブジェクトを、決定した表示位置に表示させる。 In S310, the display object determined in S309 is displayed at the determined display position on the display 106 by the control unit 100 and the display control unit 205.
S311にて、制御部100、所定の表示オブジェクトの表示を終了するか否かを判定する。表示を終了すると判定した場合は(S311にてYES)本処理フローを終了し、表示を継続すると判定した場合は(S311にてNO)S307へ戻り、処理を継続する。なお、終了する場合とは、ユーザからの指示を受け付けた場合や、端末装置10の電源を切った場合などが該当するが、これらに限定するものではない。 In S311, the control unit 100 determines whether or not to end the display of the predetermined display object. If it is determined that the display is to be ended (YES in S311), the process flow is ended. If it is determined that the display is to be continued (NO in S311), the process returns to S307 and the process is continued. In addition, the case where it complete | finishes corresponds to the case where the instruction | indication from a user is received, the case where the power supply of the terminal device 10 is turned off, etc., but it is not limited to these.
なお、過去の表示履歴(終了時の表示設定情報)を記憶しておき、次回の表示時には、表示履歴の中で最も多い表示態様で表示オブジェクトを表示してもよい。また、表示履歴を時間帯ごとに記憶しておき、次回の表示時間帯で最も多い表示形態を選択してもよい。また、表示履歴には、その表示を行っていた際の環境情報を含めてもよい。そして、次回表示時には、表示履歴と、その時点での環境情報との比較により、表示オブジェクトの表示態様を決定するようにしてもよい。 Note that the past display history (display setting information at the end) may be stored, and the display object may be displayed in the most display manner in the display history at the next display. Alternatively, the display history may be stored for each time zone, and the most frequent display mode may be selected in the next display time zone. Further, the display history may include environment information when the display is being performed. At the next display time, the display mode of the display object may be determined by comparing the display history with the environmental information at that time.
[表示例]
本実施形態に係る、ディスプレイ106におけるユーザ所望の表示オブジェクトの表示例について説明する。以下の説明では、ユーザ所望の表示オブジェクトとして、ヒト型の画像を例に挙げて説明するが、これに限定するものではない。
[Display example]
A display example of a display object desired by the user on the display 106 according to the present embodiment will be described. In the following description, a human-type image will be described as an example of a user-desired display object, but the present invention is not limited to this.
図4(a)は、本実施形態に係るディスプレイ106上において、表示オブジェクトを実空間の画像に重畳して表示している例を示している。図4(a)の上部に示すようにユーザの位置は変わらず、撮像部103の向きを左右に変更したとする。この場合において、ディスプレイ上に表示されている三次元空間の画像内に表示オブジェクトが表示されるように、表示オブジェクトを移動させている。この時の表示オブジェクトは、画面の中央に位置するように表示してもよいし、三次元空間の画像内に含まれるオブジェクトとの距離(深さ)に基づいて、表示位置を前後左右に調整するようにしてもよい。 FIG. 4A shows an example in which a display object is displayed superimposed on an image in the real space on the display 106 according to the present embodiment. As shown in the upper part of FIG. 4A, it is assumed that the position of the user is not changed and the direction of the imaging unit 103 is changed to the left and right. In this case, the display object is moved so that the display object is displayed in the image of the three-dimensional space displayed on the display. The display object at this time may be displayed so as to be positioned at the center of the screen, and the display position is adjusted to the front, back, left and right based on the distance (depth) from the object included in the image in the three-dimensional space. You may make it do.
図4(b)は、光源もしくは音源に基づいて表示オブジェクトを表示する例を示している。例えば、光源の位置を特定し、その光源の位置と表示オブジェクトの位置から、表示オブジェクトの影を表示している例を示している。また、入力された音情報に基づき、その音源の位置(方向)を特定し、その音源に対して表示オブジェクトが何らかの動作を行う。例えば、音源の位置と表示オブジェクトの位置関係に基づき、表示オブジェクトが音源の方へ移動するような動作を行うように表示する。 FIG. 4B shows an example in which a display object is displayed based on a light source or a sound source. For example, an example is shown in which the position of the light source is specified, and the shadow of the display object is displayed from the position of the light source and the position of the display object. Further, based on the input sound information, the position (direction) of the sound source is specified, and the display object performs some operation on the sound source. For example, display is performed so that the display object moves toward the sound source based on the positional relationship between the position of the sound source and the display object.
また、音声情報の内容に応じて、表示オブジェクトの動作を変更するように表示させてもよい。例えば、音声情報が、特定の音楽である場合や予め定義されたリズムであった場合などに、表示オブジェクトであるキャラクターが音楽(リズム)に合わせてダンスや動作を行うようにしてもよい。また、音声情報にて示される音量が所定の値を超えた場合には、表示オブジェクトであるキャラクターが驚いたり、その音に対するコメントを発したりするような動作を行うように制御してもよい。また、解析した音声情報が特定の情報である場合には、その情報に対応付けられた表示動作を行うようにしてもよい。例えば、表示オブジェクトであるキャラクターの名前が音声情報として入力された(呼ばれた)場合、その入力に応じて、表示オブジェクトが反応するように表示させてもよい。ここでの反応とは、例えば、返事を行うような動作をしたり、その表示オブジェクトがディスプレイ上に表示されていない場合には、画面内に出てくるように表示してもよい。また、所定の文言や声量に応じて、表示オブジェクトであるキャラクターが怒ったり、悲しんだりする動作を行うように表示させてもよい。更には、音源(呼ばれた方向)に反応して、移動や振り返るといった動作の表示を行うようにしてもよい。 Further, the display object may be displayed so as to change the operation according to the content of the audio information. For example, when the audio information is specific music or a predefined rhythm, the character that is the display object may perform a dance or an action in accordance with the music (rhythm). In addition, when the volume indicated by the audio information exceeds a predetermined value, control may be performed so that a character that is a display object is surprised or makes a comment on the sound. When the analyzed voice information is specific information, a display operation associated with the information may be performed. For example, when the name of a character that is a display object is input (called) as voice information, the display object may be displayed so as to react in response to the input. The reaction here may be displayed so as to appear on the screen when, for example, an action of replying is performed or the display object is not displayed on the display. Further, the display object may be displayed so as to perform an action of making the character as a display object angry or sad in accordance with a predetermined wording or voice volume. Furthermore, an operation such as movement and turning may be displayed in response to the sound source (called direction).
また、特定された光源の色(白色、暖色)や撮影部により撮像した画像の色(輝度等)に基づき、表示オブジェクトの色合いを変えるように表示してもよい。また、光源の色等の情報に応じて、表示オブジェクトがディスプレイ106に対する表示設定を変更するような情報を提示するようにしてもよい。 Further, the display object may be displayed so that the hue of the display object is changed based on the specified color of the light source (white, warm color) or the color of the image captured by the photographing unit (luminance, etc.). In addition, information that the display object changes the display setting for the display 106 may be presented in accordance with information such as the color of the light source.
また、環境情報には、端末装置自身の動作情報を含めてもよい。例えば、動作情報として端末装置の撮影部に対する撮影操作が挙げられる。この場合に、表示オブジェクトがディスプレイ上で表示されている際に、端末装置が備える撮像部(カメラ)に対し撮影操作を行った場合、表示オブジェクトが撮影ポーズをとるように表示を制御してもよい。また、撮影操作を連続して行う場合には、その撮影操作ごとに異なる動作(撮影ポーズ)を行うようにしてもよい。 The environment information may include operation information of the terminal device itself. For example, the operation information includes a photographing operation on the photographing unit of the terminal device. In this case, when the display object is displayed on the display and the shooting operation is performed on the imaging unit (camera) included in the terminal device, the display object may be controlled so that the display object takes a shooting pose. Good. In addition, when the shooting operation is continuously performed, a different operation (shooting pose) may be performed for each shooting operation.
また、環境情報には、現時点での時刻やディスプレイ上に表示している画面が変化せずに経過した時間を含め、この情報に基づいて、表示オブジェクトの表示内容を制御してもよい。例えば、現時点での時刻が夜中である場合には、表示オブジェクトのキャラクターが寝ている動作を行ったり、夜用の服装となったりするように制御してもよい。また、朝の時刻である場合には、歯磨きを行うような時刻特有の動作を行うような表示を行ってもよい。また、ディスプレイ上に表示している画面が変化せずに経過した時間が所定の閾値を超えた場合には、表示オブジェクトを表示しないように制御したり、ユーザに対して何らかの働きかけを行うように表示オブジェクトの表示を制御したりしてもよい。 Further, the environment information may include the current time and the time elapsed without changing the screen displayed on the display, and the display content of the display object may be controlled based on this information. For example, when the current time is midnight, control may be performed so that the character of the display object performs a sleeping action or wears clothes for the night. Further, when it is morning time, a display that performs a time-specific operation such as brushing teeth may be performed. In addition, when the elapsed time without changing the screen displayed on the display exceeds a predetermined threshold value, the display object is controlled not to be displayed, or the user is encouraged to do something. The display of the display object may be controlled.
また、環境情報に含まれる温度や湿度の情報に応じて、表示オブジェクトの動作や表示を切り替えてもよい。例えば、温度が一定の閾値を超えた場合には、薄手の服装となるような表示を行ってもよいし、ユーザに対しメッセージ(例えば、水分を取っているか)を提示するような表示を行ってもよい。また、位置情報に応じて、ユーザ(携帯端末)がいる位置を特定し、その位置に応じた表示を行ってもよい。例えば、その地域の民族衣装やその地域の気候や時期に合せた服装となるように表示を行ってもよい。 Further, the operation and display of the display object may be switched according to the temperature and humidity information included in the environment information. For example, when the temperature exceeds a certain threshold value, display may be performed so that the clothes are thin, or display that presents a message (for example, whether water is being taken) to the user is performed. May be. Further, the position where the user (mobile terminal) is located may be specified according to the position information, and the display corresponding to the position may be performed. For example, the display may be performed so that the national costume of the area and the clothes according to the climate and time of the area.
以上、本願発明では、ユーザが有する端末装置において表示している画像上にユーザ所望の表示オブジェクトを重畳表示させ、その端末装置がある環境に応じてユーザ所望の表示オブジェクトの表示を切り替える。これにより、ユーザは、自身が体験している実環境に応じたオブジェクトの表示変更(オブジェクトによるリアクション)を、端末装置を介して得ることができる。その結果、ユーザ自身とオブジェクト(例えば、アニメのキャラクター)とが同一の環境において、同じ体験をしているといった、ユーザの満足度を向上させ、新たなエンターテイメントの提供が可能となる。 As described above, in the present invention, the display object desired by the user is superimposed on the image displayed on the terminal device possessed by the user, and the display of the display object desired by the user is switched according to the environment in which the terminal device is present. Thereby, the user can obtain the display change (reaction by the object) of the object according to the real environment that the user is experiencing via the terminal device. As a result, the user's satisfaction that the user himself and the object (for example, an anime character) are experiencing the same experience in the same environment can be improved, and new entertainment can be provided.
10…端末装置、100…制御部、103…撮像部、104…GPS処理部、105…ジャイロセンサ、106…ディスプレイ、107…深さセンサ、108…通信部、109…加速度センサ、110…地磁気センサ、111…温度/湿度センサ DESCRIPTION OF SYMBOLS 10 ... Terminal device 100 ... Control part 103 ... Imaging part 104 ... GPS processing part 105 ... Gyro sensor 106 ... Display 107 ... Depth sensor 108 ... Communication part 109 ... Acceleration sensor 110 ... Geomagnetic sensor 111 ... temperature / humidity sensor
Claims (13)
実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定手段と、
前記撮像装置を介して三次元空間画像を取得する第1の取得手段と、
前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段と、
前記端末装置の環境情報を取得する第2の取得手段と、
前記三次元モデルにおける、前記第2の取得手段にて取得された環境情報が発される起点の位置を特定する第3の特定手段と、
ディスプレイにて表示している画像上において、前記三次元空間画像に含まれるジスオブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示手段と、
前記第2の取得手段にて取得される環境情報の変化および前記第3の特定手段にて特定された環境情報が発される位置に応じて、前記所定の画像の表示を変化させる制御手段と
を備えることを特徴とする端末装置。 A terminal device comprising an imaging device,
First specifying means for specifying a position of the terminal device in a three-dimensional model of real space;
First acquisition means for acquiring a three-dimensional spatial image via the imaging device;
Second specifying means for specifying a positional relationship between the position of the terminal device in the three-dimensional model and a real object included in the three-dimensional space image;
Second acquisition means for acquiring environmental information of the terminal device;
Third specifying means for specifying a position of a starting point from which the environmental information acquired by the second acquiring means is emitted in the three-dimensional model;
Display means for superimposing and displaying a predetermined image on the image displayed on the display, based on the positional relationship between the giz object included in the three-dimensional space image and the terminal device;
Control means for changing the display of the predetermined image in accordance with a change in environmental information acquired by the second acquisition means and a position where the environmental information specified by the third specifying means is emitted; A terminal device comprising:
前記制御手段は、前記動作情報に基づいて、前記所定の画像を変化させることを特徴とする請求項1に記載の端末装置。 Further comprising third acquisition means for acquiring operation information of the terminal device;
The terminal device according to claim 1, wherein the control unit changes the predetermined image based on the operation information.
実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定工程と、
前記撮像装置を介して三次元空間画像を取得する第1の取得工程と、
前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定工程と、
前記端末装置の環境情報を取得する第2の取得工程と、
前記三次元モデルにおける、前記第2の取得工程にて取得された環境情報が発される起点の位置を特定する第3の特定工程と、
ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示工程と、
前記第2の取得工程にて取得された環境情報の変化および前記第3の特定工程にて特定された環境情報が発される位置に応じて、前記所定の画像の表示を変化させる制御工程と
を有することを特徴とする制御方法。 A method for controlling a terminal device including an imaging device,
A first specifying step of specifying a position of the terminal device in a three-dimensional model of real space;
A first acquisition step of acquiring a three-dimensional spatial image via the imaging device;
A second specifying step of specifying a positional relationship between the position of the terminal device in the three-dimensional model and a real object included in the three-dimensional space image;
A second acquisition step of acquiring environmental information of the terminal device;
A third specifying step of specifying a position of a starting point from which the environmental information acquired in the second acquiring step is emitted in the three-dimensional model;
On the image displayed on the display, based on the positional relationship between the real object included in the three-dimensional space image and the terminal device, a display step of superimposing and displaying a predetermined image;
A control step of changing the display of the predetermined image in accordance with a change in the environmental information acquired in the second acquisition step and a position where the environmental information specified in the third specification step is emitted; A control method characterized by comprising:
実空間の三次元モデルにおける前記コンピュータの位置を特定する第1の特定手段、
前記撮像装置を介して三次元空間画像を取得する第1の取得手段、
前記三次元モデルにおける前記コンピュータの位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段、
前記コンピュータの環境情報を取得する第2の取得手段、
前記三次元モデルにおける、前記第2の取得手段にて取得された環境情報が発される起点の位置を特定する第3の特定手段、
ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記コンピュータの位置関係に基づき、所定の画像を重畳して表示する表示手段、
前記第2の取得手段にて取得された環境情報の変化および前記第3の特定手段にて特定される環境情報が発される位置に応じて、前記所定の画像の表示を変化させる制御手段
として機能させるためのプログラム。 A computer comprising an imaging device;
First specifying means for specifying the position of the computer in a three-dimensional model of real space;
First acquisition means for acquiring a three-dimensional spatial image via the imaging device;
Second specifying means for specifying a positional relationship between the position of the computer in the three-dimensional model and a real object included in the three-dimensional space image;
Second acquisition means for acquiring environmental information of the computer;
Third specifying means for specifying the position of the starting point from which the environmental information acquired by the second acquiring means is emitted in the three-dimensional model;
Display means for superimposing and displaying a predetermined image based on the positional relationship between the real object included in the three-dimensional space image and the computer on the image displayed on the display;
Control means for changing the display of the predetermined image in accordance with a change in the environmental information acquired by the second acquisition means and a position where the environmental information specified by the third specification means is emitted. A program to make it work.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019071287A JP2019169154A (en) | 2019-04-03 | 2019-04-03 | Terminal device and control method thereof, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019071287A JP2019169154A (en) | 2019-04-03 | 2019-04-03 | Terminal device and control method thereof, and program |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017040276A Division JP6541701B2 (en) | 2017-03-03 | 2017-03-03 | Terminal device, control method therefor, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019169154A true JP2019169154A (en) | 2019-10-03 |
Family
ID=68108461
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019071287A Pending JP2019169154A (en) | 2019-04-03 | 2019-04-03 | Terminal device and control method thereof, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019169154A (en) |
Cited By (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022155665A (en) * | 2021-03-31 | 2022-10-14 | ミサワホーム株式会社 | In-home display system |
| JP2023543746A (en) * | 2020-09-25 | 2023-10-18 | アップル インコーポレイテッド | Methods for manipulating objects in the environment |
| US12099695B1 (en) | 2023-06-04 | 2024-09-24 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
| US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
| US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
| US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12112009B2 (en) | 2021-04-13 | 2024-10-08 | Apple Inc. | Methods for providing an immersive experience in an environment |
| US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| US12148078B2 (en) | 2022-09-16 | 2024-11-19 | Apple Inc. | System and method of spatial groups in multi-user communication sessions |
| US12164739B2 (en) | 2020-09-25 | 2024-12-10 | Apple Inc. | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| US12299251B2 (en) | 2021-09-25 | 2025-05-13 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
| US12321563B2 (en) | 2020-12-31 | 2025-06-03 | Apple Inc. | Method of grouping user interfaces in an environment |
| US12321666B2 (en) | 2022-04-04 | 2025-06-03 | Apple Inc. | Methods for quick message response and dictation in a three-dimensional environment |
| US12353672B2 (en) | 2020-09-25 | 2025-07-08 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| US12405704B1 (en) | 2022-09-23 | 2025-09-02 | Apple Inc. | Interpreting user movement as direct touch user interface interactions |
| US12443273B2 (en) | 2021-02-11 | 2025-10-14 | Apple Inc. | Methods for presenting and sharing content in an environment |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| US12475635B2 (en) | 2022-01-19 | 2025-11-18 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| US12511009B2 (en) | 2022-04-21 | 2025-12-30 | Apple Inc. | Representations of messages in a three-dimensional environment |
| US12511847B2 (en) | 2023-06-04 | 2025-12-30 | Apple Inc. | Methods for managing overlapping windows and applying visual effects |
| US12524977B2 (en) | 2022-01-12 | 2026-01-13 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
| US12524142B2 (en) | 2023-01-30 | 2026-01-13 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying sets of controls in response to gaze and/or gesture inputs |
| US12524956B2 (en) | 2022-09-24 | 2026-01-13 | Apple Inc. | Methods for time of day adjustments for environments and environment presentation during communication sessions |
| US12535931B2 (en) | 2023-09-22 | 2026-01-27 | Apple Inc. | Methods for controlling and interacting with a three-dimensional environment |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008041107A (en) * | 2007-09-10 | 2008-02-21 | Sanyo Electric Co Ltd | Imaging apparatus and image synthesizer |
| JP2014182719A (en) * | 2013-03-21 | 2014-09-29 | Yasuaki Iwai | Virtual reality presentation system, and virtual reality presentation method |
| JP2015118574A (en) * | 2013-12-18 | 2015-06-25 | マイクロソフト コーポレーション | Construction of augmented reality environment with pre-calculated lighting |
-
2019
- 2019-04-03 JP JP2019071287A patent/JP2019169154A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008041107A (en) * | 2007-09-10 | 2008-02-21 | Sanyo Electric Co Ltd | Imaging apparatus and image synthesizer |
| JP2014182719A (en) * | 2013-03-21 | 2014-09-29 | Yasuaki Iwai | Virtual reality presentation system, and virtual reality presentation method |
| JP2015118574A (en) * | 2013-12-18 | 2015-06-25 | マイクロソフト コーポレーション | Construction of augmented reality environment with pre-calculated lighting |
Cited By (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12164739B2 (en) | 2020-09-25 | 2024-12-10 | Apple Inc. | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments |
| JP2023543746A (en) * | 2020-09-25 | 2023-10-18 | アップル インコーポレイテッド | Methods for manipulating objects in the environment |
| US12353672B2 (en) | 2020-09-25 | 2025-07-08 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
| US12315091B2 (en) | 2020-09-25 | 2025-05-27 | Apple Inc. | Methods for manipulating objects in an environment |
| JP7624510B2 (en) | 2020-09-25 | 2025-01-30 | アップル インコーポレイテッド | Method for manipulating objects in an environment - Patents.com |
| US12321563B2 (en) | 2020-12-31 | 2025-06-03 | Apple Inc. | Method of grouping user interfaces in an environment |
| US12443273B2 (en) | 2021-02-11 | 2025-10-14 | Apple Inc. | Methods for presenting and sharing content in an environment |
| JP7518791B2 (en) | 2021-03-31 | 2024-07-18 | ミサワホーム株式会社 | In-house display system |
| JP2022155665A (en) * | 2021-03-31 | 2022-10-14 | ミサワホーム株式会社 | In-home display system |
| US12112009B2 (en) | 2021-04-13 | 2024-10-08 | Apple Inc. | Methods for providing an immersive experience in an environment |
| US12299251B2 (en) | 2021-09-25 | 2025-05-13 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| US12524977B2 (en) | 2022-01-12 | 2026-01-13 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
| US12475635B2 (en) | 2022-01-19 | 2025-11-18 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| US12321666B2 (en) | 2022-04-04 | 2025-06-03 | Apple Inc. | Methods for quick message response and dictation in a three-dimensional environment |
| US12511009B2 (en) | 2022-04-21 | 2025-12-30 | Apple Inc. | Representations of messages in a three-dimensional environment |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12461641B2 (en) | 2022-09-16 | 2025-11-04 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12148078B2 (en) | 2022-09-16 | 2024-11-19 | Apple Inc. | System and method of spatial groups in multi-user communication sessions |
| US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
| US12405704B1 (en) | 2022-09-23 | 2025-09-02 | Apple Inc. | Interpreting user movement as direct touch user interface interactions |
| US12524956B2 (en) | 2022-09-24 | 2026-01-13 | Apple Inc. | Methods for time of day adjustments for environments and environment presentation during communication sessions |
| US12524142B2 (en) | 2023-01-30 | 2026-01-13 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying sets of controls in response to gaze and/or gesture inputs |
| US12541280B2 (en) | 2023-02-24 | 2026-02-03 | Apple Inc. | System and method of three-dimensional placement and refinement in multi-user communication sessions |
| US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
| US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| US12511847B2 (en) | 2023-06-04 | 2025-12-30 | Apple Inc. | Methods for managing overlapping windows and applying visual effects |
| US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
| US12099695B1 (en) | 2023-06-04 | 2024-09-24 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
| US12535931B2 (en) | 2023-09-22 | 2026-01-27 | Apple Inc. | Methods for controlling and interacting with a three-dimensional environment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2019169154A (en) | Terminal device and control method thereof, and program | |
| JP6541701B2 (en) | Terminal device, control method therefor, and program | |
| US11138796B2 (en) | Systems and methods for contextually augmented video creation and sharing | |
| US10339718B1 (en) | Methods and systems for projecting augmented reality content | |
| KR20150012274A (en) | Operating a computing device by detecting rounded objects in image | |
| WO2018043732A1 (en) | Object display system, user terminal device, object display method, and program | |
| JP5255789B2 (en) | Image processing program and image processing apparatus | |
| CN108848313B (en) | A multi-person photographing method, terminal and storage medium | |
| US20210263168A1 (en) | System and method to determine positioning in a virtual coordinate system | |
| US20200137815A1 (en) | Communication connection method, terminal device and wireless communication system | |
| JP6524124B2 (en) | Computer program, terminal and method | |
| US10636214B2 (en) | Vertical plane object simulation | |
| CN108426346B (en) | Method and device for displaying contextual model of air conditioner and storage medium | |
| GB2581249A (en) | Systems and methods for generating a lighting design | |
| WO2020258258A1 (en) | Target tracking method and system, readable storage medium and moving platform | |
| JP6665402B2 (en) | Content display terminal, content providing system, content providing method, and content display program | |
| WO2015159775A1 (en) | Image processing apparatus, communication system, communication method, and image-capturing device | |
| CN119832193A (en) | Virtual reality interaction system, virtual reality interaction method and related equipment thereof | |
| JP2018124926A (en) | Terminal device, method for controlling terminal device, and computer program | |
| JP7137173B2 (en) | COLLECTION SYSTEM, TERMINAL PROGRAM AND COLLECTION METHOD | |
| JP6982203B2 (en) | Character image generator, character image generation method and program | |
| JP2024071379A (en) | Computer program, information processing terminal, and control method thereof | |
| JP6843178B2 (en) | Character image generator, character image generation method, program and recording medium | |
| JP2019160332A (en) | Computer program, terminal, and method | |
| JP2019133276A (en) | Image processing system and terminal |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190403 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200616 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200626 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200824 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210122 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210203 |