[go: up one dir, main page]

JP7715373B2 - Selection device - Google Patents

Selection device

Info

Publication number
JP7715373B2
JP7715373B2 JP2021051297A JP2021051297A JP7715373B2 JP 7715373 B2 JP7715373 B2 JP 7715373B2 JP 2021051297 A JP2021051297 A JP 2021051297A JP 2021051297 A JP2021051297 A JP 2021051297A JP 7715373 B2 JP7715373 B2 JP 7715373B2
Authority
JP
Japan
Prior art keywords
angle
selection
unit
indicator
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021051297A
Other languages
Japanese (ja)
Other versions
JP2022149238A (en
Inventor
右貴 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2021051297A priority Critical patent/JP7715373B2/en
Publication of JP2022149238A publication Critical patent/JP2022149238A/en
Application granted granted Critical
Publication of JP7715373B2 publication Critical patent/JP7715373B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、選択装置、選択方法、プログラムに関する。 The present invention relates to a selection device, a selection method, and a program.

AR/MR(Augmented Reality / Mixed Reality)グラスなどの表示装置に表示されたオブジェクトを選択する際に用いられる技術が知られている。 Technology is known that is used to select objects displayed on display devices such as AR/MR (Augmented Reality/Mixed Reality) glasses.

例えば、特許文献1には、コンピュータにおける、仮想空間内で操作オブジェクトが対象オブジェクトを選択するための情報処理方法が記載されている。特許文献1によると、情報処理方法は、コンピュータのプロセッサにおいて、操作オブジェクトの一部の異なる2点の仮想空間内の3次元座標を取得するステップと、異なる2点の仮想空間内座標の中点を算出するステップと、中点から最も近い対象オブジェクトを選択するステップと、を実行することを特徴とする。 For example, Patent Document 1 describes an information processing method for a computer in which a control object selects a target object in a virtual space. According to Patent Document 1, the information processing method is characterized in that the processor of the computer executes the following steps: acquiring the three-dimensional coordinates in the virtual space of two different points on the control object; calculating the midpoint of the coordinates in the virtual space of the two different points; and selecting the target object that is closest to the midpoint.

特開2020-204873号公報Japanese Patent Application Laid-Open No. 2020-204873

例えば、非常に近い位置に複数のオブジェクトが存在する場合、複数のオブジェクトが重なって表示されることがある。このような場合、選択したいオブジェクトを選択可能な個所が小さくなる、または、無いような事態が生じうる。その結果、特許文献1に記載されているような技術では、選択したいオブジェクトではないオブジェクトが選択されてしまうなど、選択したいオブジェクトの選択を行うことが難しいおそれがあった。 For example, when multiple objects are located very close to each other, they may be displayed overlapping each other. In such cases, the area in which the desired object can be selected may become small, or may not exist at all. As a result, with technology such as that described in Patent Document 1, there is a risk that an object other than the desired object may be selected, making it difficult to select the desired object.

そこで、本発明の目的は、選択したいオブジェクトを選択することが難しい場合がある、という課題を解決する選択装置、選択方法、プログラムを提供することにある。 The object of the present invention is to provide a selection device, selection method, and program that solves the problem that it can sometimes be difficult to select the object you want to select.

かかる目的を達成するため本開示の一形態である選択装置は、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定する設定部と、
選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得する取得部と、
前記設定部による設定の結果と、前記取得部による取得の結果と、に基づいて、選択するオブジェクトを決定する決定部と、
を有する
という構成をとる。
In order to achieve this object, a selection device according to one embodiment of the present disclosure comprises:
a setting unit that sets a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
an acquisition unit that acquires an angle of a pointer used when selecting an object from among selection candidate objects;
a determination unit that determines an object to be selected based on the result of the setting by the setting unit and the result of the acquisition by the acquisition unit;
The configuration is as follows:

また、本開示の他の形態である選択方法は、
情報処理装置が、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、
選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得し、
設定の結果と、取得の結果と、に基づいて、選択するオブジェクトを決定する
という構成をとる。
Furthermore, a selection method according to another aspect of the present disclosure includes:
The information processing device
setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
acquiring an angle of a pointer used when selecting an object from among the selection candidate objects;
The object to be selected is determined based on the setting result and the acquisition result.

また、本開示の他の形態であるプログラムは、
情報処理装置に、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、
選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得し、
設定の結果と、取得の結果と、に基づいて、選択するオブジェクトを決定する
処理を実現するためのプログラムである。
Furthermore, a program according to another aspect of the present disclosure includes:
In the information processing device,
setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
acquiring an angle of a pointer used when selecting an object from among the selection candidate objects;
This is a program for implementing the process of determining the object to be selected based on the setting results and the acquisition results.

上述したような各構成によると、オブジェクトが近い位置に配置されている場合などであっても選択したいオブジェクトを的確に選択することが可能な選択装置、選択方法、プログラムを提供することが出来る。 The above-described configurations make it possible to provide a selection device, selection method, and program that allows users to accurately select the object they want to select, even when the objects are located close to each other.

本開示の第1の実施形態における選択システムを説明するための図である。FIG. 1 is a diagram illustrating a selection system according to a first embodiment of the present disclosure. 表示装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a display device. 設定角度情報の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of set angle information. 角度算出部の処理例を説明するための図である。10A and 10B are diagrams for explaining an example of processing by an angle calculation unit; 角度算出部の処理例を説明するための図である。10A and 10B are diagrams for explaining an example of processing by an angle calculation unit; 決定部の処理例を説明するための図である。10A and 10B are diagrams for explaining an example of processing by a determination unit; 決定部の処理例を説明するための図である。10A and 10B are diagrams for explaining an example of processing by a determination unit; 表示部による表示の一例を示す図である。FIG. 4 is a diagram illustrating an example of a display by a display unit. 表示装置の動作例を示すフローチャートである。10 is a flowchart illustrating an example of the operation of the display device. 本開示の第2の実施形態における選択装置のハードウェア構成例を示す図である。FIG. 10 is a diagram illustrating an example of a hardware configuration of a selection device according to a second embodiment of the present disclosure. 選択装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a selection device.

[第1の実施形態]
本開示の第1の実施形態について、図1から図9を参照して説明する。図1は、選択システムを説明するための図である。図2は、表示装置100の構成例を示すブロック図である。図3は、設定角度情報142の一例を説明するための図である。図4、図5は、角度算出部154の処理例を説明するための図である。図6、図7は、決定部155の処理例を説明するための図である。図8は、表示部156による表示の一例を示す図である。図9は、表示装置100の動作例を示すフローチャートである。
[First embodiment]
A first embodiment of the present disclosure will be described with reference to FIGS. 1 to 9. FIG. 1 is a diagram for explaining a selection system. FIG. 2 is a block diagram showing an example of the configuration of the display device 100. FIG. 3 is a diagram for explaining an example of set angle information 142. FIGS. 4 and 5 are diagrams for explaining an example of processing by the angle calculation unit 154. FIGS. 6 and 7 are diagrams for explaining an example of processing by the determination unit 155. FIG. 8 is a diagram showing an example of display by the display unit 156. FIG. 9 is a flowchart showing an example of operation of the display device 100.

本開示の第1の実施形態においては、仮想空間に表示中のオブジェクトを選択する選択システムについて説明する。本実施形態において説明する選択システムの場合、図1で示すように、指示体である手を用いてオブジェクトを選択する。また、後述するように、選択システムは、指示体による選択の結果として複数のオブジェクトが選択候補であると判断される場合、選択候補である複数のオブジェクトに角度を割り当てることで、各オブジェクトに対応する角度を設定する。また、処理システムは、指示体である手の角度を算出する。そして、処理システムは、設定した結果と、算出した指示体の角度と、に基づいて、選択候補の中から選択するオブジェクトを決定する。 In the first embodiment of the present disclosure, a selection system for selecting an object displayed in a virtual space will be described. In the selection system described in this embodiment, as shown in FIG. 1, an object is selected using a hand, which serves as an indicator. Furthermore, as will be described later, when the selection system determines that multiple objects are selection candidates as a result of selection using the indicator, it assigns angles to the multiple selection candidate objects, thereby setting an angle corresponding to each object. Furthermore, the processing system calculates the angle of the hand, which serves as the indicator. The processing system then determines the object to select from the selection candidates based on the setting result and the calculated angle of the indicator.

なお、複数のオブジェクトが選択候補であると判断される場合とは、例えば、指示体が指示する位置において複数のオブジェクトが重なっている場合や指示体が選択したオブジェクト近傍(任意の範囲でよい)に他のオブジェクトが存在する場合など、オブジェクトの選択誤りが生じるおそれがあると想定される場合である。このような所定範囲内に複数のオブジェクトが存在している場合、オブジェクトが重なっていることなどにより、選択したいオブジェクトの選択を的確に行うことが出来ないことがある。そこで、選択システムは、選択候補を選ぶための処理を行う。 When multiple objects are determined to be selection candidates, this occurs when there is a risk of selecting the wrong object, for example, when multiple objects overlap at the position pointed to by the pointer, or when other objects exist near the object selected by the pointer (any range is acceptable). When multiple objects exist within such a predetermined range, it may be impossible to accurately select the desired object due to the objects overlapping. Therefore, the selection system performs processing to select selection candidates.

本実施形態において説明する選択システムは、表示装置100を含んでいる。表示装置100は、予め記憶されたオブジェクトの表示を行うとともに、指示体である手を検出して表示中のオブジェクトの選択を行う選択装置である。例えば、表示装置100は、選択システムを利用する利用者の頭などに装着されるヘッドマウントディスプレイ(HMD)などの情報処理装置である。表示装置100は、センサを有する検出・選択装置とAR/MR(Augmented Reality / Mixed Reality)グラスなどの画面表示装置など複数の装置から構成されてもよい。なお、表示装置100は、液晶ディスプレイなどの画面表示装置を有するなど、利用者の頭に装着されるもの以外であってもよい。 The selection system described in this embodiment includes a display device 100. The display device 100 is a selection device that displays pre-stored objects and detects a hand, which serves as a pointer, to select an object being displayed. For example, the display device 100 is an information processing device such as a head-mounted display (HMD) that is worn on the head of a user who uses the selection system. The display device 100 may be composed of multiple devices, such as a detection/selection device with a sensor and a screen display device such as AR/MR (Augmented Reality/Mixed Reality) glasses. Note that the display device 100 may be something other than one worn on the user's head, such as one that has a screen display device such as an LCD display.

図2は、表示装置100の構成例を示している。図2を参照すると、表示装置100は、主な構成要素として、例えば、検知部110と、画面表示部120と、通信I/F部130と、記憶部140と、演算処理部150と、を有している。 Figure 2 shows an example configuration of the display device 100. Referring to Figure 2, the main components of the display device 100 include, for example, a detection unit 110, a screen display unit 120, a communication I/F unit 130, a memory unit 140, and an arithmetic processing unit 150.

検知部110は、指示体などを検知するセンサを含んでいる。例えば、検知部110は、深度センサやRGBカメラなどを含んでいる。また、検知部110は、表示装置100の向きや傾きなどを検知するためのセンサを含むことが出来る。例えば、検知部110は、磁気センサ、加速度センサ、ジャイロセンサなどのうちの少なくとも1つを含むことが出来る。また、検知部110は、表示装置100を装着した利用者の目の動きを検知するアイトラッキングセンサなどを含んでもよい。検知部110は、上記例示した以外のセンサを含んでもよい。 The detection unit 110 includes a sensor that detects a pointer, etc. For example, the detection unit 110 includes a depth sensor, an RGB camera, etc. The detection unit 110 can also include a sensor for detecting the orientation or tilt of the display device 100. For example, the detection unit 110 can include at least one of a magnetic sensor, an acceleration sensor, a gyro sensor, etc. The detection unit 110 can also include an eye tracking sensor that detects the eye movement of a user wearing the display device 100. The detection unit 110 may also include sensors other than those exemplified above.

画面表示部120は、LCD(Liquid Crystal Display、液晶ディスプレイ)などの画面表示装置からなる。例えば、画面表示部120は、透過型のLCDディスプレイや透過型有機ELディスプレイなどである。画面表示部120は、演算処理部150からの指示に応じて、記憶部140に格納された各種情報などを画面表示することが出来る。 The screen display unit 120 is composed of a screen display device such as an LCD (Liquid Crystal Display). For example, the screen display unit 120 is a transmissive LCD display or a transmissive organic EL display. The screen display unit 120 can display various information stored in the memory unit 140 on the screen in response to instructions from the calculation processing unit 150.

通信I/F部130は、データ通信回路からなる。通信I/F部130は、通信回線を介して接続された外部装置との間でデータ通信を行う。 The communication I/F unit 130 consists of a data communication circuit. The communication I/F unit 130 performs data communication with external devices connected via a communication line.

記憶部140は、ハードディスクやメモリなどの記憶装置である。記憶部140は、演算処理部150における各種処理に必要な処理情報やプログラム143を記憶する。プログラム143は、演算処理部150に読み込まれて実行されることにより各種処理部を実現する。プログラム143は、通信I/F部130などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部140に保存されている。記憶部140で記憶される主な情報としては、例えば、オブジェクト情報141や設定角度情報142などがある。 The memory unit 140 is a storage device such as a hard disk or memory. The memory unit 140 stores processing information and programs 143 required for various processes in the calculation processing unit 150. The programs 143 are read into the calculation processing unit 150 and executed to realize various processing units. The programs 143 are read in advance from an external device or recording medium via a data input/output function such as the communication I/F unit 130, and are stored in the memory unit 140. Examples of the main information stored in the memory unit 140 include object information 141 and set angle information 142.

オブジェクト情報141は、仮想空間上に表示するオブジェクトについての情報を含んでいる。例えば、オブジェクト情報141には、オブジェクトを識別するための識別情報、形状や色など仮想空間上に表示するオブジェクト自体についての情報である表示内容情報、オブジェクトを表示する仮想空間上の位置を示す位置情報、などが含まれうる。オブジェクト情報141には、上記例示した以外のオブジェクトが含まれてもよい。オブジェクト情報141は、通信I/F部130などを介して外部装置などから予め取得され、記憶部140に格納されている。 Object information 141 includes information about objects to be displayed in virtual space. For example, object information 141 may include identification information for identifying the object, display content information that is information about the object itself to be displayed in virtual space, such as shape and color, and location information that indicates the location in virtual space where the object is to be displayed. Object information 141 may also include objects other than those exemplified above. Object information 141 is acquired in advance from an external device or the like via communication I/F unit 130 or the like, and is stored in storage unit 140.

設定角度情報142は、後述する角度設定部153により設定された、指示体である手の角度と選択候補になる各オブジェクトの関係を示している。例えば、設定角度情報142では、指示体の角度の範囲を示す情報と、当該範囲に割り当てられたオブジェクトを示す情報(例えば、識別情報など)と、が対応付けられている。設定角度情報142は、角度設定部153がオブジェクトを角度に割り当てることで生成・更新される。 The set angle information 142 indicates the relationship between the angle of the hand, which is the indicator, and each object that is a selection candidate, as set by the angle setting unit 153 described below. For example, the set angle information 142 associates information indicating the range of the indicator angle with information indicating the object assigned to that range (e.g., identification information, etc.). The set angle information 142 is generated and updated when the angle setting unit 153 assigns an object to an angle.

図3は、設定角度情報142が示す情報の一例を示している。例えば、図3で示す例の場合、0度以上45度未満に球形のオブジェクトが割り当てられ、45度以上90度未満に直方体のオブジェクトが割り当てられている。また、90度以上135度未満に円錐のオブジェクトが割り当てられ、135度以上180度未満に星形のオブジェクトが割り当てられている。このように、設定角度情報142には、選択候補となった各オブジェクトについて角度を割り当てた結果を示す情報が含まれている。 Figure 3 shows an example of the information indicated by the set angle information 142. For example, in the example shown in Figure 3, a spherical object is assigned to an angle between 0 degrees and less than 45 degrees, and a rectangular parallelepiped object is assigned to an angle between 45 degrees and less than 90 degrees. Furthermore, a conical object is assigned to an angle between 90 degrees and less than 135 degrees, and a star-shaped object is assigned to an angle between 135 degrees and less than 180 degrees. In this way, the set angle information 142 includes information indicating the result of assigning an angle to each object that is a selection candidate.

なお、設定角度情報142で割り当てられるオブジェクトの数は、選択対象となるオブジェクトの数に応じたものとなる。そのため、設定角度情報142で割り当てられるオブジェクトの数は4つに限られない。また、設定角度情報142では、0度~180度以外の範囲の角度が割り当てられていてもよい。 Note that the number of objects assigned by the set angle information 142 corresponds to the number of objects to be selected. Therefore, the number of objects assigned by the set angle information 142 is not limited to four. Furthermore, the set angle information 142 may assign an angle in a range other than 0 degrees to 180 degrees.

演算処理部150は、CPUなどの演算装置とその周辺回路を有する。演算処理部150は、記憶部140からプログラム143を読み込んで実行することにより、上記ハードウェアとプログラム143とを協働させて各種処理部を実現する。演算処理部150で実現される主な処理部としては、例えば、検出部151、選択部152、角度設定部153、角度算出部154、決定部155、表示部156などがある。 The arithmetic processing unit 150 has an arithmetic device such as a CPU and its peripheral circuits. The arithmetic processing unit 150 reads and executes the program 143 from the storage unit 140, thereby enabling the above hardware and the program 143 to work together to realize various processing units. The main processing units realized by the arithmetic processing unit 150 include, for example, a detection unit 151, a selection unit 152, an angle setting unit 153, an angle calculation unit 154, a determination unit 155, and a display unit 156.

検出部151は、検知部110が検知した結果に基づいて、手などの予め定められた指示体を検出する。 The detection unit 151 detects a predetermined indicator, such as a hand, based on the results detected by the detection unit 110.

例えば、検出部151は、RGBカメラが取得した画像データや深度センサが取得した深度情報などを用いて、指示体である手を検出する。検出部151は、パターンマッチングを用いる、予め機械学習することで取得したモデルを用いるなど、既知の技術を用いて指示体の検出を行ってよい。 For example, the detection unit 151 detects the hand, which is the pointer, using image data acquired by an RGB camera and depth information acquired by a depth sensor. The detection unit 151 may detect the pointer using known techniques, such as pattern matching or a model acquired in advance through machine learning.

選択部152は、検出部151が検出した結果を用いて仮想空間上に表示されているオブジェクトを選択する。例えば、選択部152は、検出部151が検出した指示体である手と仮想空間上において重なる位置に存在するオブジェクトを選択する、仮想空間上において指示体である手から予め定められた条件に応じて伸びるレイが衝突するオブジェクトを選択するなど、既知の技術を用いてオブジェクトを選択することが出来る。選択部152は、検出部151が検出した手が所定の動作を行った際などにオブジェクトの選択を行ってもよい。 The selection unit 152 selects an object displayed in virtual space using the results of detection by the detection unit 151. For example, the selection unit 152 can select an object using known techniques, such as selecting an object that exists in a position in virtual space that overlaps with the hand that is the indicator detected by the detection unit 151, or selecting an object that collides with a ray that extends from the hand that is the indicator in virtual space according to predetermined conditions. The selection unit 152 may select an object when the hand detected by the detection unit 151 performs a predetermined action.

また、選択部152は、上記処理により選択されるオブジェクトが所定の条件を満たす場合、複数のオブジェクトが選択候補であると判断する。例えば、選択部152は、指示体が指示する位置において複数のオブジェクトが重なっている場合や指示体が選択したオブジェクト近傍に他のオブジェクトが存在する場合など、予め定められた条件を満たす場合において、条件に応じた複数のオブジェクトが選択候補であると判断する。換言すると、選択部152は、オブジェクトの表示状況に基づいてオブジェクトの選択誤りが生じるおそれがあると想定される場合に、条件に応じた複数のオブジェクトが選択候補であると判断する。一方、上記のような条件を満たさない場合、選択部152は、選択候補のオブジェクトが1つであると判断する。選択候補のオブジェクトが1つである場合、選択部152は、当該オブジェクトを選択するオブジェクトとして決定する。 Furthermore, if the objects selected by the above process satisfy predetermined conditions, the selection unit 152 determines that multiple objects are selection candidates. For example, if a predetermined condition is satisfied, such as when multiple objects overlap at the position pointed to by the indicator or when another object exists near the object selected by the indicator, the selection unit 152 determines that multiple objects according to the condition are selection candidates. In other words, if it is expected that an incorrect object may be selected based on the display status of the objects, the selection unit 152 determines that multiple objects according to the condition are selection candidates. On the other hand, if the above conditions are not satisfied, the selection unit 152 determines that there is only one selection candidate object. If there is only one selection candidate object, the selection unit 152 determines that object as the object to be selected.

角度設定部153は、選択部152が複数のオブジェクトを選択候補とした場合に、選択候補となる各オブジェクトに対して角度を割り当てることで、各オブジェクトに対応する角度の範囲を設定する。そして、角度設定部153は、設定した結果を設定角度情報142として記憶部140に格納する。 When the selection unit 152 selects multiple objects as selection candidates, the angle setting unit 153 assigns an angle to each of the selection candidate objects, thereby setting an angle range corresponding to each object. The angle setting unit 153 then stores the setting results in the storage unit 140 as set angle information 142.

例えば、角度設定部153は、選択部152が選択候補とした各オブジェクトに対して、予め定められた範囲の角度を均等に割り当てる。例えば、選択部152が選択候補としたオブジェクトの数が4つであった場合、角度設定部153は、図3示すように4つのオブジェクトそれぞれに対して45度ずつ割り当てる。例えば、図3の場合、角度設定部153は、0度以上45度未満に球形のオブジェクトを割り当て、45度以上90度未満に直方体のオブジェクトを割り当てる。また、90度以上135度未満に円錐のオブジェクトを割り当て、135度以上180度未満に星形のオブジェクトを割り当てる。 For example, the angle setting unit 153 uniformly assigns angles within a predetermined range to each object selected as a selection candidate by the selection unit 152. For example, if the number of objects selected as selection candidates by the selection unit 152 is four, the angle setting unit 153 assigns 45 degrees to each of the four objects, as shown in FIG. 3. For example, in the case of FIG. 3, the angle setting unit 153 assigns spherical objects to angles between 0 degrees and less than 45 degrees, and rectangular parallelepiped objects to angles between 45 degrees and less than 90 degrees. Furthermore, the angle setting unit 153 assigns conical objects to angles between 90 degrees and less than 135 degrees, and star-shaped objects to angles between 135 degrees and less than 180 degrees.

なお、角度設定部153が割り当てる角度の範囲は0度から180度まで以外であってもよい。例えば、角度設定部153は、0度から90度までの範囲の角度を割り当ててもよいし、0度から360度までの範囲を割り当ててもよい。また、角度設定部153は、-90度から90度までなどの範囲を割り当ててもよい。また、角度設定部153が割り当てる角度の範囲は、例えば選択部152が選択対象として選択したオブジェクトの数などに応じて変動してもよい。例えば、角度設定部153は、選択部152が選択対象として選択したオブジェクトの数が多くなるほど割り当てる角度の範囲がより広くなるように構成してもよい。また、角度設定部153による角度の割り当ては、必ずしも各オブジェクトに対して均等でなくてもよい。 The range of angles assigned by the angle setting unit 153 may be other than 0 to 180 degrees. For example, the angle setting unit 153 may assign angles in the range of 0 to 90 degrees, or 0 to 360 degrees. The angle setting unit 153 may also assign a range such as -90 to 90 degrees. The range of angles assigned by the angle setting unit 153 may vary depending on, for example, the number of objects selected by the selection unit 152 as selection targets. For example, the angle setting unit 153 may be configured to assign a wider range of angles as the number of objects selected by the selection unit 152 as selection targets increases. The angle assignment by the angle setting unit 153 does not necessarily have to be uniform for each object.

角度算出部154は、検知部110が検出した手の形状や傾きなどに基づいて、検出部151が検出した指示体である手の角度を算出することで、指示体である手の角度を取得する。換言すると、例えば、角度算出部154は、検知部110が検知した結果や検出部141による検出結果など(例えば、カメラやセンサなどが取得したデータなど)に基づいて、指示体である手の角度を算出する。 The angle calculation unit 154 acquires the angle of the hand that is the indicator by calculating the angle of the hand that is the indicator detected by the detection unit 151 based on the shape and tilt of the hand detected by the detection unit 110. In other words, the angle calculation unit 154 calculates the angle of the hand that is the indicator based on the results of detection by the detection unit 110 and the results of detection by the detection unit 141 (for example, data acquired by a camera, sensor, etc.).

例えば、角度算出部154は、手のひらが上を向いて地面などの基準面と平行になっている状態を基準として、手の角度を算出する。例えば、図4で示すように、角度算出部154は、手のひらが上を向いて地面と平行になっている状態について0度を算出する。また、角度算出部154は、基準面に対する手のひら(と平行な面)の角度を手の角度として算出する。例えば、図5の場合。角度算出部154は、手の角度が80度である旨を算出する。また、角度算出部154は、手のひらが下を向いて地面と平行になっている状態について180度を算出する。例えば、このように、角度算出部154は、腕の長さ方向を軸にした腕の回転に応じた手の内転または外転に応じた角度を手の角度として算出する。 For example, the angle calculation unit 154 calculates the angle of the hand based on a state in which the palm is facing up and parallel to a reference plane such as the ground. For example, as shown in FIG. 4, the angle calculation unit 154 calculates 0 degrees when the palm is facing up and parallel to the ground. The angle calculation unit 154 also calculates the angle of the palm (or a plane parallel to it) with respect to the reference plane as the hand angle. For example, in the case of FIG. 5, the angle calculation unit 154 calculates that the hand angle is 80 degrees. The angle calculation unit 154 also calculates 180 degrees when the palm is facing down and parallel to the ground. For example, in this way, the angle calculation unit 154 calculates the angle corresponding to the adduction or abduction of the hand according to the rotation of the arm around the axis along the length of the arm as the hand angle.

なお、角度算出部154は、既知の手段を用いて、手の形状や傾きなどの判断を行ってよい。 The angle calculation unit 154 may use known means to determine the shape and tilt of the hand.

決定部155は、設定角度情報142と、角度算出部154による算出の結果と、に基づいて、選択候補となるオブジェクトの中から選択するオブジェクトを決定する。 The determination unit 155 determines an object to select from among the candidate objects based on the set angle information 142 and the result of the calculation by the angle calculation unit 154.

例えば、決定部155は、角度算出部154が算出した角度が設定角度情報142においてどのオブジェクトに対して割り当てられているか確認する。そして、決定部155は、設定角度情報142において角度算出部154が算出した角度が割り当てられているオブジェクトを選択するオブジェクトとして決定する。 For example, the determination unit 155 checks to which object the angle calculated by the angle calculation unit 154 is assigned in the set angle information 142. Then, the determination unit 155 determines the object to which the angle calculated by the angle calculation unit 154 is assigned in the set angle information 142 as the object to be selected.

例えば、図6は、角度算出部154が0度を算出した場合について例示している。この場合、角度算出部154による算出結果は、0度以上45度未満の範囲に入る。そこで、決定部155は、上記範囲に対応する球形のオブジェクトを選択するオブジェクトとして決定する。 For example, Figure 6 illustrates a case where the angle calculation unit 154 calculates 0 degrees. In this case, the calculation result by the angle calculation unit 154 falls within the range of 0 degrees or more and less than 45 degrees. Therefore, the determination unit 155 determines a spherical object that corresponds to the above range as the object to be selected.

また、例えば、図7は、角度算出部154が80度を算出した場合について例示している。この場合、角度算出部154による算出結果は、45度以上90度未満の範囲に入る。そこで、決定部155は、上記範囲に対応する直方体のオブジェクトを選択するオブジェクトとして決定する。 For example, Figure 7 illustrates a case where the angle calculation unit 154 calculates 80 degrees. In this case, the calculation result by the angle calculation unit 154 falls within the range of 45 degrees or more and less than 90 degrees. Therefore, the determination unit 155 determines the rectangular parallelepiped object corresponding to the above range as the object to be selected.

例えば、以上のように、決定部155は、角度設定部153による設定処理において、角度算出部154が算出した角度が割り当てられたオブジェクトを選択するオブジェクトとして決定する。 For example, as described above, the determination unit 155 determines, in the setting process by the angle setting unit 153, the object to be selected is the object to which the angle calculated by the angle calculation unit 154 is assigned.

表示部156は、オブジェクト情報141に基づいて、オブジェクトの表示を行う。つまり、表示部156は、オブジェクト情報141が示す位置にオブジェクト情報141が示す形状のオブジェクトを表示する。また、表示部156は、決定部155による決定の結果に応じた表示を行うことが出来る。例えば、表示部156は、選択候補となったオブジェクトのうち決定部155が決定したオブジェクトのみを表示することが出来る。この際、表示部156は、決定部155が決定したオブジェクト以外の選択候補となったオブジェクトを表示しなくてもよいし、例えば透過的に表示するなどしてもよい。 The display unit 156 displays objects based on the object information 141. That is, the display unit 156 displays an object of the shape indicated by the object information 141 at the position indicated by the object information 141. The display unit 156 can also display an object according to the result of the determination by the determination unit 155. For example, the display unit 156 can display only the object determined by the determination unit 155 from among the objects that have become selection candidates. In this case, the display unit 156 may not display the objects that have become selection candidates other than the object determined by the determination unit 155, or may display them transparently, for example.

例えば、図8は、角度算出部154が0度を算出した場合の表示部156による表示例を示している。この場合、上述したように、決定部155は、例えば球形のオブジェクトを選択するオブジェクトとして決定する。そのため、表示部156は、球形のオブジェクトを表示する。 For example, Figure 8 shows an example of a display by the display unit 156 when the angle calculation unit 154 calculates 0 degrees. In this case, as described above, the determination unit 155 determines, for example, a spherical object as the object to be selected. Therefore, the display unit 156 displays a spherical object.

以上が、表示装置100の構成例である。続いて、図9を参照して表示装置100の動作例について説明する。 The above is an example configuration of the display device 100. Next, an example operation of the display device 100 will be described with reference to Figure 9.

図9は、表示装置100の動作例を示している。図9を参照すると、選択部152は、検出部151が検出した結果を用いて仮想空間上に表示されているオブジェクトを選択する(ステップS101)。 Figure 9 shows an example of the operation of the display device 100. Referring to Figure 9, the selection unit 152 selects an object displayed in the virtual space using the results of detection by the detection unit 151 (step S101).

また、選択部152は、選択されたオブジェクトが予め定められた条件を満たすか否か確認する(ステップS102)。選択されたオブジェクトが予め定められた条件を満たさない場合(ステップS102、No)、選択部152は、選択されたオブジェクトを選択するオブジェクトとして決定する。一方、選択されたオブジェクトが予め定められた条件を満たす場合(ステップS102、Yes)、選択部152は、満たす条件に応じた複数のオブジェクトが選択候補であると判断する。 The selection unit 152 also checks whether the selected object satisfies predetermined conditions (step S102). If the selected object does not satisfy the predetermined conditions (step S102, No), the selection unit 152 determines the selected object as the object to be selected. On the other hand, if the selected object satisfies the predetermined conditions (step S102, Yes), the selection unit 152 determines that multiple objects that satisfy the predetermined conditions are selection candidates.

複数のオブジェクトが選択候補となった場合、角度設定部153は、選択候補となる各オブジェクトに対して角度を割り当てることで、各オブジェクトに対応する角度の範囲を設定する(ステップS103)。また、角度算出部154は、検知部110が検出した手の形状や傾きなどに基づいて、検出部151が検出した指示体である手の角度を算出する(ステップS104)。そして、決定部155は、角度設定部153が設定した結果と、角度算出部154による算出の結果と、に基づいて、選択候補となるオブジェクトの中から選択するオブジェクトを決定する(ステップS105)。 When multiple objects are selected as selection candidates, the angle setting unit 153 assigns an angle to each selection candidate object, thereby setting an angle range for each object (step S103). The angle calculation unit 154 calculates the angle of the hand, which is the indicator detected by the detection unit 151, based on the shape and tilt of the hand detected by the detection unit 110 (step S104). The determination unit 155 then determines the object to select from the selection candidate objects based on the result set by the angle setting unit 153 and the result of calculation by the angle calculation unit 154 (step S105).

表示部156は、決定部155による決定の結果に応じた表示を行う(ステップS106)。例えば、表示部156は、選択候補となる複数のオブジェクトのうち決定部155が決定したオブジェクトのみを表示する。 The display unit 156 displays an image according to the result of the determination made by the determination unit 155 (step S106). For example, the display unit 156 displays only the object determined by the determination unit 155 from among the multiple objects that are candidates for selection.

このように、表示装置100は角度設定部153と角度算出部154と決定部155とを有している。このような構成によると、決定部155は、角度設定部153が設定した結果と、角度算出部154による算出の結果と、に基づいて、選択候補となるオブジェクトの中から選択するオブジェクトを決定することが出来る。これにより、例えば、オブジェクトが重複しているなど的確なオブジェクトの選択を行うことが難しい場合でも的確にオブジェクトの選択を行うことが可能となる。 In this way, the display device 100 has an angle setting unit 153, an angle calculation unit 154, and a determination unit 155. With this configuration, the determination unit 155 can determine an object to select from among the candidate objects based on the result set by the angle setting unit 153 and the result of calculation by the angle calculation unit 154. This makes it possible to accurately select an object even when it is difficult to accurately select an object, for example, when there are overlapping objects.

なお、本実施形態においては、記憶部140がオブジェクト情報141を有する場合について例示した。しかしながら、オブジェクト情報141は、外部の記憶装置に格納されていてもよい。換言すると、表示装置100は、通信I/F部130を介して取得したオブジェクト情報141に基づく表示を行うよう構成してもよい。 In this embodiment, the example is given where the storage unit 140 has object information 141. However, the object information 141 may be stored in an external storage device. In other words, the display device 100 may be configured to perform display based on the object information 141 acquired via the communication I/F unit 130.

また、本実施形態においては、指示体として手を検出する場合について例示した。しかしながら、指示体は手以外であってもよい。例えば、指示体は、コントローラなどの装置であってもよいし、目、頭、上腕部などの手以外の人体などであってもよい。例えば、指示体として手以外の人体を採用する場合、角度設定部153は、視点の向く方向、ひじを軸にした回転角、頭の傾き又は頭の回転角度、などを選択候補となるオブジェクトに割り当てることが出来る。また、指示体としてコントローラなどの装置を採用する場合、角度算出部154は、例えば、コントローラなどの装置が有する磁気センサ、加速度センサ、ジャイロセンサなどのセンサが取得したデータに基づいて指示体の角度を算出してよい。 Furthermore, in this embodiment, an example has been given in which a hand is detected as the indicator. However, the indicator may be something other than a hand. For example, the indicator may be a device such as a controller, or a human body part other than a hand, such as an eye, head, or upper arm. For example, when a human body part other than a hand is used as the indicator, the angle setting unit 153 can assign the direction of the viewpoint, the angle of rotation around the elbow, the tilt or angle of the head, etc. to objects that are candidates for selection. Furthermore, when a device such as a controller is used as the indicator, the angle calculation unit 154 may calculate the angle of the indicator based on data acquired by a sensor such as a magnetic sensor, acceleration sensor, or gyro sensor included in the device such as the controller.

また、本実施形態においては、選択部152が選択を行う際に用いる指示体と、角度算出部154が角度を算出する指示体(つまり、選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体)とが同一である場合について例示した。しかしながら、選択部152が選択を行う際に用いる指示体と、角度算出部154が角度を算出する指示体とは異なっていてもよい。例えば、表示装置100は、指示体であるコントローラに応じてオブジェクトの選択を行った後、選択候補となるオブジェクトの中からアイトラッキングの結果に応じて選択するオブジェクトを決定してもよい。このように、表示装置100は、複数の指示体を含んでいてもよい。 Furthermore, in this embodiment, an example has been given in which the indicator used by the selection unit 152 when making a selection and the indicator for which the angle calculation unit 154 calculates the angle (i.e., the indicator used when selecting an object from among the selection candidate objects) are the same. However, the indicator used by the selection unit 152 when making a selection and the indicator for which the angle calculation unit 154 calculates the angle may be different. For example, the display device 100 may select an object in accordance with the controller, which is the indicator, and then determine the object to select from among the selection candidate objects in accordance with the results of eye tracking. In this way, the display device 100 may include multiple indicators.

また、本実施形態においては、検知部110が有するカメラやセンサなどが取得したデータに基づいて角度算出部154が手の角度を算出する場合について説明した。しかしながら、表示装置100は、利用者から指示体の角度を示す情報の入力を受け付けるなどの方法により、手などの指示体の角度を示す情報を取得してもよい。つまり、指示体の角度は、物理的に測定されたものであってもよいし、利用者の主観で推定されたものなどであってもよい。利用者から指示体の角度を示す情報の入力を受け付ける場合、表示装置100は角度算出部154を有さなくてもよい。 In addition, in this embodiment, a case has been described in which the angle calculation unit 154 calculates the angle of the hand based on data acquired by a camera, sensor, or the like included in the detection unit 110. However, the display device 100 may acquire information indicating the angle of a pointer such as a hand by, for example, accepting input of information indicating the angle of the pointer from a user. In other words, the angle of the pointer may be physically measured or may be subjectively estimated by the user. When accepting input of information indicating the angle of the pointer from a user, the display device 100 does not need to include the angle calculation unit 154.

[第2実施形態]
次に、図10、図11を参照して、本開示の第2の実施形態について説明する。本開示の第2の実施形態では、情報処理装置である選択装置200の構成の概要について説明する。
Second Embodiment
Next, a second embodiment of the present disclosure will be described with reference to Fig. 10 and Fig. 11. In the second embodiment of the present disclosure, an overview of the configuration of a selection device 200 that is an information processing device will be described.

図10は、選択装置200のハードウェア構成例を示している。図10を参照すると、選択装置200は、一例として、以下のようなハードウェア構成を有している。
・CPU(Central Processing Unit)201(演算装置)
・ROM(Read Only Memory)202(記憶装置)
・RAM(Random Access Memory)203(記憶装置)
・RAM203にロードされるプログラム群204
・プログラム群204を格納する記憶装置205
・情報処理装置外部の記録媒体210の読み書きを行うドライブ装置206
・情報処理装置外部の通信ネットワーク211と接続する通信インタフェース207
・データの入出力を行う入出力インタフェース208
・各構成要素を接続するバス209
Fig. 10 shows an example of the hardware configuration of the selection device 200. Referring to Fig. 10, the selection device 200 has, as an example, the following hardware configuration.
・CPU (Central Processing Unit) 201 (arithmetic unit)
ROM (Read Only Memory) 202 (storage device)
RAM (Random Access Memory) 203 (storage device)
Program group 204 loaded into RAM 203
A storage device 205 that stores the program group 204
A drive device 206 that reads and writes data from and to a recording medium 210 outside the information processing device
A communication interface 207 that connects to a communication network 211 outside the information processing device
Input/output interface 208 for inputting and outputting data
A bus 209 that connects each component

また、選択装置200は、プログラム群204をCPU201が取得して当該CPU201が実行することで、図11に示す設定部221、取得部222、決定部223としての機能を実現することが出来る。なお、プログラム群204は、例えば、予め記憶装置205やROM202に格納されており、必要に応じてCPU201がRAM203などにロードして実行する。また、プログラム群204は、通信ネットワーク211を介してCPU201に供給されてもよいし、予め記録媒体210に格納されており、ドライブ装置206が該プログラムを読み出してCPU201に供給してもよい。 The selection device 200 can realize the functions of the setting unit 221, acquisition unit 222, and determination unit 223 shown in FIG. 11 by having the CPU 201 acquire and execute the program group 204. The program group 204 is stored in advance in, for example, the storage device 205 or ROM 202, and is loaded into the RAM 203 or the like by the CPU 201 for execution as needed. The program group 204 may be supplied to the CPU 201 via the communication network 211, or may be stored in advance on the recording medium 210, with the drive device 206 reading out the programs and supplying them to the CPU 201.

なお、図10は、選択装置200のハードウェア構成例を示している。選択装置200のハードウェア構成は上述した場合に限定されない。例えば、選択装置200は、ドライブ装置206を有さないなど、上述した構成の一部から構成されてもよい。 Note that Figure 10 shows an example hardware configuration of the selection device 200. The hardware configuration of the selection device 200 is not limited to the above-described case. For example, the selection device 200 may be configured with only a portion of the above-described configuration, such as excluding the drive device 206.

設定部221は、所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定する。 The setting unit 221 sets the corresponding angle range for each of the multiple objects that become selection candidates as a result of a predetermined selection process.

取得部222は、選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得する。 The acquisition unit 222 acquires the angle of the pointer used when selecting an object from among the selection candidate objects.

決定部223は、設定部221による設定の結果と、取得部222による取得の結果と、に基づいて、選択するオブジェクトを決定する。 The determination unit 223 determines the object to select based on the results of the setting by the setting unit 221 and the results of the acquisition by the acquisition unit 222.

このように、選択装置200は設定部221と取得部222と決定部223とを有している。このような構成によると、決定部223は、設定部221による設定の結果と、取得部222による取得の結果と、に基づいて、選択するオブジェクトを決定することが出来る。これにより、的確なオブジェクトの選択を行うことが難しい場合でも的確にオブジェクトの選択を行うことが可能となる。 As such, the selection device 200 has a setting unit 221, an acquisition unit 222, and a determination unit 223. With this configuration, the determination unit 223 can determine the object to select based on the results of the setting by the setting unit 221 and the results of acquisition by the acquisition unit 222. This makes it possible to accurately select an object even when it is difficult to do so.

なお、上述した選択装置200などの情報処理装置は、当該情報処理装置に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、情報処理装置に、所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得し、設定の結果と、取得の結果と、に基づいて、選択するオブジェクトを決定する、処理を実現するためのプログラムである。 Note that an information processing device such as the selection device 200 described above can be realized by incorporating a predetermined program into the information processing device. Specifically, another form of the program of the present invention is a program for implementing processing in an information processing device: setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process; acquiring the angle of the indicator used when selecting an object from the selection candidate objects; and determining the object to select based on the setting result and the acquired result.

また、上述した情報処理装置により実行される選択方法は、情報処理装置が、所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得し、設定の結果と、取得の結果と、に基づいて、選択するオブジェクトを決定する、というものである。 The selection method executed by the information processing device described above involves the information processing device setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process, acquiring the angle of the indicator used when selecting an object from the selection candidate objects, and determining the object to select based on the setting result and the acquired result.

上述した構成を有する、プログラム(又は記録媒体)、又は、選択方法などの発明であっても、上述した場合と同様の作用・効果を有するために、上述した本発明の目的を達成することが出来る。 Inventions such as a program (or recording medium) or selection method having the above-described configuration have the same functions and effects as those described above, and can therefore achieve the above-described objectives of the present invention.

<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における選択装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
<Additional Notes>
A part or all of the above-described embodiments can be described as follows: The following provides an overview of the selection device and other components of the present invention. However, the present invention is not limited to the following configuration.

(付記1)
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定する設定部と、
選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得する取得部と、
前記設定部による設定の結果と、前記取得部による取得の結果と、に基づいて、選択するオブジェクトを決定する決定部と、
を有する
選択装置。
(付記2)
前記決定部は、前記設定部による設定処理において、前記取得部が取得した角度が設定されたオブジェクトを選択するオブジェクトとして決定する
付記1に記載の選択装置。
(付記3)
前記設定部は、選択候補となる各オブジェクトに対して予め定められた範囲の角度を割り当てることで各オブジェクトに対して角度の範囲を設定する
付記1または付記2に記載の選択装置。
(付記4)
前記設定部は、選択候補となる各オブジェクトに対して予め定められた範囲の角度を均等に割り当てることで各オブジェクトに対して角度の範囲を設定する
付記1から付記3までのうちのいずれか1項に記載の選択装置。
(付記5)
指示体に基づいてオブジェクトを選択する選択部を有し、
前記選択部は、選択したオブジェクトが所定の条件を満たす場合に複数のオブジェクトが選択候補になると判断する
付記1から付記4までのうちのいずれか1項に記載の選択装置。
(付記6)
前記選択部は、オブジェクトの表示状況に基づいてオブジェクトの選択誤りが生じるおそれがあると想定される場合に、複数のオブジェクトが選択候補になると判断する
付記5に記載の選択装置。
(付記7)
前記選択部は、前記指示体が指示する位置において複数のオブジェクトが重なっている場合に、複数のオブジェクトが選択候補になると判断する
付記5または付記6に記載の選択装置。
(付記8)
前記取得部は、検知したデータに基づいて前記指示体の角度を算出することで、前記指示体の角度を取得する
付記1から付記7までのうちのいずれか1項に記載の選択装置。
(付記9)
情報処理装置が、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、
選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得し、
設定の結果と、取得の結果と、に基づいて、選択するオブジェクトを決定する
選択方法。
(付記10)
情報処理装置に、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、
選択候補となるオブジェクトの中からオブジェクトを選択する際に用いる指示体の角度を取得し、
設定の結果と、取得の結果と、に基づいて、選択するオブジェクトを決定する
処理を実現するためのプログラム。
(Appendix 1)
a setting unit that sets a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
an acquisition unit that acquires an angle of a pointer used when selecting an object from among selection candidate objects;
a determination unit that determines an object to be selected based on the result of the setting by the setting unit and the result of the acquisition by the acquisition unit;
A selection device having:
(Appendix 2)
The selection device according to claim 1, wherein the determination unit determines, in the setting process by the setting unit, an object for which the angle acquired by the acquisition unit is set, as the object to be selected.
(Appendix 3)
The selection device according to claim 1 or 2, wherein the setting unit sets the angle range for each object by assigning a predetermined range of angles to each object that is a selection candidate.
(Appendix 4)
The selection device according to any one of claims 1 to 3, wherein the setting unit sets the angle range for each object by uniformly allocating angles within a predetermined range to each object that is a selection candidate.
(Appendix 5)
a selection unit that selects an object based on a pointer;
The selection device according to any one of Supplementary Note 1 to Supplementary Note 4, wherein the selection unit determines that a plurality of objects are candidates for selection when a selected object satisfies a predetermined condition.
(Appendix 6)
The selection device according to claim 5, wherein the selection unit determines that a plurality of objects are candidates for selection when it is assumed that an erroneous object selection may occur based on a display state of the objects.
(Appendix 7)
The selection device according to claim 5 or 6, wherein the selection unit determines that a plurality of objects are selection candidates when a plurality of objects overlap at a position pointed to by the pointer.
(Appendix 8)
The selection device according to any one of Supplementary Note 1 to Supplementary Note 7, wherein the acquisition unit acquires the angle of the indicator by calculating the angle of the indicator based on detected data.
(Appendix 9)
The information processing device
setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
acquiring an angle of a pointer used when selecting an object from among the selection candidate objects;
A selection method that determines which objects to select based on the results of the set and get operations.
(Appendix 10)
In the information processing device,
setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
acquiring an angle of a pointer used when selecting an object from among the selection candidate objects;
A program for implementing the process of determining the object to select based on the setting results and the acquisition results.

なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されていたりする。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。 The programs described in the above embodiments and appendices may be stored in a storage device or on a computer-readable recording medium. For example, the recording medium may be a portable medium such as a flexible disk, optical disk, magneto-optical disk, or semiconductor memory.

以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。 The present invention has been described above with reference to the above-mentioned embodiments, but the present invention is not limited to the above-mentioned embodiments. Various modifications that would be understandable to those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

100 表示装置
110 検知部
120 画面表示部
130 通信I/F部
140 記憶部
141 オブジェクト情報
142 設定角度情報
143 プログラム
150 演算処理部
151 検出部
152 選択部
153 角度設定部
154 角度算出部
155 決定部
156 表示部
200 選択装置
201 CPU
202 ROM
203 RAM
204 プログラム群
205 記憶装置
206 ドライブ装置
207 通信インタフェース
208 入出力インタフェース
209 バス
210 記録媒体
211 通信ネットワーク
221 設定部
222 取得部
223 決定部

REFERENCE SIGNS LIST 100 Display device 110 Detection unit 120 Screen display unit 130 Communication I/F unit 140 Storage unit 141 Object information 142 Set angle information 143 Program 150 Arithmetic processing unit 151 Detection unit 152 Selection unit 153 Angle setting unit 154 Angle calculation unit 155 Decision unit 156 Display unit 200 Selection device 201 CPU
202 ROM
203 RAM
204 Program group 205 Storage device 206 Drive device 207 Communication interface 208 Input/output interface 209 Bus 210 Recording medium 211 Communication network 221 Setting unit 222 Acquisition unit 223 Decision unit

Claims (9)

所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定する設定部と、
指示体の角度を取得する取得部と、
前記設定部による設定の結果と、前記取得部による取得の結果と、に基づいて、前記取得部が取得した指示体の角度と対応する角度が設定されたオブジェクトを選択する決定部と、
を有し、
前記取得部は、前記指示体が基準面と平行になっている状態を基準として、前記指示体の傾きに応じた前記指示体の角度を取得する
選択装置。
a setting unit that sets a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
an acquisition unit that acquires the angle of the indicator;
a determination unit that selects an object having an angle set corresponding to the angle of the pointer acquired by the acquisition unit, based on the result of setting by the setting unit and the result of acquisition by the acquisition unit;
and
The acquisition unit acquires an angle of the indicator according to an inclination of the indicator, based on a state in which the indicator is parallel to a reference plane.
Selection device.
前記設定部は、選択候補となる各オブジェクトに対して予め定められた範囲の角度を割り当てることで各オブジェクトに対して角度の範囲を設定する
請求項1に記載の選択装置。
The selection device according to claim 1 , wherein the setting unit sets the angle range for each object by assigning a predetermined range of angles to each object that is a selection candidate.
前記設定部は、選択候補となる各オブジェクトに対して予め定められた範囲の角度を均等に割り当てることで各オブジェクトに対して角度の範囲を設定する
請求項1に記載の選択装置。
The selection device according to claim 1 , wherein the setting unit sets the angle range for each object by uniformly allocating angles within a predetermined range to each object that is a selection candidate.
前記指示体を用いてオブジェクトを選択する選択部を有し、
前記選択部は、選択したオブジェクトが所定の条件を満たす場合に複数のオブジェクトが選択候補になると判断する
請求項1に記載の選択装置。
a selection unit for selecting an object using the pointer,
The selection device according to claim 1 , wherein the selection unit determines that a plurality of objects are candidates for selection when a selected object satisfies a predetermined condition.
前記選択部は、オブジェクトの表示状況に基づいてオブジェクトの選択誤りが生じるおそれがあると想定される場合に、複数のオブジェクトが選択候補になると判断する
請求項に記載の選択装置。
The selection device according to claim 4 , wherein the selection unit determines that a plurality of objects are candidates for selection when it is assumed that an erroneous object selection may occur based on the display status of the objects.
前記選択部は、前記指示体が指示する位置において複数のオブジェクトが重なっている場合に、複数のオブジェクトが選択候補になると判断する
請求項に記載の選択装置。
The selection device according to claim 4 , wherein the selection unit determines that a plurality of objects are selection candidates when a plurality of objects overlap at the position pointed to by the pointer.
前記取得部は、検知したデータに基づいて前記指示体の角度を算出することで、前記指示体の角度を取得する
請求項に記載の選択装置。
The selection device according to claim 1 , wherein the acquisition unit acquires the angle of the indicator by calculating the angle of the indicator based on detected data.
情報処理装置が、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、
指示体の角度を取得し、
定の結果と、取得の結果と、に基づいて、取得した指示体の角度と対応する角度が設定されたオブジェクトを選択し、
前記指示体の角度を取得する際は、前記指示体が基準面と平行になっている状態を基準として、前記指示体の傾きに応じた前記指示体の角度を取得する
選択方法。
The information processing device
setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
Obtain the angle of the indicator,
Selecting an object having an angle set corresponding to the angle of the acquired indicator based on the setting result and the acquisition result;
When acquiring the angle of the indicator, the state in which the indicator is parallel to a reference plane is used as a reference, and the angle of the indicator according to the inclination of the indicator is acquired.
How to select.
情報処理装置に、
所定の選択処理の結果として選択候補となる複数のオブジェクトそれぞれに対して対応する角度の範囲を設定し、
指示体の角度を取得し、
定の結果と、取得の結果と、に基づいて、取得した指示体の角度と対応する角度が設定されたオブジェクトを選択する
処理を実現させ、
前記指示体の角度を取得する際は、前記指示体が基準面と平行になっている状態を基準として、前記指示体の傾きに応じた前記指示体の角度を取得する
プログラム。
In the information processing device,
setting a corresponding angle range for each of a plurality of objects that become selection candidates as a result of a predetermined selection process;
Obtain the angle of the indicator,
selecting an object having an angle set corresponding to the angle of the acquired pointer based on the setting result and the acquisition result ;
When acquiring the angle of the indicator, the state in which the indicator is parallel to a reference plane is used as a reference, and the angle of the indicator according to the inclination of the indicator is acquired.
program.
JP2021051297A 2021-03-25 2021-03-25 Selection device Active JP7715373B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021051297A JP7715373B2 (en) 2021-03-25 2021-03-25 Selection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021051297A JP7715373B2 (en) 2021-03-25 2021-03-25 Selection device

Publications (2)

Publication Number Publication Date
JP2022149238A JP2022149238A (en) 2022-10-06
JP7715373B2 true JP7715373B2 (en) 2025-07-30

Family

ID=83462974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021051297A Active JP7715373B2 (en) 2021-03-25 2021-03-25 Selection device

Country Status (1)

Country Link
JP (1) JP7715373B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121042A (en) 2017-12-28 2019-07-22 株式会社デンソー Target selection device
JP2021009552A (en) 2019-07-01 2021-01-28 株式会社東芝 Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121042A (en) 2017-12-28 2019-07-22 株式会社デンソー Target selection device
JP2021009552A (en) 2019-07-01 2021-01-28 株式会社東芝 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2022149238A (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US10950205B2 (en) Electronic device, augmented reality device for providing augmented reality service, and method of operating same
JP5847939B2 (en) Touch intelligent targeting
KR102602808B1 (en) Electronic device and method for changing condition for determining touch input as pressure input in electronic device
JP6110893B2 (en) Virtual space location designation method, program, recording medium recording program, and apparatus
WO2020039703A1 (en) Input device
CN103135887A (en) Information processing apparatus, information processing method and program
TW201911024A (en) Electronic device, method and system for detecting fingers and non-transitory computer-readable medium
US10593223B2 (en) Action evaluation apparatus, action evaluation method, and computer-readable storage medium
CN115885244A (en) Touch-limited area for touch-sensitive displays
JP2013008250A (en) Cursor control device, cursor control method, and cursor control program
JP7715373B2 (en) Selection device
TWI739795B (en) Input information processing program, computer device, program execution method, and input information processing system
US12340017B2 (en) Multiple-magnet hand-mounted position-tracking device
JPH07248872A (en) Input device and arithmetic input / output device
TWI766258B (en) Method for selecting interactive objects on display medium of device
JP7452917B2 (en) Operation input device, operation input method and program
US10936147B2 (en) Tablet computing device with display dock
JP6293293B2 (en) How to establish routines for multi-sensor measurement equipment
JP7583948B2 (en) Display Control Device
JP2016024518A (en) Coordinate detection system, coordinate detection method, information processing device and program
JP7411534B2 (en) Instrument reading system, instrument reading program
US20230333661A1 (en) Work support system and work support method
KR20250089089A (en) Electronic device for represnting graphcial object and method for operating thereof
JP7564371B2 (en) Virtual space providing device
WO2022202065A1 (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20250311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250710

R150 Certificate of patent or registration of utility model

Ref document number: 7715373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150