JP2016110296A - Wearable device, information processing method, and program - Google Patents
Wearable device, information processing method, and program Download PDFInfo
- Publication number
- JP2016110296A JP2016110296A JP2014245220A JP2014245220A JP2016110296A JP 2016110296 A JP2016110296 A JP 2016110296A JP 2014245220 A JP2014245220 A JP 2014245220A JP 2014245220 A JP2014245220 A JP 2014245220A JP 2016110296 A JP2016110296 A JP 2016110296A
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- wearable device
- information
- type device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供する。【解決手段】ウェアラブルデバイスは、ユーザの現在地と、オブジェクトの位置との間の相対位置関係を示す表示オブジェクトを表示し、ユーザの身体状態を検知し、検知された身体状態に応じて、表示オブジェクトの表示部への可視の度合を変更するように制御する。【選択図】図3A technique capable of realizing a useful function using a wearable device is provided. A wearable device displays a display object indicating a relative positional relationship between a user's current location and the position of an object, detects a user's physical state, and displays the display object according to the detected physical state. Control to change the degree of visibility on the display unit. [Selection] Figure 3
Description
本発明は、情報処理技術に関する。 The present invention relates to information processing technology.
近年、様々なウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイスである。例えば、特許文献1には頭部に装着する眼鏡型のウェアラブルデバイスについて開示されている。 In recent years, various wearable devices have been developed. A wearable device is a device that is assumed to be worn by a user on a body (for example, an arm or a head). For example, Patent Document 1 discloses a glasses-type wearable device worn on the head.
ウェアラブルデバイスは、ユーザの身体に装着されるという点に特徴を有するデバイスであり、そのような特徴を利用した有益な機能を実現可能な技術が期待されている。 A wearable device is a device characterized in that it is worn on a user's body, and a technology that can realize a useful function using such a feature is expected.
本発明は上記に鑑みてなされたものであり、その目的は、ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供することにある。 The present invention has been made in view of the above, and an object thereof is to provide a technology capable of realizing a useful function using a wearable device.
本発明に係るウェアラブルデバイスは、ユーザの現在地と、オブジェクトの位置との間の相対位置関係を示す表示オブジェクトを表示する表示手段と、前記ユーザの身体状態を検知する検知手段と、
前記検知された身体状態に応じて、前記表示手段により表示された前記表示オブジェクトの可視の度合を変更するように制御する表示制御手段とを備える。
The wearable device according to the present invention includes a display unit that displays a display object indicating a relative positional relationship between the current location of the user and the position of the object, a detection unit that detects the physical state of the user,
Display control means for controlling to change the degree of visibility of the display object displayed by the display means in accordance with the detected physical condition.
本発明に係る情報処理方法は、ユーザの現在地と、オブジェクトの位置との間の相対位置関係を示す表示オブジェクトを表示する表示ステップと、前記ユーザの身体状態を検知する検知ステップと、前記検知された身体状態に応じて、前記表示ステップにより表示された前記表示オブジェクトの可視の度合を変更するように制御する表示制御ステップとを備える。 The information processing method according to the present invention includes a display step of displaying a display object indicating a relative positional relationship between the current location of the user and the position of the object, a detection step of detecting the physical state of the user, and the detection. A display control step of controlling the display object displayed in the display step so as to change the degree of visibility according to the physical state.
本発明に係るプログラムは、ユーザの現在地と、オブジェクトの位置との間の相対位置関係を示す表示オブジェクトを表示する表示ステップと、前記ユーザの身体状態を検知する検知ステップと、前記検知された身体状態に応じて、前記表示ステップにより表示された前記表示オブジェクトの可視の度合を変更するように制御する表示制御ステップとを実行させる。 The program according to the present invention includes a display step of displaying a display object indicating a relative positional relationship between the current location of the user and the position of the object, a detection step of detecting the physical state of the user, and the detected body A display control step is executed to control the display object displayed by the display step so as to change the degree of visibility according to the state.
また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。 The program of the present invention can be installed or loaded on a computer through various recording media such as an optical disk such as a CD-ROM, a magnetic disk, and a semiconductor memory, or via a communication network. .
本発明によれば、ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can implement | achieve the useful function using a wearable device can be provided.
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to these.
[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
[Hardware configuration]
With reference to FIG. 1, an example of a hardware configuration of an information processing system according to an embodiment will be described. The information processing system 1 is a system for providing various services using wearable devices. The information processing system 1 mainly includes a server device 10, a glasses-type device 20, and a mobile terminal 30. The glasses-type device 20 and the portable terminal 30 can communicate with the server apparatus 10 via the network N. The eyeglass-type device 20 can communicate with the mobile terminal 30 (for example, via Bluetooth (registered trademark) or Wi-Fi (registered trademark)). For example, the information processing system 1 can provide various information providing services based on map information to a user who wears the glasses-type device 20 that is a wearable device and carries the mobile terminal 30.
ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、又はこれらの少なくとも一部の組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。 The network N is a communication line for transmitting and receiving information between the server apparatus 10 and the glasses-type device 20 and the mobile terminal 30. The network N may be, for example, the Internet, a LAN, a dedicated line, a packet communication network, a telephone line, a corporate network, another communication line, or a combination of at least a part of these, and is it wired? It does not matter whether it is wireless (or a combination thereof).
サーバ装置10は、専用又は汎用のサーバコンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。 The server device 10 is configured by an information processing device such as a dedicated or general-purpose server computer. The server device 10 may be constituted by a single information processing device or may be constituted by a plurality of information processing devices distributed on a network.
また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。 The server device 10 mainly includes a control unit 11, a communication unit 12, and a storage unit 13. The control unit 11 mainly includes a CPU (Central Processing Unit) 11a and a memory 11b. The description of each configuration will be described later. For example, the server device 10 functions as various function implementing means by the CPU 11a executing a predetermined program stored in the memory 11b or the like. Note that FIG. 1 only shows a main configuration included in the server apparatus 10, and the server apparatus 10 includes other configurations included in a general information processing apparatus.
眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に眼鏡型デバイス20に備えるこれらの構成のそれぞれも結果として装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。 The spectacle-type device 20 is a wearable device having a spectacle-type shape. The wearable device is a device (information processing apparatus) that is assumed to be used by being worn on the body (for example, an arm or a head) by a user. That is, since the spectacle-type device 20 has a spectacle-type shape, the user can use the spectacle-type device 20 while wearing the spectacle-type device 20 on the head like wearing spectacles. The eyeglass-type device 20 mainly includes a control unit 21, a communication unit 22, a storage unit 23, an operation unit 24, a display unit 25, a camera 26, a sensor 27, and a microphone 28. The control unit 21 mainly includes a CPU 21a and a memory 21b. For example, the glasses-type device 20 functions as various function realizing means when the CPU 21a executes a predetermined program stored in the memory 21b or the like. Since the user wears each of these configurations included in the glasses-type device 20 when the glasses-type device 20 is worn, each of these configurations can be regarded as a wearable device in a narrow sense. Each of these components will be described later.
図2は、眼鏡型デバイス20の外観の例を示している。この例では、図2(A)に示すように、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。 FIG. 2 shows an example of the external appearance of the eyeglass-type device 20. In this example, as shown in FIG. 2A, it is shown that the eyeglass-type device 20 includes an operation unit 24, a display unit 25, and a camera 26 in appearance. The operation unit 24 is located on the outer side of the eyeglass-type device 20. The user can issue an operation instruction to the glasses-type device 20 by swiping or tapping the operation unit 24.
表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。この例では、図2(B)に示すように、表示部25は、単眼式の表示装置であり、眼鏡型デバイス20を装着したユーザが眼鏡型デバイス20の右側レンズの右上を見たときに表示内容を確認できるような位置に設置されている。表示部25における領域25aは、画像などの表示対象を表示可能な領域(表示可能領域)である。 The display unit 25 is configured to be installed at a position where a user wearing the spectacle-type device 20 can visually recognize display contents by a prism or the like. In this example, as shown in FIG. 2B, the display unit 25 is a monocular display device, and when the user wearing the glasses-type device 20 looks at the upper right of the right lens of the glasses-type device 20. It is installed in a position where you can check the display contents. The area 25a in the display unit 25 is an area (displayable area) where a display target such as an image can be displayed.
カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。 The camera 26 is directed in the direction of the line of sight of the user wearing the spectacle-type device 20, and is installed at a position where it is possible to capture / capture what is estimated to be viewed by the user (present at the estimated gaze point). Configured as follows.
なお、図2の例では、表示部25は、単眼式の表示装置であったが、これに限定されない。表示部25は、両眼式の表示装置であってもよく、眼鏡型デバイス20を装着したユーザが両眼で表示内容を確認できるように構成されていてもよい。具体的には、表示部25は、眼鏡型デバイス20の両眼のレンズ部分に透過型ディスプレイを設置することによって構成されてもよい。 In the example of FIG. 2, the display unit 25 is a monocular display device, but is not limited thereto. The display unit 25 may be a binocular display device, and may be configured so that a user wearing the glasses-type device 20 can check display contents with both eyes. Specifically, the display unit 25 may be configured by installing a transmissive display in the lens portion of both eyes of the eyeglass-type device 20.
図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。 Returning to the description of FIG. The mobile terminal 30 is a portable information processing device such as a mobile phone (including a smartphone), a tablet terminal, a PDA (Personal Digital Assistants), a navigation device, and a personal computer. The portable terminal 30 mainly includes a control unit 31, a communication unit 32, a storage unit 33, an operation unit 34, a display unit 35, and a positioning unit 36. The control unit 31 mainly includes a CPU 31a and a memory 31b. The description of each configuration will be described later. For example, the portable terminal 30 functions as various function realizing means by the CPU 31a executing a predetermined program stored in the memory 31b or the like.
制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各種の画像や、各情報処理装置による処理結果を表示するためのユーザインタフェースである。 The control units 11, 21, 31 control operations of various configurations of the information processing apparatuses including these, and control execution of various processes. Details of processing executed in the control units 11, 21, 31 will be described later. The communication units 12, 22, and 32 are communication interfaces for communicating with other information processing apparatuses. The storage units 13, 23, and 33 are configured by a storage device such as a hard disk. The storage units 13, 23, and 33 store various programs and various information necessary for executing processing in each information processing apparatus. The operation units 24 and 34 are user interfaces for receiving operation instructions from the user. The display units 25 and 35 are user interfaces for displaying various images and processing results obtained by the information processing apparatuses.
カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。また、センサ27により、ユーザが移動しているか、移動を停止しているかを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
The camera 26 is a device that can capture / capture still images / moving images.
The sensor 27 is composed of various sensors. The sensor 27 can include, for example, a gyro sensor, an acceleration sensor, a geomagnetic sensor, and / or an image sensor. By the sensor 27, for example, based on the direction in which the face of the user wearing the spectacle-type device 20 is facing, the azimuth of the direction of the line of sight of the user (the angle in the horizontal direction between the reference azimuth) An estimated value can be detected, or an estimated value of an elevation angle (an angle in the vertical direction with respect to the horizontal) in the direction of the user's line of sight can be detected based on the inclination of the user's head. The sensor 27 may be configured to detect the estimated values of the azimuth angle and the elevation angle in the user's line-of-sight direction from the movement of the user's eyeball. The sensor 27 can also detect blinking based on the movement of the eyelid of the user wearing the glasses-type device 20. The sensor 27 can also detect whether the user is moving or has stopped moving.
The microphone 28 is a device that converts voice / sound produced by a user wearing the glasses-type device 20 into an electrical signal.
測位部36は、GPS衛星や通信機器(例えば基地局やルーター)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(すなわち、測位情報を特定する)処理を行う。 The positioning unit 36 specifies the position (for example, latitude and longitude) of the mobile terminal 30 based on a signal received from a GPS satellite or a communication device (for example, a base station or a router), and specifies the date and time when the position is specified. Processing (that is, specifying positioning information) is performed.
以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。 As described above, in the present embodiment, the information processing system 1 includes the server device 10, the glasses-type device 20, and the mobile terminal 30, but is not limited thereto, and can include any device. In addition, a configuration having a part or all of the configurations of the server device 10, the glasses-type device 20, and the mobile terminal 30 can be grasped as an information processing system. For example, a part of the configuration of the glasses-type device 20 can be grasped as an information processing system, and a configuration in which a part of the configuration of the glasses-type device 20 and a part of the configuration of the portable terminal 30 are combined. Can be grasped as an information processing system.
[機能構成]
サーバ装置20及び眼鏡型デバイスの機能構成を以下に説明する。
1.サーバ装置
まず、一実施形態に係るサーバ装置10の機能構成の例を説明する。図示しないが、サーバ装置10は、主な機能として、データベースと、オブジェクト検索機能とを備える。
[Function configuration]
The functional configurations of the server device 20 and the eyeglass device will be described below.
1. Server Device First, an example of a functional configuration of the server device 10 according to an embodiment will be described. Although not shown, the server device 10 includes a database and an object search function as main functions.
データベースは、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。 The database stores various information such as information necessary for processing executed in the server device 10 and information generated by the processing. The database 120 stores, for example, map information and facility information. The map information includes road information, railway line information, building information, terrain information, address information, and other geographical information. The facility information includes information about facilities such as convenience stores, cafes, stations, fast food, restaurants, buildings (buildings), and the like. The facility information includes information on products and / or services handled at the facility. The facility information may be information included in the map information.
オブジェクト検索機能は、入力された検索条件に応じて、データベースを参照し、現実環境に存在するオブジェクト(例えば、コンビニエンスストア、カフェ、駅、ファーストフード、又はレストランなどに分類される施設)の検索を行う機能である。 The object search function refers to the database according to the input search conditions, and searches for objects that exist in the real environment (for example, facilities classified as convenience stores, cafes, stations, fast food, or restaurants). It is a function to perform.
2.眼鏡型デバイス
次に、図3を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、検索部211、身体状態検知部212、表示制御部213、アクション検知部214及び音声認識部215を備える。以下に各機能構成の詳細を説明する。
2. Eyeglass Type Device Next, an example of a functional configuration of the eyeglass type device 20 according to an embodiment will be described with reference to FIG. The eyeglass-type device 20 includes a search unit 211, a body state detection unit 212, a display control unit 213, an action detection unit 214, and a voice recognition unit 215 as main functional configurations. Details of each functional configuration will be described below.
検索部211は、ユーザからの操作指示に応じて、現実環境に存在するオブジェクトの検索を行う。具体的には、検索部211は、眼鏡型デバイス20のユーザからの操作指示に応じて、検索処理の実行の指示をサーバ装置10に対して送信し、検索処理の実行結果(オブジェクトについての情報)を受信する。検索処理の実行の指示には、眼鏡型デバイス20の現在地、検索対象の現在地からの距離、検索対象の種別(例えば、コンビニエンスストア、カフェ、駅、ファーストフード、又はレストランなど)、その他の検索条件が含まれる。なお、検索処理の実行の指示は、携帯端末30を介して行い、眼鏡型デバイス20は、検索結果を携帯端末30から受信するようにしてもよい。 The search unit 211 searches for an object existing in the real environment in response to an operation instruction from the user. Specifically, the search unit 211 transmits a search process execution instruction to the server device 10 in response to an operation instruction from the user of the eyeglass-type device 20, and executes the search process execution result (information about the object). ). The instruction for executing the search processing includes the current location of the glasses-type device 20, the distance from the current location of the search target, the type of search target (for example, convenience store, cafe, station, fast food or restaurant), and other search conditions. Is included. The search processing execution instruction may be given via the mobile terminal 30, and the glasses-type device 20 may receive the search result from the mobile terminal 30.
また、現在地の情報は、携帯端末30から取得される。なお、携帯端末30のユーザは、眼鏡型デバイス20も携帯しているため、携帯端末30の現在地情報は、眼鏡型デバイス20の現在地情報とみなすこともできる。また、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。 Further, the current location information is acquired from the mobile terminal 30. Since the user of the mobile terminal 30 also carries the glasses-type device 20, the current location information of the mobile terminal 30 can be regarded as the current location information of the glasses-type device 20. Further, the current location information is acquired from the mobile terminal 30, but the present location information is not limited to this, and the current location information may be specified by the eyeglass-type device 20 including a positioning processing unit and performing positioning processing.
身体状態検知部212は、センサ27により、ユーザの身体状態を検知する。検知される身体状態としては、ユーザが向いている方向、ユーザが移動しているか否か、ユーザの頭部の傾きなどが含まれる。また、ユーザの頭部の傾きには、頭部の前後方向の傾き(すなわち、ユーザが下を見る方向や上を見る方向に頭部を傾けたときなど、ユーザの視線が仰俯角方向に移動したときの頭部の傾き)や、(垂直方向に対する)頭部の左右方向の傾きが含まれる。 The body state detection unit 212 detects the user's body state using the sensor 27. The detected body condition includes the direction in which the user is facing, whether the user is moving, the inclination of the user's head, and the like. In addition, the tilt of the user's head includes the tilt of the head in the front-rear direction (that is, the user's line of sight moves in the elevation angle direction, such as when the user tilts the head in the direction of looking down or looking up And the tilt of the head in the horizontal direction (relative to the vertical direction).
表示制御部213は、検索部211による検索結果を表示部25に表示するように制御する。また、表示制御部213は、検索結果を様々な方法で表示するように制御する。例えば、表示制御部213は、検索により得られた各オブジェクトについての情報をカード形状の領域(表示オブジェクト)に表示するように制御することができる。また、表示制御部213は、ユーザの現在地と、検索により得られたオブジェクトの位置との間の相対位置関係を示すマップ(表示オブジェクト)を表示するように制御することができる。さらに、表示制御部213は、身体状態検知部212により検知されたユーザの身体状態に応じて、表示オブジェクトの表示を変化させるように制御することができる。例えば、身体状態に応じて、表示オブジェクトの表示の可視の度合を変更するようにすることができる。 The display control unit 213 controls to display the search result by the search unit 211 on the display unit 25. In addition, the display control unit 213 controls the search results to be displayed by various methods. For example, the display control unit 213 can control the information about each object obtained by the search to be displayed in a card-shaped area (display object). In addition, the display control unit 213 can control to display a map (display object) indicating a relative positional relationship between the current location of the user and the position of the object obtained by the search. Furthermore, the display control unit 213 can perform control so as to change the display of the display object in accordance with the user's physical state detected by the physical state detection unit 212. For example, the visibility of the display of the display object can be changed according to the physical state.
図4〜図6は、表示制御部213の制御により表示部25の領域25aへ表示された画面の例を示している。 4 to 6 show examples of screens displayed on the area 25a of the display unit 25 under the control of the display control unit 213. FIG.
図4には、検索結果の各オブジェクトについての情報がカード形状の領域に表示されていることが示されている。同図において、例えば、カード形状の領域42には、検索により得られた1つのオブジェクトについての情報として、施設の種別、施設の名称及び取扱い商品の情報が示されている。また、カード形状41及び43には、検索結果の他のオブジェクトについての情報が示されている。また、身体状態検知部212により検知されたユーザが向いている方向に応じて、表示内容を表示制御部213の制御によりスクロールさせることができる。例えば、図4に示された表示例の状態において、ユーザが右方向を向いたときに、カード形状43が領域25aの中心に表示されるように表示内容をスクロールさせることができる。 FIG. 4 shows that information about each object in the search result is displayed in a card-shaped area. In the figure, for example, in a card-shaped area 42, information on the type of facility, the name of the facility, and information on the handling product is shown as information about one object obtained by the search. Also, the card shapes 41 and 43 show information about other objects of the search result. In addition, the display content can be scrolled under the control of the display control unit 213 according to the direction in which the user is detected detected by the body state detection unit 212. For example, in the state of the display example shown in FIG. 4, when the user turns to the right, the display content can be scrolled so that the card shape 43 is displayed at the center of the area 25a.
図5には、カード形状の領域に示されたオブジェクトについての情報に加えて、ユーザの現在地と、検索により得られたオブジェクトの位置との間の相対位置関係を示すマップ50(レーダー表示)が領域25aに示されている。 FIG. 5 shows a map 50 (radar display) showing the relative positional relationship between the current location of the user and the position of the object obtained by the search, in addition to the information about the object shown in the card-shaped area. This is shown in region 25a.
このマップ50には、ユーザの現在地51と、検索結果のオブジェクトの位置52〜56との間の相対位置関係が示されている。なお、カード形状の領域41〜43に情報が示されたオブジェクトと、マップ50に位置が示されたオブジェクトとの対応関係が分かるように、カード形状の領域及びマップ上に位置を示すアイコンを色分けしたり、記号を付したり等することができる。このように、オブジェクトについての情報(カード形状の領域41〜43)に加えて、現在地とオブジェクトの位置との間の相対位置関係を示すマップ50を表示することで、ユーザは、オブジェクトについての情報を確認しつつ、オブジェクトの位置を確認することができる。 This map 50 shows the relative positional relationship between the current location 51 of the user and the positions 52 to 56 of the objects of the search results. The card-shaped area and the icon indicating the position on the map are color-coded so that the correspondence between the object whose information is shown in the card-shaped areas 41 to 43 and the object whose position is shown in the map 50 can be understood. Or a symbol. Thus, in addition to the information about the object (card-shaped areas 41 to 43), the user can display the information about the object by displaying the map 50 indicating the relative positional relationship between the current location and the position of the object. The position of the object can be confirmed while confirming.
図6は、身体状態検知部212により検知されたユーザの頭部の傾きに応じて、上記のレーダー表示のマップ50の表示を変化させる例が示されている。この例では、マップ50は、ユーザーの頭部の傾きが大きくなるにつれて、三次元空間内に画面と並行に仮想的に配置したマップ50の上部が後ろに倒れ、下部が手前に来るように、その面の表示の角度(又は、その面の表示面積の大きさ)が変化していく。すなわち、この例では、身体状態検知部212により検知されたユーザの頭部の傾きが大きくなるほど、マップ50(表示オブジェクト)の大きさが小さくなり、可視の度合が下がるように制御される。なお、可視の度合を下げるために、このように表示の角度(表示オブジェクトの大きさ)を変化させるのではなく、マップ50の表示の透過度を上げていき、最終的に消えるように(非表示に)制御してもよい。なお、前述のように、ユーザの頭部の傾きには、頭部の前後方向の傾き(すなわち、ユーザが下を見る方向や上を見る方向に頭部を傾けたときなど、ユーザの視線が仰俯角方向に移動したときの頭部の傾き)や、(垂直方向に対する)頭部の左右方向の傾きが含まれる。 FIG. 6 shows an example in which the display of the radar display map 50 is changed according to the inclination of the user's head detected by the body state detection unit 212. In this example, as the inclination of the user's head increases, the map 50 is such that the upper part of the map 50 virtually placed in parallel with the screen in the three-dimensional space falls back and the lower part comes to the front. The display angle of the surface (or the size of the display area of the surface) changes. In other words, in this example, the larger the inclination of the user's head detected by the body state detection unit 212, the smaller the size of the map 50 (display object) and the lower the degree of visibility. In order to reduce the degree of visibility, instead of changing the display angle (the size of the display object) in this way, the display transparency of the map 50 is increased and finally disappears (non-display) Control). As described above, the tilt of the user's head includes the tilt of the head in the front-rear direction (that is, the user's line of sight such as when the user tilts the head in the direction of looking down or looking up). The tilt of the head when moving in the elevation angle direction) and the tilt of the head in the horizontal direction (relative to the vertical direction) are included.
また、ユーザの頭部の傾きに応じて徐々に可視の度合を変更するのではなく、頭部の傾き角度が所定の閾値を超えたときにマップ50を非表示にし、当該閾値以下のときに表示するという制御を行ってもよい。さらに、図6の例では、ユーザーの頭部の傾きが大きくなるにつれて、マップ50の可視の度合を下げているが、他の例として、ユーザーの頭部の傾きが大きくなるにつれて、マップ50の可視の度合を上げてもよい。また、ユーザーの頭部の傾きの変化に応じて、図4に示したオブジェクトについての情報の表示の可視の度合を変更してもよい。また、ユーザの頭部の傾きに応じて可視の度合を変更しているが、これに限定せず、ユーザの他の身体状態(例えば、ユーザが移動している又は停止しているなど)に応じて可視の度合を変更してもよい。 Also, instead of gradually changing the degree of visibility according to the tilt of the user's head, the map 50 is hidden when the tilt angle of the head exceeds a predetermined threshold, and when the tilt is below the threshold You may control to display. Furthermore, in the example of FIG. 6, the degree of visibility of the map 50 is lowered as the inclination of the user's head increases. As another example, as the inclination of the user's head increases, The degree of visibility may be increased. Moreover, you may change the visibility degree of the display of the information about the object shown in FIG. 4 according to the change of the inclination of a user's head. Moreover, although the degree of visibility is changed according to the inclination of the user's head, the present invention is not limited to this, and the user's other physical state (for example, the user is moving or stopped). The degree of visibility may be changed accordingly.
以上のように本実施形態によれば、ユーザの身体状態(例えば、頭部の傾き)に応じて表示部25に表示されるものの可視の度合を変更することができる。その結果、ユーザは、操作部24への操作入力を行わなくても眼鏡型デバイス20を操作することができるという利便性の高い機能を実現できる。 As described above, according to the present embodiment, the degree of visibility of what is displayed on the display unit 25 can be changed according to the user's physical condition (for example, the inclination of the head). As a result, it is possible to realize a highly convenient function that allows the user to operate the glasses-type device 20 without performing an operation input to the operation unit 24.
アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。 The action detection unit 214 detects a predetermined action of the user of the eyeglass-type device 20 in addition to the input to the operation unit 24. The predetermined action includes, for example, the blinking of the user or the movement of the predetermined hand by the user in front of the glasses-type device 20. An arbitrary method can be used as a method for detecting these predetermined actions, and for example, a conventional detection technique can be used.
音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。 The voice recognition unit 215 recognizes a voice uttered by the user of the eyeglass-type device 20 and specifies an operation instruction from the user.
[処理フロー]
次に、図7を参照して、眼鏡型デバイス20において実行される処理のフローの例を説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
[Processing flow]
Next, an example of a flow of processing executed in the eyeglass-type device 20 will be described with reference to FIG. Each processing step included in the processing flow described below can be executed in any order or in parallel as long as there is no contradiction in the processing contents. Steps may be added. Further, a step described as one step for convenience can be executed by being divided into a plurality of steps, while a step described as being divided into a plurality of steps for convenience can be grasped as one step. Note that details of the processing of each processing step have already been described, and are omitted here.
まず、ステップS11において、制御部21は、ユーザからの操作指示に応じて、現実環境に存在するオブジェクトの検索を行う。 First, in step S11, the control unit 21 searches for an object existing in the real environment in accordance with an operation instruction from the user.
ステップS12において、制御部21は、ステップS11における検索結果を表示部25に表示するように制御する。例えば、ユーザの現在地と、検索結果のオブジェクトの位置との間の相対的位置関係を示す表示オブジェクトを表示部25に表示する。 In step S <b> 12, the control unit 21 performs control so that the search result in step S <b> 11 is displayed on the display unit 25. For example, a display object indicating the relative positional relationship between the current location of the user and the position of the object of the search result is displayed on the display unit 25.
ステップS13において、制御部21は、センサ27により、眼鏡型デバイス20のユーザの所定の身体状態(例えば、頭部の傾き)を検知したか否かを判定する。検知したと判定された場合、処理はステップS14へ進む。 In step S <b> 13, the control unit 21 determines whether or not the sensor 27 detects a predetermined body state (for example, tilt of the head) of the user of the eyeglass-type device 20. If it is determined that it has been detected, the process proceeds to step S14.
ステップS14において、制御部21は、検知されたユーザの身体状態に応じて、ユーザの現在地と、オブジェクトの位置との間の相対的位置関係を示す画面の表示部25への可視の度合を変更する。 In step S <b> 14, the control unit 21 changes the degree of visibility on the display unit 25 of the screen indicating the relative positional relationship between the current location of the user and the position of the object according to the detected physical state of the user. To do.
ステップS15において、制御部21は、表示部25への表示を終了するか否かを判定し、終了しない場合、処理はステップS13へ進む。 In step S15, the control unit 21 determines whether or not to end the display on the display unit 25. If not, the process proceeds to step S13.
以上のように本実施形態によれば、ユーザの身体状態(例えば、頭部の傾き)に応じて表示部25に表示されるものの可視の度合を変更することができる。その結果、ユーザは、操作部24への操作入力を行わなくても眼鏡型デバイス20を操作することができるという利便性の高い機能を実現できる。 As described above, according to the present embodiment, the degree of visibility of what is displayed on the display unit 25 can be changed according to the user's physical condition (for example, the inclination of the head). As a result, it is possible to realize a highly convenient function that allows the user to operate the glasses-type device 20 without performing an operation input to the operation unit 24.
[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the gist of the present invention. The above-described embodiment is merely an example in all respects, and is not construed as limiting.
10 サーバ装置、20 眼鏡型デバイス、30 携帯端末、11,21,31 制御部、11a,21a,31a CPU、11b,21b,31b メモリ、12,22,32 通信部、13,23,33 記憶部、24,34 操作部、25,35 表示部、26 カメラ、27 センサ、28 マイク、36 測位部 10 server device, 20 glasses-type device, 30 portable terminal, 11, 21, 31 control unit, 11a, 21a, 31a CPU, 11b, 21b, 31b memory, 12, 22, 32 communication unit, 13, 23, 33 storage unit 24, 34 Operation unit, 25, 35 Display unit, 26 Camera, 27 Sensor, 28 Microphone, 36 Positioning unit
Claims (8)
前記ユーザの身体状態を検知する検知手段と、
前記検知された身体状態に応じて、前記表示手段により表示された前記表示オブジェクトの可視の度合を変更するように制御する表示制御手段と
を備えたウェアラブルデバイス。 Display means for displaying a display object indicating a relative positional relationship between the current location of the user and the position of the object;
Detecting means for detecting the user's physical condition;
A wearable device comprising: display control means for controlling to change the degree of visibility of the display object displayed by the display means in accordance with the detected body condition.
前記ユーザの身体状態を検知する検知ステップと、
前記検知された身体状態に応じて、前記表示ステップにより表示された前記表示オブジェクトの可視の度合を変更するように制御する表示制御ステップと
を備えた情報処理方法。 A display step for displaying a display object indicating a relative positional relationship between the current location of the user and the position of the object;
A detection step of detecting the physical condition of the user;
An information processing method comprising: a display control step for performing control so as to change a degree of visibility of the display object displayed in the display step according to the detected physical state.
前記ユーザの身体状態を検知する検知ステップと、
前記検知された身体状態に応じて、前記表示ステップにより表示された前記表示オブジェクトの可視の度合を変更するように制御する表示制御ステップと
を実行させるためのプログラム。 A display step for displaying a display object indicating a relative positional relationship between the current location of the user and the position of the object;
A detection step of detecting the physical condition of the user;
A display control step for performing control to change the degree of visibility of the display object displayed in the display step according to the detected body condition.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014245220A JP2016110296A (en) | 2014-12-03 | 2014-12-03 | Wearable device, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014245220A JP2016110296A (en) | 2014-12-03 | 2014-12-03 | Wearable device, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016110296A true JP2016110296A (en) | 2016-06-20 |
Family
ID=56124114
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014245220A Pending JP2016110296A (en) | 2014-12-03 | 2014-12-03 | Wearable device, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016110296A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020145092A1 (en) * | 2019-01-07 | 2020-07-16 | 株式会社mediVR | Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program |
| JP2020110209A (en) * | 2019-01-07 | 2020-07-27 | 株式会社mediVR | Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000284214A (en) * | 1999-03-30 | 2000-10-13 | Suzuki Motor Corp | Display means control device for helmet mounting |
| JP2012120849A (en) * | 2012-01-06 | 2012-06-28 | Namco Bandai Games Inc | Program, information storage medium, and image generator |
| JP2014505937A (en) * | 2010-12-29 | 2014-03-06 | マイクロソフト コーポレーション | Touch event prediction in computer devices |
| WO2014078018A2 (en) * | 2012-11-13 | 2014-05-22 | Qualcomm Incorporated | Modifying virtual object display properties |
| WO2014158633A1 (en) * | 2013-03-14 | 2014-10-02 | Qualcomm Incorporated | User interface for a head mounted display |
-
2014
- 2014-12-03 JP JP2014245220A patent/JP2016110296A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000284214A (en) * | 1999-03-30 | 2000-10-13 | Suzuki Motor Corp | Display means control device for helmet mounting |
| JP2014505937A (en) * | 2010-12-29 | 2014-03-06 | マイクロソフト コーポレーション | Touch event prediction in computer devices |
| JP2012120849A (en) * | 2012-01-06 | 2012-06-28 | Namco Bandai Games Inc | Program, information storage medium, and image generator |
| WO2014078018A2 (en) * | 2012-11-13 | 2014-05-22 | Qualcomm Incorporated | Modifying virtual object display properties |
| WO2014158633A1 (en) * | 2013-03-14 | 2014-10-02 | Qualcomm Incorporated | User interface for a head mounted display |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020145092A1 (en) * | 2019-01-07 | 2020-07-16 | 株式会社mediVR | Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program |
| JP2020110209A (en) * | 2019-01-07 | 2020-07-27 | 株式会社mediVR | Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program |
| JP2020110561A (en) * | 2019-01-07 | 2020-07-27 | 株式会社mediVR | Rehabilitation support device, rehabilitation support system, rehabilitation support method, and rehabilitation support program |
| CN112105326A (en) * | 2019-01-07 | 2020-12-18 | 株式会社mediVR | Rehabilitation support device, rehabilitation support system, rehabilitation support method, and rehabilitation support program |
| JP7385238B2 (en) | 2019-01-07 | 2023-11-22 | 株式会社mediVR | Rehabilitation support device, rehabilitation support method, and rehabilitation support program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5909034B1 (en) | User interface for head mounted display | |
| JP2016096513A (en) | Information processing system, information processing method, and program | |
| JP5675470B2 (en) | Image generation system, program, and information storage medium | |
| US10043314B2 (en) | Display control method and information processing apparatus | |
| US10051453B2 (en) | Wearable and/or hand-held mobile electronic device and method for directional proximity detection | |
| JP6481456B2 (en) | Display control method, display control program, and information processing apparatus | |
| US9628947B2 (en) | Wearable map and image display | |
| JP5236423B2 (en) | Display system, display method and program | |
| JP5360021B2 (en) | Portable information processing apparatus and computer program for portable information processing apparatus | |
| JP6306985B2 (en) | Information processing system, information processing method, and program | |
| JP2016110296A (en) | Wearable device, information processing method, and program | |
| JP2017102034A (en) | Wearable device, wearable device control method and program | |
| JP2011220899A (en) | Information presenting system | |
| JP6396155B2 (en) | Information processing system, information processing method, and program | |
| JP6566854B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
| WO2021200187A1 (en) | Portable terminal, information processing method, and storage medium | |
| JP6557126B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
| JP2017102036A (en) | Information processing apparatus, information processing apparatus control method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170324 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180105 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171228 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180213 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180315 |