[go: up one dir, main page]

JP2017208070A - Information sharing system, information sharing method, terminal device, and information processing program - Google Patents

Information sharing system, information sharing method, terminal device, and information processing program Download PDF

Info

Publication number
JP2017208070A
JP2017208070A JP2017038814A JP2017038814A JP2017208070A JP 2017208070 A JP2017208070 A JP 2017208070A JP 2017038814 A JP2017038814 A JP 2017038814A JP 2017038814 A JP2017038814 A JP 2017038814A JP 2017208070 A JP2017208070 A JP 2017208070A
Authority
JP
Japan
Prior art keywords
information
terminal device
unit
target
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017038814A
Other languages
Japanese (ja)
Other versions
JP6953744B2 (en
Inventor
悠斗 後藤
Yuto Goto
悠斗 後藤
平野 成伸
Shigenobu Hirano
成伸 平野
川島 伊久衞
Ikue Kawashima
伊久衞 川島
片野 泰男
Yasuo Katano
泰男 片野
牧 隆史
Takashi Maki
牧  隆史
亀山 健司
Kenji Kameyama
健司 亀山
池上 史郎
Shiro Ikegami
史郎 池上
青 梁
Qing Liang
青 梁
篠宮 聖彦
Masahiko Shinomiya
聖彦 篠宮
規和 五十嵐
Norikazu Igarashi
規和 五十嵐
伶実 田中
Satomi Tanaka
伶実 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/586,810 priority Critical patent/US10670421B2/en
Publication of JP2017208070A publication Critical patent/JP2017208070A/en
Application granted granted Critical
Publication of JP6953744B2 publication Critical patent/JP6953744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】複数のユーザによる周囲の状況の確認を容易とする。
【解決手段】実施形態の情報共有システムは、管理装置と、複数の端末装置とを含む。複数の端末装置のうち少なくとも第1の端末装置は、第1の端末装置の位置を示す第1の位置情報と、対象の第1の端末装置に対する方角を示す方角情報と、対象までの距離を示す距離情報と、を含む共有情報を取得する。管理装置は、第1の端末装置から取得した共有情報に基づき対象の位置を示す第2の位置情報を求め、第2の位置情報を含む対象情報を生成し、生成した対象情報を、複数の端末装置に送信する。
【選択図】図10
The present invention facilitates confirmation of surrounding conditions by a plurality of users.
According to one embodiment, an information sharing system includes a management device and a plurality of terminal devices. At least the first terminal device among the plurality of terminal devices includes first position information indicating a position of the first terminal device, direction information indicating a direction of the target first terminal device, and a distance to the target. And shared information including the distance information shown. The management device obtains second position information indicating the position of the target based on the shared information acquired from the first terminal device, generates target information including the second position information, and generates the generated target information Send to terminal device.
[Selection] Figure 10

Description

本発明は、情報共有システム、情報共有方法、端末装置および情報処理プログラムに関する。   The present invention relates to an information sharing system, an information sharing method, a terminal device, and an information processing program.

スマートフォン(多機能型携帯端末)といった、ネットワークに接続可能なモバイル端末によって、自分の現在位置を示す位置情報をGNSS(Global Navigation Satellite System)などを利用して取得し、取得した位置情報をインターネットなどのネットワークから取得した地図情報に重畳する技術が知られている。このようなモバイル端末において、特定の緯度、経度の座標を指定し、画像、テキスト、Webサイトへのリンクといった情報を、指定した緯度、経度の情報と共にネットワークに向けて送信することで、他のモバイル端末との間で情報を共有できるようにした技術も知られている。   Using a mobile terminal that can be connected to the network, such as a smartphone (multi-function mobile terminal), the location information indicating your current location is obtained using GNSS (Global Navigation Satellite System), etc. A technique for superimposing on map information acquired from a network of the above is known. In such a mobile terminal, the coordinates of a specific latitude and longitude are specified, and information such as an image, text, and a link to a website is transmitted to the network together with the specified latitude and longitude information. A technique that enables information to be shared with mobile terminals is also known.

特許文献1には、複数ユーザが登録対象を例えばモバイル端末により撮像した際の位置情報と方位情報とに基づき、それぞれのユーザによる登録対象の撮像方向が重なった位置を、登録対象の位置として登録する技術が開示されている。特許文献1によれば、複数のユーザが同一の対象の地点の情報をサーバに登録する際に、同一位置に関するレビューなどの情報が異なる位置に乱立することを回避でき、複数ユーザによる情報の共有が容易となる。   In Patent Literature 1, based on position information and orientation information when a plurality of users capture an image of a registration target using, for example, a mobile terminal, a position where the imaging directions of the registration targets of the respective users overlap is registered as a registration target position. Techniques to do this are disclosed. According to Patent Document 1, when a plurality of users register information on the same target point in the server, it is possible to avoid information such as reviews relating to the same position from fluctuating at different positions, and information sharing by a plurality of users Becomes easy.

GNSS機能を備えるモバイル端末では、現在の位置を示す位置情報を、容易な操作で取得することが可能である。一方で、ユーザが他のユーザと情報を共有したい対象は、ユーザが現在いる位置ではなく、ユーザが目視している、数m乃至数10mの距離にあるのが一般的である。したがって、例えばヘッドマウントディスプレイ端末により対象を目視して位置情報を取得したとしても、取得した位置情報は、情報を共有したい対象の位置を示す位置情報とは異なってしまうという問題点があった。   In a mobile terminal having a GNSS function, position information indicating the current position can be acquired with an easy operation. On the other hand, the object that the user wants to share information with other users is generally at a distance of several meters to several tens of meters that the user is viewing, not the position where the user is currently. Therefore, for example, even if the position information is acquired by visually observing the target with a head-mounted display terminal, there is a problem that the acquired position information is different from the position information indicating the position of the target for which information is to be shared.

一方、上述した特許文献1によれば、複数のユーザによる位置情報および方位情報に基づき、ユーザから数m離れた位置を特定することが可能である。しかしながら、特許文献1の技術では、対象の正確な位置情報を特定するためには、複数のモバイル端末による情報が必要であり、対象を目視可能なユーザが一人しかいない場合には対象の位置情報の特定ができず、複数のユーザ間での対象の位置情報の共有が困難であるという問題点があった。   On the other hand, according to Patent Document 1 described above, it is possible to specify a position several m away from a user based on position information and direction information by a plurality of users. However, in the technique of Patent Document 1, information from a plurality of mobile terminals is necessary to specify the accurate position information of the target. If there is only one user who can see the target, the position information of the target There is a problem that it is difficult to specify the location information of the target among a plurality of users.

本発明は、上記に鑑みてなされたものであって、複数のユーザによる周囲の状況の確認を容易とすることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to facilitate confirmation of surrounding conditions by a plurality of users.

上述した課題を解決し、目的を達成するために、本発明は、管理装置と、複数の端末装置とを含む情報共有システムであって、複数の端末装置のうち少なくとも第1の端末装置は、第1の端末装置の位置を示す第1の位置情報と、対象の第1の端末装置に対する方角を示す方角情報と、対象までの距離を示す距離情報と、を含む共有情報を取得する取得部を備え、管理装置は、第1の端末装置から取得した共有情報に基づき対象の位置を示す第2の位置情報を求め、第2の位置情報を含む対象情報を生成する生成部と、対象情報を複数の端末装置に送信する送信部とを備える。   In order to solve the above-described problems and achieve the object, the present invention is an information sharing system including a management device and a plurality of terminal devices, and at least the first terminal device among the plurality of terminal devices is: An acquisition unit that acquires shared information including first position information indicating a position of the first terminal device, direction information indicating a direction with respect to the target first terminal device, and distance information indicating a distance to the target. A management unit that obtains second position information indicating the position of the target based on the shared information acquired from the first terminal apparatus, and generates target information including the second position information; And a transmission unit that transmits the information to a plurality of terminal devices.

本発明によれば、複数のユーザによる周囲の状況の確認が容易となるという効果を奏する。   According to the present invention, there is an effect that it is easy for a plurality of users to check surrounding conditions.

図1は、第1の実施形態に係る情報共有システムの一例の構成を示す図である。FIG. 1 is a diagram illustrating an exemplary configuration of an information sharing system according to the first embodiment. 図2は、第1の実施形態に係る端末装置の一例の外観を示す斜視図である。FIG. 2 is a perspective view illustrating an appearance of an example of the terminal device according to the first embodiment. 図3は、第1の実施形態に係る端末装置における眼鏡ユニットを人の頭部に装着した様子を、頭部の左側面から模式的に示す模式図である。FIG. 3 is a schematic diagram schematically showing a state in which the eyeglass unit in the terminal device according to the first embodiment is mounted on a person's head from the left side of the head. 図4は、第1の実施形態に適用可能な、端末装置の眼鏡ユニットに内蔵される表示系の構成の例を示す図である。FIG. 4 is a diagram illustrating an example of a configuration of a display system incorporated in the eyeglass unit of the terminal device that can be applied to the first embodiment. 図5は、第1の実施形態に適用可能な眼鏡ユニットのハードウェア構成の例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of a hardware configuration of a spectacle unit applicable to the first embodiment. 図6は、第1の実施形態に係る情報処理ユニットのハードウェア構成の例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of a hardware configuration of the information processing unit according to the first embodiment. 図7は、第1の実施形態に係る端末装置の機能を説明するための一例の機能ブロック図である。FIG. 7 is a functional block diagram of an example for explaining functions of the terminal device according to the first embodiment. 図8は、第1の実施形態に適用可能な管理サーバのハードウェア構成の例を示すブロック図である。FIG. 8 is a block diagram illustrating an example of a hardware configuration of a management server applicable to the first embodiment. 図9は、第1の実施形態に係る管理サーバの機能を説明するための一例の機能ブロック図である。FIG. 9 is an exemplary functional block diagram for explaining functions of the management server according to the first embodiment. 図10は、第1の実施形態に係る情報共有システムにおける処理の例を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating an example of processing in the information sharing system according to the first embodiment. 図11は、第1の実施形態に係る、端末装置が備える眼鏡ユニットのディスプレイに表示される画面について説明するための図である。FIG. 11 is a diagram for explaining a screen displayed on the display of the eyeglass unit included in the terminal device according to the first embodiment. 図12は、第1の実施形態に係る共有情報の生成方法を示す一例のフローチャートである。FIG. 12 is a flowchart of an example showing a method for generating shared information according to the first embodiment. 図13は、第1の実施形態に適用可能なジェスチャによる距離情報の入力の例を概略的に説明するための図である。FIG. 13 is a diagram for schematically explaining an example of input of distance information by a gesture applicable to the first embodiment. 図14は、第1の実施形態に係る、対象を示すマーカ画像が追加して表示された地図画像が表示された画面の例を示す図である。FIG. 14 is a diagram illustrating an example of a screen on which a map image on which a marker image indicating a target is added and displayed according to the first embodiment is displayed. 図15は、第1の実施形態の変形例に係る、属性と属性を示す情報とを関連付けて格納する属性情報テーブルの一例を示す図である。FIG. 15 is a diagram illustrating an example of an attribute information table that stores an attribute and information indicating an attribute in association with each other according to a modification of the first embodiment. 図16は、第2の実施形態に係る情報共有システムの構成について概略的に説明するための図である。FIG. 16 is a diagram for schematically explaining the configuration of the information sharing system according to the second embodiment. 図17は、第2の実施形態に適用可能な端末装置が備える情報処理ユニットの一例の構成を示すブロック図である。FIG. 17 is a block diagram illustrating a configuration example of an information processing unit included in a terminal device applicable to the second embodiment. 図18は、第2の実施形態に係る司令者端末のハードウェア構成の例を示すブロック図である。FIG. 18 is a block diagram illustrating an example of a hardware configuration of a commander terminal according to the second embodiment. 図19は、第2の実施形態に係る司令者端末の機能を説明するための機能ブロック図である。FIG. 19 is a functional block diagram for explaining functions of the commander terminal according to the second embodiment. 図20は、第2の実施形態に適用可能な管理サーバの機能を説明するための一例の機能ブロック図である。FIG. 20 is a functional block diagram illustrating an example of functions of the management server applicable to the second embodiment. 図21は、第2の実施形態に係る、端末装置のディスプレイに表示される画面の例を示す図である。FIG. 21 is a diagram illustrating an example of a screen displayed on the display of the terminal device according to the second embodiment. 図22は、第2の実施形態に係る、端末装置のディスプレイに表示される画面の例を示す図である。FIG. 22 is a diagram illustrating an example of a screen displayed on the display of the terminal device according to the second embodiment. 図23は、第2の実施形態に係る司令者端末のディスプレイに表示される画面の例を示す図である。FIG. 23 is a diagram illustrating an example of a screen displayed on the display of the commander terminal according to the second embodiment. 図24は、第2の実施形態の第1の変形例に係る、司令者端末において地図画像上の所望の位置が指定された場合の画面の例を示す図である。FIG. 24 is a diagram illustrating an example of a screen when a desired position on a map image is designated on the commander terminal according to the first modification of the second embodiment. 図25は、第2の実施形態の第2の変形例に係る、司令者端末の画面における地図画像に対して、対象を示すマーカ画像が重畳された例を示す図である。FIG. 25 is a diagram illustrating an example in which a marker image indicating a target is superimposed on a map image on a screen of a commander terminal according to a second modification of the second embodiment. 図26は、第2の実施形態の第3の変形例に係る、司令者端末において所望の位置が指定された場合の、端末装置のディスプレイに表示される画面の例を示す図である。FIG. 26 is a diagram illustrating an example of a screen displayed on the display of the terminal device when a desired position is designated on the commander terminal according to the third modification of the second embodiment. 図27は、第2の実施形態の第4の変形例に係る、司令者端末から送信された任意のメッセージが表示される画面の例を示す図である。FIG. 27 is a diagram illustrating an example of a screen on which an arbitrary message transmitted from the commander terminal is displayed according to a fourth modification of the second embodiment. 図28は、第3の実施形態に係る端末装置の一例の外観を示す斜視図である。FIG. 28 is a perspective view illustrating an appearance of an example of a terminal device according to the third embodiment. 図29は、第3の実施形態に係る端末装置における眼鏡ユニットの頭部への装着例を示す図である。FIG. 29 is a diagram illustrating a mounting example of the spectacles unit on the head in the terminal device according to the third embodiment. 図30は、第3の実施形態に係る眼鏡ユニットに内蔵される表示系の構成の例を示す図である。FIG. 30 is a diagram illustrating an example of a configuration of a display system built in the eyeglass unit according to the third embodiment. 図31は、第3の実施形態に適用可能な調光フィルタの一例の構成を示す図である。FIG. 31 is a diagram illustrating a configuration of an example of a dimming filter applicable to the third embodiment. 図32は、第3の実施形態に係る、照度センサを含む眼鏡ユニットの構成例を示す図である。FIG. 32 is a diagram illustrating a configuration example of a spectacle unit including an illuminance sensor according to the third embodiment. 図33は、第3の実施形態に係る眼鏡ユニットのハードウェア構成の例を示すブロック図である。FIG. 33 is a block diagram illustrating an example of a hardware configuration of the eyeglass unit according to the third embodiment. 図34は、第3の実施形態に係る眼鏡ユニットの機能を説明するための一例の機能ブロック図である。FIG. 34 is a functional block diagram illustrating an example of functions of the eyeglass unit according to the third embodiment. 図35は、第3の実施形態に適用可能な調光フィルタの透過率の変化の例を示す図である。FIG. 35 is a diagram illustrating an example of a change in transmittance of a light control filter applicable to the third embodiment. 図36は、第4の実施形態に係る情報共有システムの一例の構成を示す図である。FIG. 36 is a diagram illustrating a configuration of an example of an information sharing system according to the fourth embodiment. 図37は、第4の実施形態に係る端末装置の一例の外観を示す斜視図である。FIG. 37 is a perspective view illustrating an appearance of an example of a terminal device according to the fourth embodiment. 図38は、カメラが省略された眼鏡ユニットのハードウェア構成の例を示すブロック図である。FIG. 38 is a block diagram illustrating an example of a hardware configuration of a spectacle unit from which a camera is omitted. 図39は、第4の実施形態に適用可能な情報処理ユニットのハードウェア構成の例を示すブロック図である。FIG. 39 is a block diagram illustrating an example of a hardware configuration of an information processing unit applicable to the fourth embodiment. 図40は、第4の実施形態に係る端末装置の機能を説明するための一例の機能ブロック図である。FIG. 40 is a functional block diagram illustrating an example of functions of the terminal device according to the fourth embodiment. 図41は、第4の実施形態に係る情報共有システムにおける処理の例を示すシーケンス図である。FIG. 41 is a sequence diagram illustrating an example of processing in the information sharing system according to the fourth embodiment. 図42は、第4の実施形態に係る端末装置の画面の例をより具体的に示す図である。FIG. 42 is a diagram more specifically showing an example of a screen of the terminal device according to the fourth embodiment. 図43は、第4の実施形態に係る各端末装置による位置マーカの表示処理をより具体的に示す一例のフローチャートである。FIG. 43 is a flowchart of an example showing more specifically the position marker display processing by each terminal device according to the fourth embodiment. 図44は、第4の実施形態に係る、頭部の垂直軸周りの運動に応じた表示制御について説明するための図である。FIG. 44 is a diagram for explaining display control according to the movement of the head around the vertical axis according to the fourth embodiment. 図45は、第4の実施形態に係る、頭部の水平軸周りの運動に応じた表示制御について説明するための図である。FIG. 45 is a diagram for explaining display control according to the movement of the head around the horizontal axis according to the fourth embodiment. 図46は、第4の実施形態に係る、頭部の前後軸周りの運動に応じた表示制御について説明するための図である。FIG. 46 is a diagram for explaining display control according to the movement of the head around the longitudinal axis according to the fourth embodiment. 図47は、第4の実施形態に係るラベルの表示制御について説明するための図である。FIG. 47 is a diagram for explaining label display control according to the fourth embodiment. 図48は、第4の実施形態に係るラベルの表示処理を示す一例のフローチャートである。FIG. 48 is a flowchart illustrating an example of label display processing according to the fourth embodiment. 図49は、第4の実施形態に適用可能な、端末装置を装着したユーザの状態に応じた画面における情報表示の切り替えについて説明するための図である。FIG. 49 is a diagram for explaining switching of information display on the screen according to the state of the user wearing the terminal device, which can be applied to the fourth embodiment. 図50は、第4の実施形態に係る端末装置による歩行状態検知について説明するための図である。FIG. 50 is a diagram for explaining walking state detection by the terminal device according to the fourth embodiment. 図51は、第4の実施形態に適用可能な、司令者端末の画面における表示の例を示す図である。FIG. 51 is a diagram showing an example of display on the screen of the commander terminal applicable to the fourth embodiment. 図52は、第4の実施形態に係る、端末装置における指令情報の表示方法の例を示す図である。FIG. 52 is a diagram illustrating an example of a display method of command information in the terminal device according to the fourth embodiment.

以下に添付図面を参照して、情報共有システム、情報共有方法、端末装置および情報処理プログラムの実施形態を詳細に説明する。   Exemplary embodiments of an information sharing system, an information sharing method, a terminal device, and an information processing program will be described below in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、第1の実施形態に係る情報共有システムの一例の構成を示す。図1に示される情報共有システムは、それぞれユーザA、B、CおよびDが使用する複数の端末装置10a、10b、10cおよび30と、管理サーバ40Aとを含む。端末装置10a、10b、10cおよび30、ならびに、管理サーバ40Aは、互いにネットワーク50により通信可能に接続される。ネットワーク50は、例えばインターネットである。これに限らず、ネットワーク50がLAN(Local Area Network)であってもよい。
(First embodiment)
FIG. 1 shows an exemplary configuration of an information sharing system according to the first embodiment. The information sharing system shown in FIG. 1 includes a plurality of terminal devices 10a, 10b, 10c and 30 used by users A, B, C and D, respectively, and a management server 40A. The terminal devices 10a, 10b, 10c and 30 and the management server 40A are communicably connected to each other via the network 50. The network 50 is, for example, the Internet. Not limited to this, the network 50 may be a LAN (Local Area Network).

図1の例では、端末装置10a、10bおよび10cは、小型軽量で携帯容易なモバイル端末であって、人の頭部に眼鏡様に装着して用いる眼鏡型デバイスを含んでいる。詳細は後述するが、眼鏡型デバイスは、眼鏡のレンズ部をディスプレイとして用いて画像を表示可能とされているもので、ヘッドマウント型ディスプレイとも呼ばれる。また、端末装置10a、10bおよび10cは、それぞれ無線通信によりネットワーク50と接続可能とされている。さらに、図1の例では、端末装置30は、例えば机上などに置いて用いる非モバイル端末であって、一般的なコンピュータとされている。端末装置30は、例えば有線通信によりネットワーク50と接続される。これに限らず、端末装置30を無線通信によりネットワーク50に接続してもよい。   In the example of FIG. 1, the terminal devices 10a, 10b, and 10c are small, lightweight, and easy to carry mobile terminals, and include eyeglass-type devices that are used by wearing them like glasses on a human head. Although details will be described later, the spectacle-type device is capable of displaying an image using the lens portion of the spectacles as a display, and is also called a head-mounted display. The terminal devices 10a, 10b, and 10c can be connected to the network 50 through wireless communication. Furthermore, in the example of FIG. 1, the terminal device 30 is a non-mobile terminal used on a desk or the like, for example, and is a general computer. The terminal device 30 is connected to the network 50 by, for example, wired communication. However, the terminal device 30 may be connected to the network 50 by wireless communication.

管理サーバ40Aは、一般的なコンピュータと同等の構成を備えるサーバ装置であって、端末装置10a、10b、10cおよび30は、管理サーバ40Aを介して互いに通信を行う。   The management server 40A is a server device having a configuration equivalent to a general computer, and the terminal devices 10a, 10b, 10c, and 30 communicate with each other via the management server 40A.

眼鏡型デバイスである端末装置10a、10bおよび10cのうち少なくとも1つは、GNSS(Global Navigation Satellite System)に対応し、GNSSによる衛星60から送信される信号を受信して、受信した信号に基づき自装置の位置を示す位置情報を取得できる。例えば端末装置10aは、取得した位置情報を、端末装置10aを識別する識別情報と共に管理サーバ40Aに送信することができる。管理サーバ40Aは、例えば端末装置10aから送信された位置情報および識別情報を、他の端末装置10b、10cおよび30に送信することができる。   At least one of the terminal devices 10a, 10b, and 10c, which is a glasses-type device, corresponds to the GNSS (Global Navigation Satellite System), receives a signal transmitted from the satellite 60 by the GNSS, and based on the received signal, Position information indicating the position of the apparatus can be acquired. For example, the terminal device 10a can transmit the acquired position information to the management server 40A together with identification information for identifying the terminal device 10a. For example, the management server 40A can transmit the position information and the identification information transmitted from the terminal device 10a to the other terminal devices 10b, 10c, and 30.

各端末装置10a、10bおよび10cのディスプレイには、例えば、地図画像と、端末装置10aの位置を示す位置情報とを含む画面70を表示させることができる。端末装置30においても同様に、地図画像と、端末装置10aの位置を示す位置情報とを含む画面71を表示させることができる。   On the display of each terminal device 10a, 10b and 10c, for example, a screen 70 including a map image and position information indicating the position of the terminal device 10a can be displayed. Similarly, the terminal device 30 can display a screen 71 including a map image and position information indicating the position of the terminal device 10a.

なお、図1の例では、情報共有システムに、端末装置10a、10b、10cおよび30の4台の端末装置が含まれているように示しているが、これはこの例に限定されない。情報共有システムは、少なくとも1台が第1の実施形態に係る眼鏡型デバイスである2台以上の端末装置が含まれていればよい。   In the example of FIG. 1, the information sharing system is illustrated as including four terminal devices 10a, 10b, 10c, and 30, but this is not limited to this example. The information sharing system only needs to include at least two terminal devices, at least one of which is the glasses-type device according to the first embodiment.

図2〜図4を用いて、第1の実施形態に適用可能な眼鏡型デバイスとしての端末装置10a、10bおよび10cの構成の例について説明する。図2は、第1の実施形態に係る、端末装置10a、10bおよび10cそれぞれに対応する端末装置10の一例の外観を示す斜視図である。なお、以下では、端末装置10a、10bおよび10cを特に区別する必要が無い場合、これら端末装置10a、10bおよび10cを端末装置10で代表させて説明を行う。   Examples of configurations of the terminal devices 10a, 10b, and 10c as eyeglass-type devices applicable to the first embodiment will be described with reference to FIGS. FIG. 2 is a perspective view illustrating an appearance of an example of the terminal device 10 corresponding to each of the terminal devices 10a, 10b, and 10c according to the first embodiment. In the following description, the terminal devices 10a, 10b, and 10c are represented by the terminal device 10 when there is no need to particularly distinguish the terminal devices 10a, 10b, and 10c.

図2において、端末装置10は、左右に1組ずつ略対称に設けられたフロント11Aおよびテンプル12により構成された眼鏡型デバイスとしての眼鏡ユニット1Aと、眼鏡ユニット1Aに対してケーブル21を介して接続される情報処理ユニット20Aとを含む。眼鏡ユニット1Aは、ユーザの頭部に装着してユーザの眼球およびその周辺に映像を映出する、頭部装着用の表示装置である。   In FIG. 2, the terminal device 10 includes a spectacle unit 1A as a spectacle-type device constituted by a front 11A and a temple 12 provided approximately symmetrically on the left and right, and a spectacle unit 1A via a cable 21. Information processing unit 20A to be connected. The spectacles unit 1A is a head-mounted display device that is mounted on the user's head and projects an image on the user's eyeball and its surroundings.

眼鏡ユニット1Aにおいて、フロント11Aは、例えば、透過性の導光板2により構成することができる。テンプル12は、表示系と、9軸センサ22と、カメラ23と、これらを制御するための構成とを含む。また、テンプル12の側面には、端末装置10に対する所定のユーザ操作を受け付けるための操作部24が設けられる。操作部24は、押圧などにより作動するスイッチでもよいし、手指などで触れることで作動するタッチパッドでもよい。   In the spectacle unit 1A, the front 11A can be constituted by, for example, a transmissive light guide plate 2. The temple 12 includes a display system, a 9-axis sensor 22, a camera 23, and a configuration for controlling them. An operation unit 24 for receiving a predetermined user operation on the terminal device 10 is provided on the side surface of the temple 12. The operation unit 24 may be a switch that operates by pressing or the like, or may be a touch pad that operates by touching with a finger or the like.

情報処理ユニット20Aは、眼鏡ユニット1Aに電源を供給するための電源部と、眼鏡ユニット1Aとケーブル21を介して送受信される情報の処理を行う情報処理部とを含む。なお、図2では、端末装置10が眼鏡ユニット1Aと情報処理ユニット20Aとを分離した構成として示されているが、これはこの例に限定されない。すなわち、情報処理ユニット20Aを小型に構成し、眼鏡ユニット1Aのテンプル12に内蔵させることも可能である。   The information processing unit 20 </ b> A includes a power supply unit for supplying power to the eyeglass unit 1 </ b> A and an information processing unit that processes information transmitted / received via the eyeglass unit 1 </ b> A and the cable 21. In FIG. 2, the terminal device 10 is illustrated as a configuration in which the spectacle unit 1A and the information processing unit 20A are separated, but this is not limited to this example. That is, the information processing unit 20A can be configured to be small and can be built in the temple 12 of the eyeglass unit 1A.

図3は、図2に示した、端末装置10における眼鏡ユニット1Aを人の頭部80に装着した様子を、頭部80の左側面から模式的に示す。このように、眼鏡ユニット1Aは、両眼(図3では左眼80Lのみ示す)から導光板2を介して外部を目視できるように、頭部80に装着して用いられる。換言すると、外部からの光は、導光板2を介して眼球に入射される。   FIG. 3 schematically shows a state in which the eyeglass unit 1A in the terminal device 10 shown in FIG. As described above, the spectacles unit 1A is used by being mounted on the head 80 so that the outside can be seen through the light guide plate 2 from both eyes (only the left eye 80L is shown in FIG. 3). In other words, light from outside enters the eyeball through the light guide plate 2.

なお、眼鏡ユニット1Aにおいて、カメラ23は、眼鏡ユニット1Aを頭部80に正しく装着した場合に、正面を見る視線と同じ方向を撮像するように、眼鏡ユニット1Aに設けられる。   In the eyeglass unit 1A, the camera 23 is provided in the eyeglass unit 1A so as to take an image in the same direction as the line of sight of the front when the eyeglass unit 1A is correctly attached to the head 80.

なお、ここでは、眼鏡ユニット1Aを、通常の眼鏡と同様に、ユーザの両耳に掛けた蔓により頭部80に装着するものとしているが、これはこの例に限定されない。眼鏡ユニット1Aは、例えば帽子やヘルメットの庇部分にフロント11Aを取り付ける形であったり、ヘッドホン状の柄からフロント11Aが出ている形であったりしてもよい。また、眼鏡ユニット1Aは、片眼で見るタイプと両眼で見るタイプがあるが、何方を適用しても構わない。   Here, the spectacles unit 1A is assumed to be attached to the head 80 by the vines hung on both ears of the user as in the case of normal spectacles, but this is not limited to this example. For example, the spectacle unit 1A may have a shape in which the front 11A is attached to a heel portion of a hat or a helmet, or a shape in which the front 11A protrudes from a headphone-like pattern. Moreover, although the spectacles unit 1A has the type seen with one eye and the type seen with both eyes, any one may be applied.

図4は、第1の実施形態に適用可能な、端末装置10の眼鏡ユニット1Aのフロント11Aおよびテンプル12に内蔵される表示系の構成の例を示す。なお、図4では、眼鏡ユニット1Aの左眼側のフロント11Aおよびテンプル12の構成について示している。右眼側のフロント11Aおよびテンプル12の構成は、図4と左右対称の構成により実現可能であるので、ここでの説明を省略する。   FIG. 4 shows an example of the configuration of a display system incorporated in the front 11A and the temple 12 of the eyeglass unit 1A of the terminal device 10 that can be applied to the first embodiment. FIG. 4 shows the configuration of the front 11A and the temple 12 on the left eye side of the eyeglass unit 1A. The configurations of the front 11A and the temple 12 on the right eye side can be realized by a configuration symmetrical to that of FIG.

図4において、フロント11Aおよびテンプル12に含まれる表示系は、表示素子3と、光源4と、光学部5とを含む。光学部5は、1以上のレンズから構成されるレンズ部6と、レンズ部6から入射された光を全反射させるミラー7とを含む。また、導光板2は、凹面鏡として形成されるハーフミラー8を含む。   In FIG. 4, the display system included in the front 11 </ b> A and the temple 12 includes a display element 3, a light source 4, and an optical unit 5. The optical unit 5 includes a lens unit 6 composed of one or more lenses, and a mirror 7 that totally reflects light incident from the lens unit 6. The light guide plate 2 includes a half mirror 8 formed as a concave mirror.

表示素子3は、例えば、光源4からの光を画像に応じて画素毎に変調する光変調素子を含む。表示素子3は、R(赤色)、G(緑色)、B(青色)各色のカラーフィルタをさらに含んでいてもよい。光源4からの光が画像に応じて変調された映像光は、レンズ部6により平行光とされて、ミラー7により導光板2の方向に反射される。ミラー7により反射された映像光は、導光板2の内側に設けられた反射面によりさらに反射され、導光板2内を通過してハーフミラー8に入射される。ハーフミラー8は、入射された映像光を左眼80Lに向けて反射させる。左眼80Lには、ハーフミラー8で反射された映像光と、ハーフミラー8を透過した外光とが合成されて入射されることになる。   The display element 3 includes, for example, a light modulation element that modulates light from the light source 4 for each pixel according to an image. The display element 3 may further include color filters of R (red), G (green), and B (blue) colors. Video light obtained by modulating light from the light source 4 according to an image is converted into parallel light by the lens unit 6 and reflected by the mirror 7 in the direction of the light guide plate 2. The image light reflected by the mirror 7 is further reflected by the reflecting surface provided inside the light guide plate 2, passes through the light guide plate 2, and enters the half mirror 8. The half mirror 8 reflects incident video light toward the left eye 80L. The image light reflected by the half mirror 8 and the external light transmitted through the half mirror 8 are combined and incident on the left eye 80L.

このように、ハーフミラー8は、光源4の光が表示素子3により画像に応じて変調された映像光が投射される。以下では、特に記載の無い限り、ハーフミラー8を眼鏡ユニット1Aにおけるディスプレイとして説明を行う。   As described above, the half mirror 8 projects the image light in which the light of the light source 4 is modulated by the display element 3 according to the image. Hereinafter, unless otherwise specified, the half mirror 8 will be described as a display in the spectacle unit 1A.

図5は、第1の実施形態に適用可能な眼鏡ユニット1Aのハードウェア構成の例を示す。眼鏡ユニット1Aは、上述した表示素子3、9軸センサ22、カメラ23および操作部24と、CPU(Central Processing Unit)1000と、メモリ1001と、データインタフェース(I/F)1002と、表示素子駆動回路1003とを含む。   FIG. 5 shows an example of the hardware configuration of the eyeglass unit 1A applicable to the first embodiment. The eyeglass unit 1A includes the display element 3, the 9-axis sensor 22, the camera 23, and the operation unit 24, a CPU (Central Processing Unit) 1000, a memory 1001, a data interface (I / F) 1002, and a display element drive. Circuit 1003.

メモリ1001は、例えばROM(Read Only Memory)領域とRAM(Random Access Memory)領域とを含む。CPU1000は、メモリ1001のROM領域に予め記憶されたプログラムに従い、RAM領域をワークメモリとして用いて、眼鏡ユニット1Aの全体の動作を制御する。   The memory 1001 includes, for example, a ROM (Read Only Memory) area and a RAM (Random Access Memory) area. The CPU 1000 controls the overall operation of the eyeglass unit 1A using the RAM area as a work memory in accordance with a program stored in advance in the ROM area of the memory 1001.

データI/F1002は、ケーブル21が接続され、ケーブル21を介して情報処理ユニット20Aとの間でデータの送受信を行う。また、データI/F1002は、例えば情報処理ユニット20Aからケーブル21を介して電源が供給される場合、供給された電源を、眼鏡ユニット1Aの各部に供給する。   The data I / F 1002 is connected to the cable 21 and transmits / receives data to / from the information processing unit 20A via the cable 21. For example, when power is supplied from the information processing unit 20A via the cable 21, the data I / F 1002 supplies the supplied power to each unit of the spectacle unit 1A.

表示素子駆動回路1003は、CPU1000が画像に応じて生成した表示制御信号に従い、表示素子3を駆動するための表示駆動信号を生成する。表示素子駆動回路1003は、生成した表示駆動信号を表示素子3に供給する。表示素子3は、表示素子駆動回路1003から供給された表示駆動信号により駆動され、光源4からの光を画像に応じて画素毎に変調する。   The display element driving circuit 1003 generates a display driving signal for driving the display element 3 in accordance with the display control signal generated by the CPU 1000 according to the image. The display element driving circuit 1003 supplies the generated display driving signal to the display element 3. The display element 3 is driven by a display drive signal supplied from the display element drive circuit 1003, and modulates light from the light source 4 for each pixel according to an image.

図5において、9軸センサ22は、それぞれx,y,zの3軸にて検知を行うジャイロセンサ(角速度センサ)、加速度センサ、地磁気センサを含む。眼鏡ユニット1Aに組み込まれた9軸センサ22の、地磁気センサの検知出力に基づき、眼鏡ユニット1Aの例えばフロント11Aが向いている方角を高精度に検出することができる。また、9軸センサ22の、ジャイロセンサおよび加速度センサの検知出力に基づき、眼鏡ユニット1Aの水平に対する角度を高精度に検出することができる。   In FIG. 5, the 9-axis sensor 22 includes a gyro sensor (angular velocity sensor), an acceleration sensor, and a geomagnetic sensor that perform detection on three axes of x, y, and z, respectively. Based on the detection output of the geomagnetic sensor of the 9-axis sensor 22 incorporated in the spectacle unit 1A, the direction in which the front 11A of the spectacle unit 1A is facing, for example, can be detected with high accuracy. Further, based on the detection outputs of the 9-axis sensor 22 from the gyro sensor and the acceleration sensor, the angle of the spectacle unit 1A relative to the horizontal can be detected with high accuracy.

したがって、9軸センサ22の検知出力に基づき、眼鏡ユニット1Aの方角を含む向き(姿勢)を高精度に検出することができる。これは、換言すれば、眼鏡ユニット1Aのフロント11Aを介したユーザの視線の方向を測定できるといえる。   Therefore, based on the detection output of the 9-axis sensor 22, the direction (posture) including the direction of the spectacle unit 1A can be detected with high accuracy. In other words, it can be said that the direction of the line of sight of the user through the front 11A of the spectacle unit 1A can be measured.

カメラ23は、動画像を撮像可能とされており、例えば60fps(frame per second)といった所定のフレームレートで撮像画像を出力する。これに限らず、カメラ23が静止画像を撮像するようにしてもよい。   The camera 23 can capture a moving image, and outputs a captured image at a predetermined frame rate such as 60 fps (frame per second). However, the present invention is not limited to this, and the camera 23 may capture a still image.

図6は、第1の実施形態に係る情報処理ユニット20Aのハードウェア構成の例を示す。図6において、情報処理ユニット20Aは、CPU2000と、ROM2001と、RAM2002と、ストレージ2003と、GNSS部2004と、電源部2005と、データI/F2006と、通信I/F2007と、音声I/F2008と、音声・画像解析部2009とを含み、これら各部がバス2020により互いに通信可能に接続される。   FIG. 6 shows an example of the hardware configuration of the information processing unit 20A according to the first embodiment. In FIG. 6, the information processing unit 20A includes a CPU 2000, a ROM 2001, a RAM 2002, a storage 2003, a GNSS unit 2004, a power supply unit 2005, a data I / F 2006, a communication I / F 2007, and a voice I / F 2008. And an audio / image analysis unit 2009, and these units are communicably connected to each other via a bus 2020.

ストレージ2003は、例えばフラッシュメモリといった、不揮発性の半導体メモリを適用可能である。これに限らず、ストレージ2003としてハードディスクドライブを適用してもよい。CPU2000は、ROM2001やストレージ2003に予め記憶されたプログラムに従い、RAM2002をワークメモリとして用いて、この情報処理ユニット20A全体の動作を制御する。   As the storage 2003, a nonvolatile semiconductor memory such as a flash memory can be used. Not limited to this, a hard disk drive may be applied as the storage 2003. The CPU 2000 controls the overall operation of the information processing unit 20A using the RAM 2002 as a work memory in accordance with a program stored in advance in the ROM 2001 or the storage 2003.

GNSS部2004は、GNSSに対応し、GNSSによる衛星60からの電波を受信して、受信した電波に含まれる情報に基づき現在位置を示す位置情報を取得する。GNSS部2004は、例えば、位置情報を緯度および経度の情報として取得する。GNSS部2004は、位置情報と共に、現在の時刻を示す時間情報を取得することができる。   The GNSS unit 2004 corresponds to the GNSS, receives radio waves from the satellite 60 by the GNSS, and acquires position information indicating the current position based on information included in the received radio waves. For example, the GNSS unit 2004 acquires position information as latitude and longitude information. The GNSS unit 2004 can acquire time information indicating the current time together with the position information.

電源部2005は、例えばバッテリにより情報処理ユニット20Aの各部に電源を供給する。また、電源部2005は、データI/F2006に対して、ケーブル21を介して眼鏡ユニット1Aに供給するための電源を供給する。   The power supply unit 2005 supplies power to each unit of the information processing unit 20A using, for example, a battery. In addition, the power supply unit 2005 supplies power to the data I / F 2006 for supply to the eyeglass unit 1A via the cable 21.

データI/F2006は、ケーブル21を介して眼鏡ユニット1AのデータI/F1002と接続され、眼鏡ユニット1Aとの間でデータの送受信を行う。データI/F1002および2006の方式は、USB(Universal Serial Bus)など汎用の規格に準じていてもよいし、独自の方式であってもよい。   The data I / F 2006 is connected to the data I / F 1002 of the spectacle unit 1A via the cable 21 and transmits / receives data to / from the spectacle unit 1A. The data I / Fs 1002 and 2006 may be based on a general-purpose standard such as USB (Universal Serial Bus) or may be an original method.

通信I/F2007は、無線通信によりネットワーク50との間で通信を行う。音声I/F2008は、音声信号の入出力を行う。例えば、音声I/F2008は、ADC(Analog to Digital Converter)を含み、マイクロホン(MIC)2030などから供給されたアナログ方式の音声信号をディジタル方式の音声信号に変換する。また、音声I/F2008は、DAC(Digital to Analog Converter)を含み、供給されたディジタル方式の音声信号をアナログ方式の音声信号に変換して出力する。   A communication I / F 2007 communicates with the network 50 by wireless communication. The audio I / F 2008 inputs and outputs audio signals. For example, the audio I / F 2008 includes an ADC (Analog to Digital Converter), and converts an analog audio signal supplied from a microphone (MIC) 2030 or the like into a digital audio signal. The audio I / F 2008 includes a DAC (Digital to Analog Converter), converts the supplied digital audio signal into an analog audio signal, and outputs the analog audio signal.

音声・画像解析部2009は、音声信号の解析と、画像の解析とを行う。例えば、音声・画像解析部2009は、供給された音声信号を解析して、当該音声信号に含まれる特定の言葉を検出する。また例えば、音声・画像解析部2009は、供給された画像を解析して、画像に含まれる特定のオブジェクトを検出し、また、検出されたオブジェクトの特定の動きを検出する。   The sound / image analysis unit 2009 performs sound signal analysis and image analysis. For example, the sound / image analysis unit 2009 analyzes the supplied sound signal and detects a specific word included in the sound signal. Further, for example, the sound / image analysis unit 2009 analyzes the supplied image, detects a specific object included in the image, and detects a specific movement of the detected object.

図7は、第1の実施形態に係る端末装置10の機能を説明するための一例の機能ブロック図である。図7において、眼鏡ユニット1Aは、表示情報入力部100と、表示制御部101と、9軸検知部102と、検知情報出力部103と、撮像制御部104と、画像情報出力部105とを含む。   FIG. 7 is an exemplary functional block diagram for explaining functions of the terminal device 10 according to the first embodiment. In FIG. 7, the eyeglass unit 1 </ b> A includes a display information input unit 100, a display control unit 101, a 9-axis detection unit 102, a detection information output unit 103, an imaging control unit 104, and an image information output unit 105. .

これら表示情報入力部100、表示制御部101、9軸検知部102、検知情報出力部103、撮像制御部104および画像情報出力部105は、CPU1000で動作するプログラムにより実現される。これに限らず、表示情報入力部100、表示制御部101、9軸検知部102、検知情報出力部103、撮像制御部104および画像情報出力部105のうち一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。   The display information input unit 100, the display control unit 101, the 9-axis detection unit 102, the detection information output unit 103, the imaging control unit 104, and the image information output unit 105 are realized by a program that operates on the CPU 1000. Not limited to this, some or all of the display information input unit 100, the display control unit 101, the nine-axis detection unit 102, the detection information output unit 103, the imaging control unit 104, and the image information output unit 105 cooperate with each other. It may be configured by a hardware circuit that operates.

表示情報入力部100は、情報処理ユニット20Aからケーブル21を介して眼鏡ユニット1Aに供給される、表示素子3に表示させるための表示情報が入力される。表示制御部101は、表示情報入力部100に入力された表示情報に基づき、表示素子3による表示を制御するための表示制御信号を生成する。9軸検知部102は、9軸センサ22によるジャイロセンサ、加速度センサおよび地磁気センサの各センサ出力をディジタルデータに変換する。検知情報出力部103は、9軸検知部102によりディジタルデータに変換された9軸センサ22の各センサ出力を、データI/F1002から送信する。   The display information input unit 100 receives display information supplied from the information processing unit 20A to the eyeglass unit 1A via the cable 21 and displayed on the display element 3. The display control unit 101 generates a display control signal for controlling the display by the display element 3 based on the display information input to the display information input unit 100. The 9-axis detection unit 102 converts each sensor output of the gyro sensor, acceleration sensor, and geomagnetic sensor by the 9-axis sensor 22 into digital data. The detection information output unit 103 transmits each sensor output of the 9-axis sensor 22 converted into digital data by the 9-axis detection unit 102 from the data I / F 1002.

撮像制御部104は、例えばCPU1000の指示に従いカメラ23の撮像動作を制御し、カメラ23から出力された撮像画像を取得する。撮像制御部104は、カメラ23から所定の時間間隔で出力される撮像画像を動画像として取得できる。これに限らず、撮像制御部104は、例えば眼鏡ユニット1Aの操作部24に対する操作に応じたタイミングで、静止画像として撮像画像を取得してもよい。画像情報出力部105は、撮像制御部104により取得された撮像画像を、データI/F1002から送信する。   The imaging control unit 104 controls the imaging operation of the camera 23 according to an instruction from the CPU 1000, for example, and acquires a captured image output from the camera 23. The imaging control unit 104 can acquire captured images output from the camera 23 at predetermined time intervals as moving images. For example, the imaging control unit 104 may acquire a captured image as a still image at a timing according to an operation on the operation unit 24 of the spectacles unit 1A. The image information output unit 105 transmits the captured image acquired by the imaging control unit 104 from the data I / F 1002.

図7において、情報処理ユニット20Aは、受信部200と、送信部201と、位置情報取得部202と、共有情報生成部203と、表示情報生成部204と、入力処理部205と、検知情報入力部206と、頭部運動検出部207と、表示情報出力部208とを含む。   In FIG. 7, the information processing unit 20A includes a receiving unit 200, a transmitting unit 201, a position information acquiring unit 202, a shared information generating unit 203, a display information generating unit 204, an input processing unit 205, and a detection information input. Unit 206, head movement detection unit 207, and display information output unit 208.

これら受信部200、送信部201、位置情報取得部202、共有情報生成部203、表示情報生成部204、入力処理部205、検知情報入力部206、頭部運動検出部207および表示情報出力部208は、CPU2000上で動作するプログラムにより実現される。これに限らず、受信部200、送信部201、位置情報取得部202、共有情報生成部203、表示情報生成部204、入力処理部205、検知情報入力部206、頭部運動検出部207および表示情報出力部208のうち一部および全部を、互いに協働して動作するハードウェア回路により構成してもよい。   These receiving unit 200, transmitting unit 201, position information acquiring unit 202, shared information generating unit 203, display information generating unit 204, input processing unit 205, detection information input unit 206, head movement detection unit 207, and display information output unit 208 Is realized by a program operating on the CPU 2000. Not limited to this, the reception unit 200, the transmission unit 201, the position information acquisition unit 202, the shared information generation unit 203, the display information generation unit 204, the input processing unit 205, the detection information input unit 206, the head movement detection unit 207, and the display A part and all of the information output unit 208 may be configured by a hardware circuit that operates in cooperation with each other.

受信部200は、例えば管理サーバ40Aからネットワーク50を介して送信された情報を受信する。受信部200は、受信した情報を表示情報生成制御部204に渡す。送信部201は、後述する、共有情報生成部203により生成された共有情報を、例えばネットワーク50を介して管理サーバ40Aに送信する。共有情報は、例えば端末装置10a、10b、10cおよび30の間で共有させるための情報である。   The receiving unit 200 receives information transmitted from the management server 40A via the network 50, for example. The receiving unit 200 passes the received information to the display information generation control unit 204. The transmission unit 201 transmits the shared information generated by the shared information generation unit 203, which will be described later, to the management server 40A via the network 50, for example. The shared information is information for sharing among the terminal devices 10a, 10b, 10c, and 30, for example.

位置情報取得部202は、GNSS部2004を制御して、GNSSを利用して現在位置を取得する。位置情報取得部202は、GNSSにより、位置情報と共に現在の時刻を示す時間情報を取得してもよい。位置情報取得部202は、取得した現在位置を示す位置情報を、共有情報生成部203および表示情報生成部204に渡す。   The location information acquisition unit 202 controls the GNSS unit 2004 to acquire the current location using GNSS. The position information acquisition unit 202 may acquire time information indicating the current time together with the position information by GNSS. The position information acquisition unit 202 passes the acquired position information indicating the current position to the shared information generation unit 203 and the display information generation unit 204.

入力処理部205は、画像情報出力部105から出力された撮像画像を解析し、解析結果を共有情報生成部203に渡す。例えば、入力処理部205は、撮像画像の解析により、当該撮像画像から特定のジェスチャなどを検出した場合に、当該ジェスチャに対して予め対応付けられた情報を解析結果として出力する。   The input processing unit 205 analyzes the captured image output from the image information output unit 105 and passes the analysis result to the shared information generation unit 203. For example, when the input processing unit 205 detects a specific gesture or the like from the captured image by analyzing the captured image, the input processing unit 205 outputs information associated with the gesture in advance as an analysis result.

また、入力処理部205に対して、例えばディジタル方式による音声信号を音声情報として入力することができる。入力処理部205は、入力された音声情報を解析して、解析結果を共有情報生成部203に渡す。例えば、入力処理部205は、音声情報の解析により、当該音声情報から特定の単語などを検出した場合に、当該単語に対して予め対応付けられた情報を解析結果として出力する。   In addition, for example, a digital audio signal can be input to the input processing unit 205 as audio information. The input processing unit 205 analyzes the input voice information and passes the analysis result to the shared information generation unit 203. For example, when a specific word or the like is detected from the voice information by analyzing the voice information, the input processing unit 205 outputs information associated with the word in advance as an analysis result.

第1の実施形態では、ジェスチャまたは音声により、端末装置10のユーザの観察対象までの距離を示す距離情報が入力されるものとする。入力処理部205は、ジェスチャまたは音声情報の解析結果として、ジェスチャまたは音声情報により入力された距離情報を出力する。   In the first embodiment, it is assumed that distance information indicating the distance to the observation target of the user of the terminal device 10 is input by gesture or voice. The input processing unit 205 outputs distance information input by the gesture or voice information as the analysis result of the gesture or voice information.

検知情報入力部206は、検知情報出力部103から出力された9軸センサ22の各センサ出力の入力インタフェースとして機能し、9軸センサ22から入力された各センサ出力を頭部運動検出部207に渡す。頭部運動検出部207は、検知情報入力部206から渡された9軸センサ22の各センサ出力を逐次的に解析して、頭部80に装着された眼鏡ユニット1Aの運動を検出する。   The detection information input unit 206 functions as an input interface for each sensor output of the 9-axis sensor 22 output from the detection information output unit 103, and outputs each sensor output input from the 9-axis sensor 22 to the head movement detection unit 207. hand over. The head movement detection unit 207 sequentially analyzes each sensor output of the 9-axis sensor 22 passed from the detection information input unit 206, and detects the movement of the eyeglass unit 1A attached to the head 80.

例えば、頭部運動検出部207は、検知情報入力部206から渡された各センサ出力のうち、地磁気センサの出力を解析して、眼鏡ユニット1Aのフロント11Aが向いている方角を算出する。頭部運動検出部207は、さらに、この地磁気センサの出力に基づく方角の算出に並行して、各センサ出力のうち加速度センサの出力に基づき垂直方向に対するフロント11Aの傾きを算出することができる。   For example, the head movement detection unit 207 analyzes the output of the geomagnetic sensor among the sensor outputs passed from the detection information input unit 206, and calculates the direction in which the front 11A of the eyeglass unit 1A is facing. Further, the head movement detection unit 207 can calculate the inclination of the front 11A with respect to the vertical direction based on the output of the acceleration sensor among the outputs of the sensors in parallel with the calculation of the direction based on the output of the geomagnetic sensor.

頭部運動検出部207は、フロント11Aの向いている方角と、フロント11Aの傾きとを算出することで、眼鏡ユニット1Aの姿勢を示す姿勢情報を、3次元の情報として取得することができる。これにより、眼鏡ユニット1Aのフロント11Aを介したユーザの視線の方向を高精度に測定できる。頭部運動検出部207は、取得した、眼鏡ユニット1Aの姿勢を示す姿勢情報を、共有情報生成部203に渡す。   The head movement detection unit 207 can obtain posture information indicating the posture of the spectacle unit 1A as three-dimensional information by calculating the direction in which the front 11A is facing and the inclination of the front 11A. Thereby, the direction of the user's line of sight via the front 11A of the spectacle unit 1A can be measured with high accuracy. The head movement detection unit 207 passes the acquired posture information indicating the posture of the eyeglass unit 1 </ b> A to the shared information generation unit 203.

共有情報生成部203は、位置情報取得部202から渡された位置情報と、頭部運動検出部207から渡された姿勢情報と、入力処理部205から渡された撮像画像または音声情報の解析結果とが入力される。共有情報生成部203は、これら位置情報、姿勢情報および解析結果に基づき、共有情報を生成する。共有情報生成部203は、生成した共有情報を送信部201に渡す。   The shared information generation unit 203 analyzes the positional information passed from the positional information acquisition unit 202, the posture information passed from the head movement detection unit 207, and the analysis result of the captured image or audio information passed from the input processing unit 205. Are entered. The shared information generation unit 203 generates shared information based on the position information, the posture information, and the analysis result. The shared information generation unit 203 passes the generated shared information to the transmission unit 201.

このように、情報処理ユニット20Aにおける位置情報取得部202と、共有情報生成部203と、入力処理部205と、検知情報入力部206と、頭部運動検出部207とにより、共有情報を取得する取得部が構成される。   Thus, the shared information is acquired by the position information acquisition unit 202, the shared information generation unit 203, the input processing unit 205, the detection information input unit 206, and the head movement detection unit 207 in the information processing unit 20A. An acquisition unit is configured.

表示情報生成部204は、位置情報取得部202から渡された位置情報および時間情報と、受信部200から渡された情報とに基づき、表示素子3に表示させるための表示情報を生成する。例えば、表示情報生成部204は、少なくとも表示素子3の画素数に対応す容量のビデオメモリを含み、生成した表示情報に従いビデオメモリに対して画素情報を書き込み描画を行う。表示情報生成部204で生成された表示情報は、表示情報出力部208を介して眼鏡ユニット1Aに送信され、表示情報入力部100に入力される。   The display information generation unit 204 generates display information to be displayed on the display element 3 based on the position information and time information passed from the position information acquisition unit 202 and the information passed from the reception unit 200. For example, the display information generation unit 204 includes a video memory having a capacity corresponding to at least the number of pixels of the display element 3, and writes and draws pixel information to the video memory according to the generated display information. Display information generated by the display information generation unit 204 is transmitted to the eyeglass unit 1A via the display information output unit 208 and input to the display information input unit 100.

第1の実施形態に係る情報処理ユニット20Aの各機能を実現するための情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、情報処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、情報処理プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。   An information processing program for realizing each function of the information processing unit 20A according to the first embodiment is a file in an installable format or an executable format, which is a CD (Compact Disk), a flexible disk (FD), a DVD ( Provided on a computer-readable recording medium such as Digital Versatile Disk). However, the present invention is not limited thereto, and the information processing program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The information processing program may be provided or distributed via a network such as the Internet.

情報処理プログラムは、上述した各部(受信部200、送信部201、位置情報取得部202、共有情報生成部203、表示情報生成部204、入力処理部205、検知情報入力部206、頭部運動検出部207および表示情報出力部208)を含むモジュール構成となっている。実際のハードウェアとしては、CPU2000がストレージ2003などの記憶媒体から当該情報処理プログラムを読み出して実行することにより、上述した各部がRAM2002などの主記憶装置上にロードされ、受信部200、送信部201、位置情報取得部202、共有情報生成部203、表示情報生成部204、入力処理部205、検知情報入力部206、頭部運動検出部207および表示情報出力部208が主記憶装置上に生成されるようになっている。   The information processing program includes the above-described units (reception unit 200, transmission unit 201, position information acquisition unit 202, shared information generation unit 203, display information generation unit 204, input processing unit 205, detection information input unit 206, head movement detection. Module 207 and display information output unit 208). As actual hardware, the CPU 2000 reads the information processing program from a storage medium such as the storage 2003 and executes the information processing program, whereby the above-described units are loaded onto the main storage device such as the RAM 2002, and the reception unit 200 and the transmission unit 201 are loaded. The position information acquisition unit 202, the shared information generation unit 203, the display information generation unit 204, the input processing unit 205, the detection information input unit 206, the head movement detection unit 207, and the display information output unit 208 are generated on the main storage device. It has become so.

図8は、第1の実施形態に適用可能な管理サーバ40Aのハードウェア構成の例を示す。管理サーバ40Aは、一般的なサーバ装置と同様の構成を適用できる。例えば、図8に示されるように、管理サーバ40Aは、CPU4000と、ROM4001と、RAM4002と、ストレージ4003と、通信I/F4004とを備え、これら各部がバス4010により互いに通信可能に接続される。   FIG. 8 shows an example of the hardware configuration of the management server 40A applicable to the first embodiment. The management server 40A can apply the same configuration as a general server device. For example, as illustrated in FIG. 8, the management server 40A includes a CPU 4000, a ROM 4001, a RAM 4002, a storage 4003, and a communication I / F 4004, and these units are connected to each other via a bus 4010 so as to communicate with each other.

ストレージ4003は、不揮発に情報を記憶する記憶媒体であって、ハードディスクドライブを適用可能である。これに限らず、ストレージ4003として、例えばフラッシュメモリといった、不揮発性の半導体メモリを適用してもよい。CPU4000は、ROM4001やストレージ4003に予め記憶されたプログラムに従い、RAM4002をワークメモリとして用いて、この管理サーバ40A全体の動作を制御する。通信I/F4004は、ネットワーク50を介した通信を行う。   The storage 4003 is a storage medium that stores information in a nonvolatile manner, and a hard disk drive can be applied. For example, a non-volatile semiconductor memory such as a flash memory may be used as the storage 4003. The CPU 4000 controls the overall operation of the management server 40A using the RAM 4002 as a work memory according to a program stored in the ROM 4001 or the storage 4003 in advance. The communication I / F 4004 performs communication via the network 50.

図9は、第1の実施形態に係る管理サーバ40Aの機能を説明するための一例の機能ブロック図である。図9において、管理サーバ40Aは、受信部400と、共有情報取得部401と、地図情報取得部402と、位置算出部403と、属性情報記憶部404と、送信部405とを含む。受信部400、共有情報取得部401、地図情報取得部402、位置算出部403および送信部405は、CPU4000上で動作するプログラムにより実現される。属性情報記憶部404は、例えばストレージ4003上の所定の領域に形成される。   FIG. 9 is a functional block diagram illustrating an example of the function of the management server 40A according to the first embodiment. In FIG. 9, the management server 40 </ b> A includes a reception unit 400, a shared information acquisition unit 401, a map information acquisition unit 402, a position calculation unit 403, an attribute information storage unit 404, and a transmission unit 405. The reception unit 400, the shared information acquisition unit 401, the map information acquisition unit 402, the position calculation unit 403, and the transmission unit 405 are realized by a program that operates on the CPU 4000. The attribute information storage unit 404 is formed in a predetermined area on the storage 4003, for example.

これに限らず、これら受信部400、共有情報取得部401、地図情報取得部402、位置算出部403および送信部405のうち一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。   Not limited to this, a part or all of the receiving unit 400, the shared information acquiring unit 401, the map information acquiring unit 402, the position calculating unit 403, and the transmitting unit 405 are configured by hardware circuits that operate in cooperation with each other. May be.

受信部400は、ネットワーク50を介して送信された情報を受信する。送信部405は、ネットワーク50に対する情報の送信を行う。共有情報取得部401は、受信部400により受信された情報に上述した共有情報が含まれる場合に、当該共有情報を取得する。   The receiving unit 400 receives information transmitted via the network 50. The transmission unit 405 transmits information to the network 50. The shared information acquisition unit 401 acquires the shared information when the information received by the receiving unit 400 includes the above-described shared information.

地図情報取得部402は、例えばネットワーク50を介して、地図情報を取得する。地図情報取得部402は、ネットワーク50を介して提供される地図情報提供サービスを利用して地図情報を取得することができる。これに限らず、管理サーバ40Aにおいてストレージ4003などに予め地図情報を記憶しておき、地図情報取得部402が、この管理サーバ40Aにより記憶された地図情報を取得してもよい。   The map information acquisition unit 402 acquires map information via the network 50, for example. The map information acquisition unit 402 can acquire map information using a map information providing service provided via the network 50. Not limited to this, map information may be stored in advance in the storage 4003 or the like in the management server 40A, and the map information acquisition unit 402 may acquire the map information stored in the management server 40A.

位置算出部403は、共有情報取得部401により取得された共有情報に基づき、対象の位置を示す位置情報を算出する。属性情報記憶部404は、対象の属性を示す属性情報と、属性を表すマーカ画像とを関連付けた属性情報テーブルを記憶する。   The position calculation unit 403 calculates position information indicating the target position based on the shared information acquired by the shared information acquisition unit 401. The attribute information storage unit 404 stores an attribute information table in which attribute information indicating a target attribute is associated with a marker image representing the attribute.

このような構成において、例えばユーザAは、端末装置10aを頭部80に装着して、観察対象の方角を向く。これにより、ユーザAは、端末装置10aにおける眼鏡ユニット1Aのフロント11Aを介して、当該対象を目視することができる。端末装置10aは、位置情報取得部202による位置情報の取得と、頭部運動検出部207による姿勢情報の取得とを、逐次的に実行し、取得された位置情報および姿勢情報と、端末装置10aを識別する識別情報とを含む共有情報を、ネットワーク50を介して管理サーバ40Aに送信する。   In such a configuration, for example, the user A wears the terminal device 10a on the head 80 and faces the direction of the observation target. Thereby, the user A can visually observe the target through the front 11A of the eyeglass unit 1A in the terminal device 10a. The terminal device 10a sequentially executes acquisition of position information by the position information acquisition unit 202 and acquisition of posture information by the head movement detection unit 207, and the acquired position information and posture information, and the terminal device 10a. The shared information including the identification information for identifying is transmitted to the management server 40A via the network 50.

管理サーバ40Aは、端末装置10aから送信された共有情報を受信する。管理サーバ40Aは、地図情報取得部402により、受信した共有情報に含まれる位置情報に基づき、例えば位置情報が示す位置を含む地図情報を取得する。管理サーバ40Aは、送信部405により、地図情報と、位置情報と、姿勢情報とをネットワーク50を介して端末装置10b、10cおよび30に送信する。   The management server 40A receives the shared information transmitted from the terminal device 10a. The management server 40A acquires map information including the position indicated by the position information, for example, based on the position information included in the received shared information by the map information acquisition unit 402. The management server 40 </ b> A transmits map information, position information, and attitude information to the terminal devices 10 b, 10 c, and 30 via the network 50 by the transmission unit 405.

端末装置10b、10cおよび30は、管理サーバ40Aから送信された地図情報、位置情報および姿勢情報を受信する。端末装置10b、10cおよび30は、受信した位置情報に従い、地図情報に基づく地図画像上の当該位置情報に対応する位置に、端末装置10aを示す所定の画像を重畳させる。また、端末装置10b、10cおよび30は、受信した姿勢情報に含まれる方角情報に従い、端末装置10aのフロント11Aが向いている方角(すなわちユーザAが目視している方角)を表示させることができる。   The terminal devices 10b, 10c, and 30 receive map information, position information, and posture information transmitted from the management server 40A. The terminal devices 10b, 10c, and 30 superimpose a predetermined image indicating the terminal device 10a on the position corresponding to the position information on the map image based on the map information in accordance with the received position information. Further, the terminal devices 10b, 10c, and 30 can display the direction in which the front 11A of the terminal device 10a is facing (that is, the direction that the user A is viewing) according to the direction information included in the received posture information. .

このように、各端末装置10b、10cおよび30において、端末装置10aの位置と、ユーザAが目視している方角とを共有することができる。   Thus, in each terminal device 10b, 10c, and 30, it is possible to share the position of the terminal device 10a and the direction that the user A is viewing.

なお、端末装置10aにおいては、位置情報取得部202により取得された位置情報と、頭部運動検出部207で取得された姿勢情報とを、端末装置10a内部で処理可能である。したがって、端末装置10aは、自装置の位置と、自装置が向いている方角(眼鏡ユニット1Aのフロント11Aが向いている方角)とを示す表示を、管理サーバ40Aから送信された情報を用いずに、端末装置10a内で取得した情報により実行可能である。   In the terminal device 10a, the position information acquired by the position information acquisition unit 202 and the posture information acquired by the head movement detection unit 207 can be processed inside the terminal device 10a. Therefore, the terminal device 10a does not use the information transmitted from the management server 40A to display the position of the device itself and the direction in which the device is facing (the direction in which the front 11A of the glasses unit 1A is facing). In addition, it can be executed by the information acquired in the terminal device 10a.

端末装置10aは、さらに、ユーザAによるジェスチャや音声入力を入力処理部205により解析し、対象までの距離を示す距離情報を取得することができる。端末装置10aは、取得した距離情報を、上述した位置情報、姿勢情報および識別情報と共に管理サーバ40Aに送信する。管理サーバ40Aは、位置算出部403により、端末装置10aから送信された位置情報が示す位置と、当該位置における、姿勢情報が示す方角(姿勢)と、距離情報とに基づき、対象の位置を算出する。対象の位置は、例えば緯度および経度を用いた座標情報として算出される。   Furthermore, the terminal device 10a can analyze the gesture and voice input by the user A by the input processing unit 205, and can acquire distance information indicating the distance to the target. The terminal device 10a transmits the acquired distance information to the management server 40A together with the above-described position information, posture information, and identification information. The management server 40A calculates the target position by the position calculation unit 403 based on the position indicated by the position information transmitted from the terminal device 10a, the direction (attitude) indicated by the attitude information at the position, and the distance information. To do. The target position is calculated as coordinate information using, for example, latitude and longitude.

管理サーバ40Aは、位置算出部403により算出された位置情報を、対象を示す対象情報として、地図情報と、端末装置10aに関する位置情報および姿勢情報と共に、送信部405によりネットワーク50を介して各端末装置10b、10cおよび30に送信する。また、管理サーバ40Aは、属性情報記憶部404からマーカ画像を取得して、これらの情報と共に端末装置10b、10cおよび30に送信することができる。このように、位置算出部403は、対象情報を生成する生成部として機能する。   The management server 40A uses the position information calculated by the position calculation unit 403 as target information indicating the target, together with the map information and the position information and orientation information regarding the terminal device 10a, by the transmission unit 405 via the network 50. Transmit to devices 10b, 10c and 30. In addition, the management server 40A can acquire a marker image from the attribute information storage unit 404 and transmit it to the terminal devices 10b, 10c, and 30 together with the information. Thus, the position calculation unit 403 functions as a generation unit that generates target information.

各端末装置10b、10cおよび30は、管理サーバ40Aから送信された地図情報、位置情報および姿勢情報に基づき、上述と同様にして、地図情報に基づく地図画像上の当該位置情報に対応する位置に、端末装置10aを示す所定の画像を重畳させる。さらに、各端末装置10b、10cおよび30は、管理サーバ40Aから送信された対象情報に基づき、地図情報に基づく地図画像上の、対象情報に対応する位置に、対象を示す所定のマーカ画像を重畳させる。管理サーバ40Aからマーカ画像が送信されている場合は、このマーカ画像を用いることができる。これにより、端末装置10b、10cおよび30において、対象の位置を共有することができる。   Each terminal device 10b, 10c, and 30 is located at a position corresponding to the position information on the map image based on the map information based on the map information, the position information, and the posture information transmitted from the management server 40A in the same manner as described above. Then, a predetermined image showing the terminal device 10a is superimposed. Further, each terminal device 10b, 10c, and 30 superimposes a predetermined marker image indicating a target at a position corresponding to the target information on a map image based on the map information, based on the target information transmitted from the management server 40A. Let When a marker image is transmitted from the management server 40A, this marker image can be used. Thereby, in the terminal devices 10b, 10c, and 30, the target position can be shared.

図10は、第1の実施形態に係る情報共有システムにおける処理の例を示すシーケンス図である。なお、図10において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。また、図10では、端末装置10aを「端末装置A」、端末装置10bを「端末装置B」として、それぞれ示している。   FIG. 10 is a sequence diagram illustrating an example of processing in the information sharing system according to the first embodiment. In FIG. 10, the same reference numerals are given to the same parts as those in FIG. 1 described above, and detailed description thereof is omitted. In FIG. 10, the terminal device 10 a is illustrated as “terminal device A”, and the terminal device 10 b is illustrated as “terminal device B”.

さらに、端末装置10aは、対象の情報を含む共有情報を送信し、端末装置10bは、共有情報に基づき管理サーバ40Aにより生成された共有情報を受信するものとする。この場合において、情報共有システムに接続される他の端末装置10cおよび30は、端末装置10bと同様の処理を互いに並列的に実行することが可能である。以下では、端末装置10b、10cおよび30を、端末装置10bで代表させて説明を行う。   Further, it is assumed that the terminal device 10a transmits shared information including target information, and the terminal device 10b receives the shared information generated by the management server 40A based on the shared information. In this case, the other terminal devices 10c and 30 connected to the information sharing system can execute processes similar to those of the terminal device 10b in parallel with each other. Hereinafter, the terminal devices 10b, 10c, and 30 will be described by using the terminal device 10b as a representative.

先ず、ステップS10およびステップS30で、端末装置10aおよび10bは、それぞれ管理サーバ40Aとの間でセッションを確立する。これにより、端末装置10aおよび10bは、それぞれ、管理サーバ40Aとネットワーク50を介した通信が可能な状態となる。   First, in step S10 and step S30, the terminal devices 10a and 10b each establish a session with the management server 40A. As a result, the terminal devices 10a and 10b can communicate with the management server 40A via the network 50, respectively.

端末装置10aは、管理サーバ40Aと通信可能な状態となると、端末装置10aが有する位置情報取得部202により、端末装置10a自身の位置を示す位置情報と、端末装置10aの眼鏡ユニット1A(フロント11A)が向いている方角を示す方角情報とを取得する(ステップS11)。端末装置10aは、さらに、現在の時刻を示す時間情報を取得してもよい。端末装置10bでも同様にして、位置情報および方角情報を取得する(ステップS31)。   When the terminal device 10a becomes communicable with the management server 40A, the position information acquisition unit 202 included in the terminal device 10a causes the position information indicating the position of the terminal device 10a itself and the glasses unit 1A (front 11A) of the terminal device 10a. ) Is acquired (step S11). The terminal device 10a may further acquire time information indicating the current time. Similarly, the terminal device 10b acquires position information and direction information (step S31).

以降、特に記載の無い限り、位置情報および方角情報を纏めて位置・方角情報とし、端末装置10aが取得する位置・方角情報を位置・方角情報A、端末装置10bが取得する位置・方角情報を位置・方角情報Bとして説明を行う。   Thereafter, unless otherwise specified, the position information and direction information are collectively referred to as position / direction information, the position / direction information acquired by the terminal device 10a is the position / direction information A, and the position / direction information acquired by the terminal device 10b is The position / direction information B will be described.

なお、図10の例では、ステップS11およびステップS31の位置・方角情報の取得処理が、ステップS10およびステップS30のセッション確立後に実行されるように示しているが、これはこの例に限定されない。すなわち、端末装置10aおよび10bは、管理サーバ40Aとの間でのセッション確立の有無に関わらず、位置・方角情報を取得できる。   In the example of FIG. 10, the position / direction information acquisition processing in step S11 and step S31 is shown to be executed after the session establishment in step S10 and step S30, but this is not limited to this example. That is, the terminal devices 10a and 10b can acquire position / direction information regardless of whether or not a session is established with the management server 40A.

また、上述では、例えば端末装置10aがGNSSを利用して位置情報を取得するように説明したが、これはこの例に限定されない。例えば、端末装置10aは、屋内などにおいて送信される、無線LANなどによるビーコン信号に基づき位置情報を取得することができる。   In the above description, for example, the terminal device 10a has been described as acquiring position information using GNSS, but this is not limited to this example. For example, the terminal device 10a can acquire position information based on a beacon signal transmitted indoors or the like by a wireless LAN or the like.

一方、管理サーバ40Aは、地図情報取得部402により地図情報を取得する(ステップS20)。例えば、管理サーバ40Aにおいて、ストレージ4003などに、所定範囲の地図情報を予め記憶しておき、地図情報取得部402は、この記憶された地図情報を取得する。地図情報が地図情報提供サービスによりネットワーク50を介して取得される場合には、管理サーバ40Aは、例えばこの地図情報提供サービスから、所定範囲の地図情報を取得する。取得する地図情報の範囲は、端末装置10aおよび10bの存在位置を予測して、予め設定しておくものとする。   On the other hand, the management server 40A acquires map information by the map information acquisition unit 402 (step S20). For example, in the management server 40A, map information in a predetermined range is stored in advance in the storage 4003 or the like, and the map information acquisition unit 402 acquires the stored map information. When map information is acquired by the map information providing service via the network 50, the management server 40A acquires a predetermined range of map information from, for example, the map information providing service. The range of the map information to be acquired is set in advance by predicting the location of the terminal devices 10a and 10b.

端末装置10aは、ステップS11で位置・方角情報Aを取得すると、取得した位置・方角情報Aと、端末装置10aを識別するための識別情報とを管理サーバ40Aに送信する(ステップS12)。同様に、端末装置10bは、ステップS31で位置・方角情報Bを取得すると、取得した位置・方角情報Bと、端末装置10bを識別するための識別情報とを管理サーバ40Aに送信する(ステップS32)。   When the terminal device 10a acquires the position / direction information A in step S11, the terminal device 10a transmits the acquired position / direction information A and identification information for identifying the terminal device 10a to the management server 40A (step S12). Similarly, when the terminal device 10b acquires the position / direction information B in step S31, the terminal device 10b transmits the acquired position / direction information B and identification information for identifying the terminal device 10b to the management server 40A (step S32). ).

管理サーバ40Aは、ステップS12で端末装置10aから送信された位置・方角情報Aを受信すると、地図情報と位置・方角情報Aとを端末装置10bに送信する(ステップS22)。また、管理サーバ40Aは、ステップS32で端末装置10bから送信された位置・方角情報Bを受信すると、地図情報と位置・方角情報Bとを端末装置10aに送信する(ステップS21)。   When the management server 40A receives the position / direction information A transmitted from the terminal device 10a in step S12, the management server 40A transmits the map information and the position / direction information A to the terminal device 10b (step S22). In addition, when the management server 40A receives the position / direction information B transmitted from the terminal device 10b in step S32, the management server 40A transmits the map information and the position / direction information B to the terminal device 10a (step S21).

端末装置10aは、管理サーバ40Aから地図情報および位置・方角情報Bを受信すると、表示情報生成部204により、位置・方角情報Bと、端末装置10a自身で取得した位置・方角情報Aとに基づき、地図情報に基づき地図画像に表示される範囲を調整する(ステップS13)。例えば、表示情報生成部204は、当該範囲を、位置・方角情報Aに含まれる位置情報に示される位置を中心とし、位置・方角情報Bに含まれる位置情報に示される位置が含まれるように調整する。   Upon receiving the map information and the position / direction information B from the management server 40A, the terminal device 10a uses the display information generation unit 204 based on the position / direction information B and the position / direction information A acquired by the terminal device 10a itself. The range displayed on the map image is adjusted based on the map information (step S13). For example, the display information generation unit 204 has the range centered on the position indicated by the position information included in the position / direction information A and includes the position indicated by the position information included in the position / direction information B. adjust.

端末装置10aは、地図情報に基づき、ステップS13で調整された範囲の地図画像を表示情報生成部204により生成し、生成した地図画像に対して、位置・方角情報AおよびBにそれぞれ含まれる位置情報に示される位置に、端末装置10aおよび10bをそれぞれ示す所定のマーカ画像を重畳させる。このマーカ画像は、例えば表示情報生成部204が予め記憶しているものとする。端末装置10aは、マーカ画像が重畳された地図画像を、端末装置10aが備える眼鏡ユニット1Aのディスプレイに表示させる(ステップS14)。   Based on the map information, the terminal device 10a generates a map image of the range adjusted in step S13 by the display information generation unit 204, and the position / direction information A and B included in the generated map image, respectively. Predetermined marker images indicating the terminal devices 10a and 10b are superimposed on the positions indicated by the information. This marker image is stored in advance by the display information generation unit 204, for example. The terminal device 10a displays the map image on which the marker image is superimposed on the display of the spectacle unit 1A included in the terminal device 10a (step S14).

端末装置10bでも同様に、管理サーバ40Aから地図情報および位置・方角情報Aを受信すると、位置・方角情報Aと、端末装置10b自身で取得した位置・方角情報Bとに基づき、例えば、位置・方角情報Bに含まれる位置情報に示される位置を中心とし、位置・方角情報Aに含まれる位置情報に示される位置が含まれるように、地図情報に基づき地図画像に表示される範囲を調整する(ステップS33)。   Similarly, when the terminal device 10b receives the map information and the position / direction information A from the management server 40A, for example, based on the position / direction information A and the position / direction information B acquired by the terminal device 10b itself, The range displayed on the map image is adjusted based on the map information so that the position shown in the position information included in the position / direction information A is included with the position indicated in the position information included in the direction information B as the center. (Step S33).

端末装置10bは、ステップS33で調整された範囲の地図画像を作成し、生成した地図画像に対して、位置・方角情報BおよびAに含まれる各位置情報に示される各位置に、端末装置10bおよび10aをそれぞれ示すマーカ画像を重畳させる。端末装置10bは、マーカ画像が表示された地図画像を、端末装置10bが備える眼鏡ユニット1Aのディスプレイに表示させる(ステップS34)。   The terminal device 10b creates a map image in the range adjusted in step S33, and at each position indicated by the position information included in the position / direction information B and A with respect to the generated map image, the terminal device 10b. And 10a are respectively superimposed. The terminal device 10b displays the map image on which the marker image is displayed on the display of the spectacle unit 1A provided in the terminal device 10b (step S34).

図11を用いて、第1の実施形態に係る、端末装置10aが備える眼鏡ユニット1Aのディスプレイに表示される画面について説明する。ユーザAは、図11(a)に例示されるように、端末装置10aの眼鏡ユニット1Aを頭部に装着し、対象500を目視しているものとする。   A screen displayed on the display of the spectacle unit 1A included in the terminal device 10a according to the first embodiment will be described with reference to FIG. As illustrated in FIG. 11A, it is assumed that the user A is wearing the eyeglass unit 1A of the terminal device 10a on the head and is viewing the target 500.

図11(b)は、この場合に端末装置10aが備える眼鏡ユニット1Aのディスプレイに表示される画面の例を示す。図11(b)において、ディスプレイに表示される画面70は、地図画像700を含む。地図画像700において、位置情報取得部202に取得された位置情報に対応する位置に、自装置(端末装置10a)を示すマーカ画像である自装置マーカ702が重畳されて表示される。このとき、自装置マーカ702は、頭部運動検出部207で検出された方角情報に従い、眼鏡ユニット1Aが向いている方角を指し示すように表示される。   FIG.11 (b) shows the example of the screen displayed on the display of the spectacles unit 1A with which the terminal device 10a is provided in this case. In FIG. 11B, the screen 70 displayed on the display includes a map image 700. In the map image 700, a self-device marker 702 that is a marker image indicating the self-device (terminal device 10a) is superimposed and displayed at a position corresponding to the position information acquired by the position information acquisition unit 202. At this time, the self-device marker 702 is displayed so as to indicate the direction in which the eyeglass unit 1A is directed in accordance with the direction information detected by the head movement detection unit 207.

また、地図画像700において、位置・方角情報Bに含まれる位置情報に対応する位置に、端末装置10bを示すマーカ画像703bと、端末装置10bを識別する識別情報とが重畳されて表示される。この例では、端末装置10bの識別情報として、端末装置10bを使用する使用者名(ユーザB)が用いられている。端末装置10cについても同様に、端末装置10cの位置・方角情報に含まれる位置情報に対応する位置に、端末装置10cを示すマーカ画像703cと、端末装置10cを識別する識別情報(ユーザC)とが重畳されて表示される。   In the map image 700, a marker image 703b indicating the terminal device 10b and identification information for identifying the terminal device 10b are superimposed and displayed at a position corresponding to the position information included in the position / direction information B. In this example, the user name (user B) who uses the terminal device 10b is used as the identification information of the terminal device 10b. Similarly, for the terminal device 10c, a marker image 703c indicating the terminal device 10c at a position corresponding to the position information included in the position / direction information of the terminal device 10c, and identification information (user C) identifying the terminal device 10c, Are superimposed and displayed.

非モバイル端末である端末装置30については、端末装置30が自身の位置情報を取得可能であれば、モバイル端末である端末装置10bおよび10cと同様に、端末装置30の位置に対応する地図画像700上の位置に、マーカ画像703dを重畳させて表示させることができる。   For the terminal device 30 that is a non-mobile terminal, if the terminal device 30 can acquire its own location information, the map image 700 corresponding to the position of the terminal device 30 is the same as the terminal devices 10b and 10c that are mobile terminals. The marker image 703d can be displayed superimposed on the upper position.

また、ユーザAは、端末装置10aのカメラ23により撮像した撮像画像を画面70にさらに表示させることができる。図11(b)の例では、画面70に対して、撮像画像による画像701が一部を地図画像700に重畳させて表示されている。また、ステップS12において、撮像画像を、位置・方角情報Aおよび識別情報と共に管理サーバ40Aに送信することで、端末装置10bおよび10cそれぞれの画面70に対して、画像701を表示させることができる。また、同様にして、端末装置30の画面71に対して、画像701を表示させることができる。   Further, the user A can further display a captured image captured by the camera 23 of the terminal device 10a on the screen 70. In the example of FIG. 11B, an image 701 based on the captured image is displayed on the screen 70 with a part thereof superimposed on the map image 700. In step S12, the captured image is transmitted to the management server 40A together with the position / direction information A and the identification information, so that the image 701 can be displayed on the screen 70 of each of the terminal devices 10b and 10c. Similarly, the image 701 can be displayed on the screen 71 of the terminal device 30.

なお、上述した、端末装置10aにおけるステップS11〜ステップS14の処理、端末装置10bにおけるステップS31〜ステップS34の処理、ならびに、管理サーバ40AにおけるステップS21およびステップS22の処理は、それぞれ、例えば所定の時間間隔で繰り返し実行される。   In addition, the process of step S11-step S14 in the terminal device 10a mentioned above, the process of step S31-step S34 in the terminal device 10b, and the process of step S21 and step S22 in the management server 40A are respectively performed for a predetermined time, for example. It is executed repeatedly at intervals.

説明は図10に戻り、端末装置10aは、例えばユーザAにより対象の情報を端末装置10bと共有させる情報共有を開始する旨の指示が与えられると、共有情報生成部203により共有情報を生成する(ステップS15)。端末装置10aは、生成した共有情報を管理サーバ40Aに送信する(ステップS16)。   Returning to FIG. 10, the terminal device 10 a generates shared information by the shared information generation unit 203 when, for example, the user A gives an instruction to start sharing information to share the target information with the terminal device 10 b. (Step S15). The terminal device 10a transmits the generated shared information to the management server 40A (step S16).

より具体的には、共有情報生成部203は、頭部運動検出部207で検出された方角情報と、位置情報取得部202で取得された位置情報とを取得する。さらに、共有情報生成部203は、後述する方法により、ユーザAから対象までの距離を示す距離情報を取得する。共有情報生成部203は、取得したこれら方角情報、位置情報および距離情報を含む共有情報を生成し(ステップS15)、共有情報を取得する。端末装置10aは、共有情報生成部203により取得された共有情報を管理サーバ40Aに送信する(ステップS16)。   More specifically, the shared information generation unit 203 acquires the direction information detected by the head movement detection unit 207 and the position information acquired by the position information acquisition unit 202. Furthermore, the shared information generation unit 203 acquires distance information indicating the distance from the user A to the target by a method described later. The shared information generation unit 203 generates shared information including the acquired direction information, position information, and distance information (step S15), and acquires shared information. The terminal device 10a transmits the shared information acquired by the shared information generation unit 203 to the management server 40A (step S16).

管理サーバ40Aは、ステップS23で、端末装置10aから送信された共有情報を受信し、受信した共有情報に基づき対象500の位置を求める。より具体的には、管理サーバ40Aは、共有情報に含まれるユーザAの位置情報および方角情報と、ユーザAから対象500までの距離を示す距離情報とを用いて、対象500の位置情報として緯度および経度を算出する。   In step S23, the management server 40A receives the shared information transmitted from the terminal device 10a, and obtains the position of the target 500 based on the received shared information. More specifically, the management server 40A uses the position information and direction information of the user A included in the shared information and distance information indicating the distance from the user A to the target 500 as latitude information of the target 500. And calculate longitude.

基準位置における位置情報および方角情報と、基準位置から方角情報が示す方角における対象までの距離情報とに基づき、当該対象の緯度、経度を求める方法としては、例えばVincentyの公式や、Hubenyの公式を用いた算出方法が知られている。   Based on the position information and direction information at the reference position, and the distance information from the reference position to the object in the direction indicated by the direction information, for example, Vincenty's formula or Hubeny's formula is used as a method for obtaining the latitude and longitude of the target. The calculation method used is known.

管理サーバ40Aは、ステップS23で求めた、共有情報としての対象500の位置を示す位置情報を含む対象情報を、端末装置10aおよび10bにそれぞれ送信する(ステップS24、ステップS25)。   The management server 40A transmits the target information including the position information indicating the position of the target 500 as the shared information obtained in step S23 to the terminal devices 10a and 10b, respectively (step S24 and step S25).

端末装置10aは、管理サーバ40Aから送信された対象情報を受信する。端末装置10aは、ステップS14で端末装置10aおよび10bを示す各マーカ画像が重畳された地図画像に対して、受信した対象情報に含まれる対象500の位置を示す位置情報に対応する当該地図画像上の位置に、対象500を示すマーカ画像をさらに重畳させる(ステップS17)。端末装置10aは、対象500を示すマーカ画像がさらに重畳された地図画像を、端末装置10aが備える眼鏡ユニット1Aのディスプレイに表示させる。   The terminal device 10a receives the target information transmitted from the management server 40A. On the map image corresponding to the position information indicating the position of the target 500 included in the received target information, the terminal device 10a is on the map image on which the marker images indicating the terminal devices 10a and 10b are superimposed in step S14. A marker image indicating the object 500 is further superimposed on the position (step S17). The terminal device 10a displays a map image on which a marker image indicating the target 500 is further superimposed on the display of the glasses unit 1A provided in the terminal device 10a.

同様に、端末装置10bは、管理サーバ40Aから送信された対象情報を受信する。端末装置10bは、ステップS34で端末装置10bおよび10aを示す各マーカ画像が重畳された地図画像に対して、受信した対象情報に含まれる対象500の位置を示す位置情報に対応する当該地図画像上の位置に、対象500示すマーカ画像をさらに重畳させる(ステップS35)。端末装置10bは、対象500を示すマーカ画像がさらに重畳された地図画像を、端末装置10bが備える眼鏡ユニット1Aのディスプレイに表示させる。   Similarly, the terminal device 10b receives the target information transmitted from the management server 40A. On the map image corresponding to the position information indicating the position of the target 500 included in the received target information, the terminal device 10b is placed on the map image on which the marker images indicating the terminal devices 10b and 10a are superimposed in step S34. The marker image indicated by the object 500 is further superimposed on the position (step S35). The terminal device 10b displays a map image on which a marker image indicating the target 500 is further superimposed on the display of the glasses unit 1A provided in the terminal device 10b.

図12は、第1の実施形態に係る共有情報の生成方法を示す一例のフローチャートである。この図12のフローチャートを参照して、上述した図10のシーケンス図における端末装置10aの、ステップS11〜ステップS16の処理をより詳細に説明する。なお、ここでは、ユーザAが、頭部80に装着した端末装置10aのフロント11Aを介して目視している対象500について、情報共有を行うものとして説明を行う。   FIG. 12 is a flowchart of an example showing a method for generating shared information according to the first embodiment. With reference to the flowchart of FIG. 12, the process of step S11-step S16 of the terminal device 10a in the sequence diagram of FIG. 10 mentioned above is demonstrated in detail. Here, the description will be made on the assumption that the user A is sharing information with respect to the target 500 viewed through the front 11A of the terminal device 10a attached to the head 80.

図12において、ステップS100で、端末装置10aは、位置情報取得部202により、端末装置10a自身の位置を示す位置情報を取得する。次のステップS101で、端末装置10aは、頭部運動検出部207により、端末装置10aの眼鏡ユニット1A(フロント11A)が向いている方角を示す方角情報を取得する。次のステップS102で、端末装置10aは、ステップS100で取得した位置情報と、ステップS101で取得した方角情報とを、端末装置10aを識別する識別情報と共に、管理サーバ40Aに送信する。   In FIG. 12, in step S <b> 100, the terminal device 10 a uses the position information acquisition unit 202 to acquire position information indicating the position of the terminal device 10 a itself. In the next step S101, the terminal device 10a acquires direction information indicating the direction in which the eyeglass unit 1A (front 11A) of the terminal device 10a is directed by the head movement detection unit 207. In the next step S102, the terminal device 10a transmits the position information acquired in step S100 and the direction information acquired in step S101, together with identification information for identifying the terminal device 10a, to the management server 40A.

次のステップS103で、端末装置10aは、ユーザAにより情報共有の開始指示が与えられたか否かを判定する。例えば、端末装置10aは、眼鏡ユニット1Aに設けられた操作部24への所定の操作を検出した場合に、情報共有の開始指示が与えられたと判定する。端末装置10aは、情報共有の開始指示が与えられていないと判定した場合(ステップS103、「No」)、処理をステップS100に戻す。   In the next step S103, the terminal device 10a determines whether or not the user A has given an instruction to start information sharing. For example, when the terminal device 10a detects a predetermined operation on the operation unit 24 provided in the spectacles unit 1A, the terminal device 10a determines that an information sharing start instruction is given. When it is determined that the information sharing start instruction is not given (step S103, “No”), the terminal device 10a returns the process to step S100.

一方、端末装置10aは、ステップS103で、情報共有の開始指示が与えられたと判定した場合(ステップS103、「Yes」)、処理をステップS104に移行させる。ステップS104で、端末装置10aは、カメラ23により撮像を行う。このとき、当該端末装置10aを装着したユーザAは、情報共有を行いたい対象500の方向に顔を向け、視線が正面を向いた状態で、眼鏡ユニット1Aのフロント11Aを介して対象500を目視する。この状態で、ステップS104による撮像を行う。   On the other hand, if it is determined in step S103 that an instruction to start information sharing is given (step S103, “Yes”), the terminal device 10a shifts the process to step S104. In step S <b> 104, the terminal device 10 a performs imaging with the camera 23. At this time, the user A wearing the terminal device 10a looks at the target 500 through the front 11A of the eyeglass unit 1A with the face facing the target 500 where information is to be shared and the line of sight facing the front. To do. In this state, imaging is performed in step S104.

ここで、カメラ23は、上述したように、端末装置10aの眼鏡ユニット1Aが正しく頭部80に装着された場合に、正面を見る視線と同方向を撮像するように、眼鏡ユニット1Aに設けられる。そのため、カメラ23での撮像により得られた撮像画像は、ユーザAが正面を見た場合の視線方向の光景に対応すると見做すことができる。   Here, as described above, when the glasses unit 1A of the terminal device 10a is correctly mounted on the head 80, the camera 23 is provided in the glasses unit 1A so as to capture the same direction as the line of sight when looking at the front. . Therefore, it can be considered that the captured image obtained by imaging with the camera 23 corresponds to a sight in the line-of-sight direction when the user A looks at the front.

眼鏡ユニット1Aは、カメラ23により撮像されて得られた撮像画像を、ケーブル21を介して情報処理ユニット20Aに転送する。情報処理ユニット20Aは、眼鏡ユニット1Aから転送された撮像画像を、例えばストレージ2003に記憶する。   The spectacles unit 1 </ b> A transfers a captured image obtained by capturing with the camera 23 to the information processing unit 20 </ b> A via the cable 21. The information processing unit 20A stores the captured image transferred from the eyeglass unit 1A in, for example, the storage 2003.

次のステップS105で、端末装置10aは、ユーザAから対象500までの距離を示す距離情報の入力の受け付けを開始する。ここでは、端末装置10aは、距離情報の入力を、端末装置10aの眼鏡ユニット1Aを装着するユーザAの音声、または、ユーザAの所定のジェスチャに応じて受け付ける。   In the next step S105, the terminal device 10a starts accepting input of distance information indicating the distance from the user A to the target 500. Here, the terminal device 10a accepts the input of distance information according to the voice of the user A wearing the glasses unit 1A of the terminal device 10a or a predetermined gesture of the user A.

音声による距離情報の入力の例について、概略的に説明する。端末装置10aにおいて、例えば情報処理ユニット20Aの音声I/F2008にマイクロホン2030を接続する。ユーザAは、例えば目視にて対象500までの距離を計測し、計測された距離を示すキーワードを、このマイクロホン2030にて収音可能に発声する。キーワードは、例えば、数値と単位との組み合わせにて構成することが考えられる。一例として、対象500までの距離が5m(メートル)であれば、ユーザAは、マイクロホン2030に向けて「ご めーとる」と発声する。   An example of inputting distance information by voice will be schematically described. In the terminal device 10a, for example, a microphone 2030 is connected to the audio I / F 2008 of the information processing unit 20A. For example, the user A visually measures the distance to the object 500 and utters a keyword indicating the measured distance so that the microphone 2030 can collect sound. It is conceivable that the keyword is composed of a combination of a numerical value and a unit, for example. As an example, if the distance to the object 500 is 5 m (meters), the user A speaks to the microphone 2030 as “remember”.

端末装置10aにおいて、入力処理部205は、マイクロホン2030から出力され音声I/F2008から入力されたアナログ方式の音声信号をディジタル方式の音声信号に変換し、この音声信号を既知の音声解析技術を用いて解析する。入力処理部205は、この解析により、当該音声信号から距離を表すキーワード、すなわち数値と単位との組み合わせによる音声を認識し、認識した音声をテキスト情報に変換する。入力処理部205は、さらに、このテキスト情報を距離情報に変換して、共有情報生成部203に渡す。   In the terminal device 10a, the input processing unit 205 converts an analog audio signal output from the microphone 2030 and input from the audio I / F 2008 into a digital audio signal, and uses this audio signal using a known audio analysis technique. And analyze. Based on this analysis, the input processing unit 205 recognizes a keyword representing a distance from the speech signal, that is, speech based on a combination of a numerical value and a unit, and converts the recognized speech into text information. The input processing unit 205 further converts this text information into distance information and passes it to the shared information generation unit 203.

第1の実施形態に適用可能なジェスチャによる距離情報の入力の例について、図13を用いて概略的に説明する。なお、図13において、上述した図11と共通する部分には同一の符号を付して、詳細な説明を省略する。図13(a)に示されるように、ユーザAは、端末装置10aの眼鏡ユニット1Aを頭部80に装着し、例えば目測にて対象500までの距離を計測する。ユーザAは、計測された距離を表現するジェスチャを、眼鏡ユニット1Aに設けられるカメラ23により撮像可能に実行する。なお、カメラ23は、所定のフレームレートの動画像により撮像を行うものとする。   An example of distance information input by a gesture applicable to the first embodiment will be schematically described with reference to FIG. In FIG. 13, the same reference numerals are given to the portions common to FIG. 11 described above, and detailed description thereof is omitted. As shown in FIG. 13A, the user A wears the eyeglass unit 1A of the terminal device 10a on the head 80 and measures the distance to the target 500 by, for example, eye measurement. The user A executes a gesture expressing the measured distance so as to be captured by the camera 23 provided in the eyeglass unit 1A. Note that the camera 23 performs imaging with a moving image having a predetermined frame rate.

図13(b)は、カメラ23により撮像された、ユーザAの手501によるジェスチャを確認するための確認画像710が地図画像700に重畳されて表示される例を示す。一例として、ユーザAの手501の指を立てたジェスチャにおいて、立てている指の本数により距離を表現することが考えられる。図13(b)の例では、画像710に、2本の指が立てられた手501の画像が含まれており、対象500までの距離が略2mであることが示されている。   FIG. 13B shows an example in which a confirmation image 710 captured by the camera 23 for confirming a gesture by the hand 501 of the user A is superimposed on the map image 700 and displayed. As an example, in a gesture in which the finger of the hand 501 of the user A is raised, it is conceivable to express the distance by the number of fingers that are standing. In the example of FIG. 13B, the image 710 includes an image of the hand 501 with two fingers raised, and the distance to the target 500 is approximately 2 m.

また、図13(b)の例では、画面の右端側に、ジェスチャにより入力された距離を示すメッセージ表示704が表示されている。ユーザAは、このメッセージ表示704を参照して、入力された距離の値を確認することができる。   In the example of FIG. 13B, a message display 704 indicating the distance input by the gesture is displayed on the right end side of the screen. The user A can confirm the input distance value with reference to the message display 704.

端末装置10aにおいて、入力処理部205は、画像情報出力部105から出力された撮像画像が入力され、入力された撮像画像を解析し、当該撮像画像から、距離を表すジェスチャの認識を行う。より具体的には、入力処理部205は、例えば手指の形状に基づくパターンマッチングなど既知の画像解析技術を用いて解析する。入力処理部205は、この解析により、当該撮像画像から手501において指が立てられていることを検出した場合、距離を表すジェスチャが認識されたと判定する。入力処理部205は、撮像画像から立てられている指の本数を検出し、検出された本数を距離情報に変換して共有情報生成部203に渡す。   In the terminal device 10a, the input processing unit 205 receives the captured image output from the image information output unit 105, analyzes the input captured image, and recognizes a gesture representing a distance from the captured image. More specifically, the input processing unit 205 performs analysis using a known image analysis technique such as pattern matching based on the shape of a finger. When the input processing unit 205 detects from this analysis that a finger is raised in the hand 501 from the captured image, the input processing unit 205 determines that a gesture representing a distance has been recognized. The input processing unit 205 detects the number of fingers standing from the captured image, converts the detected number into distance information, and passes it to the shared information generation unit 203.

距離の入力のためのジェスチャは、片手のみであってもよいし、両手を用いてもよい。また、複数回のジェスチャにより距離を入力するようにもできる。この場合には、より桁数の多い値を入力することが可能となる。また、手501の所定の動きを用いて距離を表現してもよい。   The gesture for inputting the distance may be only one hand, or both hands may be used. It is also possible to input the distance by a plurality of gestures. In this case, it is possible to input a value having a larger number of digits. Further, the distance may be expressed using a predetermined movement of the hand 501.

図12のフローチャートの説明に戻り、端末装置10aにおいて、入力処理部205は、ステップS106で、音声入力の有無を判定する。入力処理部205は、例えば、音声I/F2008から所定レベル以上の音声信号が入力された場合に、音声入力があったと判定する。入力処理部205は、音声入力があったと判定した場合(ステップS106、「Yes」)、処理をステップS107に移行させる。   Returning to the description of the flowchart of FIG. 12, in the terminal device 10a, the input processing unit 205 determines whether or not there is a voice input in step S106. For example, the input processing unit 205 determines that there is a voice input when a voice signal of a predetermined level or higher is input from the voice I / F 2008. When the input processing unit 205 determines that there is a voice input (step S106, “Yes”), the process proceeds to step S107.

ステップS107で、入力処理部205は、入力された音声信号を解析し、解析結果に基づき、当該音声信号から、距離を表すキーワードを含む発声を認識したか否かを判定する。入力処理部205は、距離を表すキーワードを含む発声を認識していないと判定した場合(ステップS107、「No」)、処理をステップS105に戻す。一方、入力処理部205は、距離を表すキーワードを含む発声を認識したと判定した場合(ステップS107、「Yes」)、当該音声に基づき距離情報を生成し、生成した距離情報を共有情報生成部203に渡して処理をステップS120に移行させる。   In step S107, the input processing unit 205 analyzes the input voice signal, and determines whether or not an utterance including a keyword representing a distance is recognized from the voice signal based on the analysis result. When the input processing unit 205 determines that the utterance including the keyword representing the distance is not recognized (step S107, “No”), the process returns to step S105. On the other hand, when it is determined that the utterance including the keyword representing the distance is recognized (step S107, “Yes”), the input processing unit 205 generates distance information based on the voice, and the generated distance information is used as the shared information generation unit. Then, the process proceeds to step S120.

入力処理部205は、上述したステップS106で音声入力が無いと判定した場合、処理をステップS110に移行させる。入力処理部205は、ステップS110で、撮像画像に基づきユーザAによるジェスチャ入力の有無を判定する。例えば、入力処理部205は、入力された撮像画像を解析して、当該撮像画像に所定の画像(例えば手501の画像)が含まれる場合に、ジェスチャ入力があったと判定する。   If the input processing unit 205 determines in step S106 described above that there is no voice input, the input processing unit 205 shifts the processing to step S110. In step S110, the input processing unit 205 determines whether or not there is a gesture input by the user A based on the captured image. For example, the input processing unit 205 analyzes the input captured image, and determines that there is a gesture input when the captured image includes a predetermined image (for example, the image of the hand 501).

入力処理部205は、ジェスチャ入力が無いと判定した場合(ステップS110、「No」)、処理をステップS105に戻す。一方、入力処理部205は、ジェスチャ入力があったと判定した場合(ステップS110、「Yes」)、処理をステップS111に移行させる。ステップS111で、入力処理部205は、撮像画像を解析し、解析結果に基づき、撮像画像から距離を表すジェスチャを認識したか否かを判定する。   If the input processing unit 205 determines that there is no gesture input (step S110, “No”), the process returns to step S105. On the other hand, if the input processing unit 205 determines that there is a gesture input (step S110, “Yes”), the process proceeds to step S111. In step S111, the input processing unit 205 analyzes the captured image and determines whether or not a gesture representing a distance from the captured image has been recognized based on the analysis result.

入力処理部205は、距離を表すジェスチャを認識していないと判定した場合(ステップS111、「No」)、処理をステップS110に戻す。一方、入力処理部205は、距離を表すジェスチャを認識したと判定した場合(ステップS111、「Yes」)、当該ジェスチャに基づき距離情報を生成し、生成した距離情報を共有情報生成部203に渡して処理をステップS120に移行させる。   If the input processing unit 205 determines that the gesture representing the distance is not recognized (step S111, “No”), the process returns to step S110. On the other hand, if the input processing unit 205 determines that the gesture representing the distance has been recognized (step S111, “Yes”), the input processing unit 205 generates distance information based on the gesture, and passes the generated distance information to the shared information generation unit 203. Then, the process proceeds to step S120.

ステップS120で、共有情報生成部203は、ステップS107またはステップS111で入力処理部205から渡された距離情報と、図10のステップS11で取得した位置・方角情報Aとを含む共有情報を生成する。共有情報生成部203は、さらに、対象500を撮像した撮像画像を共有情報に含めることができる。次のステップS121で、共有情報生成部203は、生成した共有情報を、送信部201により管理サーバ40Aに送信する。共有情報が管理サーバ40Aに送信されると、処理がステップS100に戻される。   In step S120, the shared information generation unit 203 generates shared information including the distance information passed from the input processing unit 205 in step S107 or step S111 and the position / direction information A acquired in step S11 of FIG. . The shared information generation unit 203 can further include a captured image obtained by capturing the target 500 in the shared information. In next step S121, the shared information generation unit 203 transmits the generated shared information to the management server 40A by the transmission unit 201. When the shared information is transmitted to management server 40A, the process returns to step S100.

なお、上述では、距離情報の入力を、音声またはジェスチャにより行うように説明したが、これはこの例に限定されない。例えば、眼鏡ユニット1Aに設けられた操作部24の操作により距離情報を入力するようにしてもよい。   In the above description, the distance information is input by voice or gesture, but this is not limited to this example. For example, the distance information may be input by operating the operation unit 24 provided in the eyeglass unit 1A.

図14は、第1の実施形態に係る、対象500を示すマーカ画像が追加して表示された地図画像700が表示された画面70の例を示す。なお、図14において、上述した図11(b)と共通する部分には同一の符号を付して、詳細な説明を省略する。また、図14は、端末装置10aの眼鏡ユニット1Aのディスプレイに対して表示された画面70の例を示している。   FIG. 14 illustrates an example of a screen 70 on which a map image 700 on which a marker image indicating the target 500 is additionally displayed according to the first embodiment is displayed. In FIG. 14, the same reference numerals are given to the portions common to FIG. 11B described above, and detailed description thereof is omitted. FIG. 14 shows an example of a screen 70 displayed on the display of the eyeglass unit 1A of the terminal device 10a.

図14において、上述した図11(b)の例と同様に、画面70に表示される地図画像700の中心に、端末装置10aを使用しているユーザAを示す自装置マーカ702が表示される。自装置マーカ702は、ユーザAの位置を示すと共に、ユーザAが向いている方角(眼鏡ユニット1Aのフロント11Aが向いている方角)を示している。また、他のユーザB、CおよびDを示すマーカ画像703b、703cおよび703dがそれぞれ表示され、これらユーザB、CおよびDの位置が地図画像700上に示される。   In FIG. 14, as in the example of FIG. 11B described above, the own device marker 702 indicating the user A using the terminal device 10 a is displayed at the center of the map image 700 displayed on the screen 70. . The own apparatus marker 702 indicates the position of the user A and the direction in which the user A is facing (the direction in which the front 11A of the spectacle unit 1A is facing). In addition, marker images 703b, 703c, and 703d indicating other users B, C, and D are displayed, and the positions of these users B, C, and D are shown on the map image 700.

また、ユーザAにより管理サーバ40Aに送信された共有情報に基づき、対象500を示すマーカ画像である対象マーカ720が、対象500の位置に対応する地図画像700上の位置に表示される。さらに、図14の例では、ユーザAの端末装置10aにて撮像された対象500の画像721が、対象500を示す対象マーカ720に対応付けられて表示されている。   Further, based on the shared information transmitted from the user A to the management server 40A, a target marker 720 that is a marker image indicating the target 500 is displayed at a position on the map image 700 corresponding to the position of the target 500. Furthermore, in the example of FIG. 14, the image 721 of the target 500 captured by the user A's terminal device 10 a is displayed in association with the target marker 720 indicating the target 500.

図14に示される対象500などの情報は、情報共有システムに接続されるユーザA以外のユーザが使用する端末装置間で共有される。例えば、ユーザBが使用する端末装置10bの眼鏡ユニット1Aのディスプレイでは、図14と同様の地図画像700において、ユーザBを示すマーカ画像703bとしてユーザBが向いている方角を示すマーカ画像が用いられ、ユーザAを示す自装置マーカ702として単にユーザAの位置を示すマーカ画像が用いられる。また、この場合においても、共有情報に従い、対象500を示す対象マーカ720が対象500の位置に対応する地図画像700上の位置に表示され、対象500の画像721が当該対象マーカ720に対応付けられて表示される。   Information such as the target 500 shown in FIG. 14 is shared between terminal devices used by users other than the user A connected to the information sharing system. For example, in the display of the glasses unit 1A of the terminal device 10b used by the user B, a marker image indicating the direction in which the user B is facing is used as the marker image 703b indicating the user B in the map image 700 similar to FIG. The marker image indicating the position of the user A is simply used as the own apparatus marker 702 indicating the user A. Also in this case, according to the shared information, the target marker 720 indicating the target 500 is displayed at a position on the map image 700 corresponding to the position of the target 500, and the image 721 of the target 500 is associated with the target marker 720. Displayed.

このように、第1の実施形態に係る情報共有システムでは、情報共有システムに接続される各端末装置10a、10b、10cおよび30間で、各端末装置10a、10b、10cおよび30の位置、ならびに、対象500の位置および画像を共有することができる。また、第1の実施形態に係る情報共有システムでは、対象500の位置は、複数の端末装置10a、10bおよび10cのうち1台の例えば端末装置10aにおいて取得された情報に基づき取得することができる。   Thus, in the information sharing system according to the first embodiment, the positions of the terminal devices 10a, 10b, 10c and 30 between the terminal devices 10a, 10b, 10c and 30 connected to the information sharing system, and , The position of the object 500 and the image can be shared. Further, in the information sharing system according to the first embodiment, the position of the target 500 can be acquired based on information acquired by, for example, one terminal device 10a among the plurality of terminal devices 10a, 10b, and 10c. .

(第1の実施形態の変形例)
次に、第1の実施形態の変形例について説明する。第1の実施形態の変形例は、地図画像700上に、対象500の位置と、当該対象500の属性を示す情報とを表示させる。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. In the modified example of the first embodiment, the position of the target 500 and information indicating the attribute of the target 500 are displayed on the map image 700.

図15は、第1の実施形態の変形例に係る、属性と属性を示す情報とを関連付けて格納する属性情報テーブルの一例を示す。図15の例では、属性情報テーブルは、それぞれ属性情報を示す各属性名「目的地」、「危険物」、「倒壊家屋」および「要救助者」が格納される。属性情報テーブルは、各属性名に対して、各属性を示す情報として属性情報に対応する各マーカ画像が関連付けて格納される。管理サーバ40Aは、この属性情報テーブルを、属性情報記憶部404に予め記憶しておく。   FIG. 15 shows an example of an attribute information table according to a modification of the first embodiment, in which attributes and information indicating attributes are stored in association with each other. In the example of FIG. 15, the attribute information table stores attribute names “destination”, “dangerous goods”, “collapsed house”, and “rescued person” indicating attribute information. In the attribute information table, each marker name corresponding to the attribute information is stored in association with each attribute name as information indicating each attribute. The management server 40A stores this attribute information table in the attribute information storage unit 404 in advance.

なお、属性名(属性情報)およびマーカ画像は、図15の例に限定されない。例えば、属性情報として、建造物などの種類(住居、店舗、寺院など)や、道路などの状態(陥没、亀裂、冠水など)を適用することができる。また、マーカ画像は、各属性情報に対応する画像を適宜に用いることができる。   Note that the attribute name (attribute information) and the marker image are not limited to the example of FIG. For example, as the attribute information, a type such as a building (residence, store, temple, etc.) or a state such as a road (depression, crack, flooding, etc.) can be applied. Moreover, the marker image can use the image corresponding to each attribute information suitably.

例えば、端末装置10aを使用するユーザAは、対象500の状態に応じた属性名を端末装置10aに入力する。属性名は、操作部24に対する操作により入力してもよいし、音声やジェスチャにより入力してもよい。このとき、端末装置10aは、属性情報テーブルに格納される各属性名「目的地」、「危険物」、「倒壊家屋」および「要救助者」を予め記憶しておくようにすると好ましい。この場合、端末装置10aを使用するユーザAは、対象500の属性情報を、この予め記憶された各属性名から選択して入力することができ、入力ミスや、属性情報テーブルにおける属性名の参照エラーを防ぐことができる。   For example, the user A who uses the terminal device 10a inputs an attribute name corresponding to the state of the target 500 to the terminal device 10a. The attribute name may be input by operating the operation unit 24, or may be input by voice or gesture. At this time, the terminal device 10a preferably stores in advance each attribute name “destination”, “dangerous goods”, “collapsed house”, and “rescue person” stored in the attribute information table. In this case, the user A who uses the terminal device 10a can select and input the attribute information of the target 500 from each of the attribute names stored in advance, and input mistakes or referencing attribute names in the attribute information table An error can be prevented.

端末装置10aは、入力された属性名を、共有情報に含めて管理サーバ40Aに送信する(図10のステップS15、ステップS16)。管理サーバ40Aは、共有情報を受信すると、共有情報に含まれる位置・方角情報Aと距離情報とに基づき、対象500の位置を示す位置情報を算出する(図10のステップS23)。また、管理サーバ40Aは、共有情報に含まれる属性名に基づき属性情報テーブルを参照し、属性名に関連付けられたマーカ画像を取得する。   The terminal device 10a includes the input attribute name in the shared information and transmits it to the management server 40A (steps S15 and S16 in FIG. 10). Upon receiving the shared information, the management server 40A calculates position information indicating the position of the target 500 based on the position / direction information A and the distance information included in the shared information (step S23 in FIG. 10). Also, the management server 40A refers to the attribute information table based on the attribute name included in the shared information, and acquires a marker image associated with the attribute name.

管理サーバ40Aは、算出した位置情報と、属性情報テーブルから取得したマーカ画像とを、対象情報として端末装置10a、10b、10cおよび30に送信する(図10のステップS24、ステップS25)。各端末装置10a、10b、10cおよび30は、管理サーバ40Aから対象情報を受信すると、受信した対象情報に含まれる位置情報に示される地図画像700上の位置に、当該対象情報に含まれるマーカ画像を重畳して表示させる。各端末装置10a、10b、10cおよび30を使用する各ユーザA、B、CおよびDは、マーカ画像に基づき対象500の属性を直感的に把握することが可能となる。   The management server 40A transmits the calculated position information and the marker image acquired from the attribute information table to the terminal devices 10a, 10b, 10c, and 30 as target information (steps S24 and S25 in FIG. 10). When each of the terminal devices 10a, 10b, 10c and 30 receives the target information from the management server 40A, the marker image included in the target information at a position on the map image 700 indicated by the position information included in the received target information. Are superimposed and displayed. Each user A, B, C, and D using each terminal device 10a, 10b, 10c, and 30 can intuitively grasp the attribute of the target 500 based on the marker image.

(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、情報共有システムに接続される各端末装置のうち1の端末装置が、第1の実施形態に係る管理サーバ40Aの機能のうち少なくとも一部の機能を担う。
(Second Embodiment)
Next, a second embodiment will be described. In the second embodiment, one of the terminal devices connected to the information sharing system has at least a part of the functions of the management server 40A according to the first embodiment.

図1を例にとって説明すると、第2の実施形態では、各端末装置10a、10b、10cおよび30のうち1の端末装置が、管理サーバ40Aの機能のうち、少なくとも対象500の位置を算出する機能を担うものである。以下では、この管理サーバ40Aの機能のうち一部の機能を担う端末装置を司令者端末と呼び、司令者端末を使用するユーザを司令者と呼ぶ。司令者端末は、端末装置10a、10b、10cおよび30の何れを適用してもよいが、処理の負荷などを考慮すると、非モバイル端末である端末装置30を司令者端末に適用することが好ましい。   Referring to FIG. 1 as an example, in the second embodiment, one of the terminal devices 10a, 10b, 10c and 30 has a function of calculating at least the position of the target 500 among the functions of the management server 40A. Is responsible for. Hereinafter, a terminal device that bears a part of the functions of the management server 40A is called a commander terminal, and a user who uses the commander terminal is called a commander. Any of the terminal devices 10a, 10b, 10c, and 30 may be applied to the commander terminal. However, in consideration of processing load, it is preferable to apply the terminal device 30 that is a non-mobile terminal to the commander terminal. .

図16を用いて、第2の実施形態に係る情報共有システムの構成について概略的に説明する。図16において、情報共有システムは、それぞれユーザA、B、…が使用する端末装置10a、10b、…と、司令者が使用する司令者端末30Bと、管理サーバ40Bとを含む。端末装置10a、10b、…は、管理サーバ40Bに対して無線通信によるネットワークを介して接続される。司令者端末30Bは、管理サーバ40Bに対して有線通信および無線通信の何れによるネットワークを介して接続されてもよいが、通信の安定性を考慮すると、有線通信によるネットワークにて管理サーバ40Bと接続されることが好ましい。   The configuration of the information sharing system according to the second embodiment will be schematically described with reference to FIG. 16, the information sharing system includes terminal devices 10a, 10b,... Used by users A, B,..., A commander terminal 30B used by the commander, and a management server 40B. The terminal devices 10a, 10b,... Are connected to the management server 40B via a wireless communication network. The commander terminal 30B may be connected to the management server 40B via a wired communication network or a wireless communication network. However, in consideration of communication stability, the commander terminal 30B is connected to the management server 40B via a wired communication network. It is preferred that

また、各端末装置10a、10b、…と、司令者端末30Bとの間で、音声を用いた通信を行うことが可能である。この音声を用いた通信は、ネットワーク経由で管理サーバ40Bを介して行ってもよいし、管理サーバ40Bを介さずに、別の経路にて行ってもよい。また、音声を用いた通信を、公衆電話回線を用いて行ってもよい。   Further, it is possible to perform communication using voice between the terminal devices 10a, 10b,... And the commander terminal 30B. The communication using the voice may be performed via the network via the management server 40B, or may be performed via another route without via the management server 40B. Communication using voice may be performed using a public telephone line.

さらに、各端末装置10a、10b、…は、対象500までの距離を示す距離情報を、管理サーバ40Bを介して司令者端末30Bに送信することができる。図16の例では、端末装置10aが対象500までの距離を示す距離情報を送信している。   Further, each terminal device 10a, 10b,... Can transmit distance information indicating the distance to the target 500 to the commander terminal 30B via the management server 40B. In the example of FIG. 16, the terminal device 10a transmits distance information indicating the distance to the target 500.

図17は、第2の実施形態に適用可能な各端末装置10a、10b、…が備える情報処理ユニット20Bの一例の構成を示す。なお、図17において、上述した図6と共通する部分には同一の符号を付して、詳細な説明を省略する。   FIG. 17 illustrates an exemplary configuration of an information processing unit 20B included in each terminal device 10a, 10b,... Applicable to the second embodiment. Note that, in FIG. 17, the same reference numerals are given to portions common to FIG. 6 described above, and detailed description thereof is omitted.

図17において、情報処理ユニット20Bは、音声I/F2008に対して、音量調節装置(VOL)2040を介してイヤホン2041が接続される。音声I/F2008は、例えばCPU2000から供給されたディジタル方式の音声信号をアナログ方式の音声信号に変換して出力する。音声I/F2008から出力された音声信号は、音量調節装置2040を介してイヤホン2041に入力される。音量調節装置2040は、イヤホン2041に入力される音声信号のレベルを、ユーザ操作に応じて調節する。音量調節装置2040を情報処理ユニット20Bに内蔵させてもよい。   In FIG. 17, the information processing unit 20 </ b> B is connected to an audio I / F 2008 via an earphone 2041 via a volume control device (VOL) 2040. The audio I / F 2008 converts, for example, a digital audio signal supplied from the CPU 2000 into an analog audio signal and outputs the analog audio signal. The audio signal output from the audio I / F 2008 is input to the earphone 2041 via the volume control device 2040. The volume control device 2040 adjusts the level of the audio signal input to the earphone 2041 according to a user operation. The volume control device 2040 may be built in the information processing unit 20B.

これにより、ユーザは、例えばネットワークを介して送信され通信I/F2007により受信された音声信号による音を、イヤホン2041により聞くことができる。また、ユーザは、発声した音声をマイクロホン(MIC)2030により収音させて、通信I/F2007を介してネットワークを介して送信することができる。   Thereby, the user can hear the sound by the audio | voice signal transmitted via the network and received by communication I / F2007 with the earphone 2041, for example. Further, the user can pick up the voice uttered by the microphone (MIC) 2030 and transmit it via the communication I / F 2007 via the network.

なお、第2の実施形態に係る各端末装置10a、10b、…が備える眼鏡ユニット1Aは、図5を用いて説明した構成と同一の構成を適用可能であるので、ここでの説明を省略する。また、眼鏡ユニット1Aおよび情報処理ユニット20Bの機能は、上述した音声による通信の機能以外は、図7を用いて説明した機能を同様に適用できるので、ここでの説明を省略する。   The eyeglass unit 1A included in each terminal device 10a, 10b,... According to the second embodiment can be applied with the same configuration as that described with reference to FIG. . Further, as the functions of the eyeglass unit 1A and the information processing unit 20B, the functions described with reference to FIG. 7 can be similarly applied except for the above-described voice communication function, and thus the description thereof is omitted here.

図18は、第2の実施形態に係る司令者端末30Bのハードウェア構成の例を示す。図18において、司令者端末30Bは、CPU3000と、ROM3001と、RAM3002と、グラフィクスI/F3003と、ストレージ3005と、データI/F3006と、通信I/F3009と、音声I/F3010とを含み、これら各部がバス3020により互いに通信可能に接続される。このように、第2の実施形態に係る司令者端末30Bは、一般的なコンピュータを用いて実現できる。   FIG. 18 shows an example of the hardware configuration of the commander terminal 30B according to the second embodiment. In FIG. 18, the commander terminal 30B includes a CPU 3000, a ROM 3001, a RAM 3002, a graphics I / F 3003, a storage 3005, a data I / F 3006, a communication I / F 3009, and a voice I / F 3010. Each unit is communicably connected to each other via a bus 3020. Thus, the commander terminal 30B according to the second embodiment can be realized by using a general computer.

ストレージ3005は、ハードディスクドライブやフラッシュメモリといった不揮発性の記憶媒体であって、プログラムやデータが記憶される。CPU3000は、ストレージ3005やROM3001に記憶されるプログラムに従い、RAM3002をワークメモリとして用いて、司令者端末30Bの全体の動作を制御する。   The storage 3005 is a non-volatile storage medium such as a hard disk drive or a flash memory, and stores programs and data. The CPU 3000 controls the overall operation of the commander terminal 30B using the RAM 3002 as a work memory according to programs stored in the storage 3005 and the ROM 3001.

グラフィクスI/F3003は、ディスプレイ3004が接続され、CPU3000によりプログラムに従い生成された表示制御情報に基づき、ディスプレイ3004が表示可能な表示信号を生成する。データI/F3006は、司令者端末30Bの外部から供給される外部データに対するインタフェースである。また、データI/F3006は、マウスといったポインティングデバイス3007や、キーボード3008を接続することができる。データI/F3006としては、例えばUSB(Universal Serial Bus)を適用することができる。通信I/F3009は、ネットワークと接続され、ネットワークを介した通信を行う。   The graphics I / F 3003 is connected to a display 3004 and generates a display signal that can be displayed on the display 3004 based on display control information generated by the CPU 3000 according to a program. The data I / F 3006 is an interface for external data supplied from the outside of the commander terminal 30B. The data I / F 3006 can be connected to a pointing device 3007 such as a mouse and a keyboard 3008. As the data I / F 3006, for example, USB (Universal Serial Bus) can be applied. A communication I / F 3009 is connected to a network and performs communication via the network.

音声I/F3010は、音声信号の入出力を行う。例えば、音声I/F3010は、ADCを含み、マイクロホン(MIC)3030などから供給されたアナログ方式の音声信号をディジタル方式の音声信号に変換する。また、音声I/F3010は、DACを含み、供給されたディジタル方式の音声信号をアナログ方式の音声信号に変換して出力する。音声I/F3010から出力された音声信号は、例えばスピーカ(SP)3031に供給される。   The audio I / F 3010 inputs and outputs audio signals. For example, the audio I / F 3010 includes an ADC, and converts an analog audio signal supplied from a microphone (MIC) 3030 or the like into a digital audio signal. The audio I / F 3010 includes a DAC, converts the supplied digital audio signal into an analog audio signal, and outputs the analog audio signal. The audio signal output from the audio I / F 3010 is supplied to, for example, a speaker (SP) 3031.

図19は、第2の実施形態に係る司令者端末30Bの機能を説明するための機能ブロック図である。第2の実施形態に係る司令者端末30Bは、上述した、第1の実施形態に係る管理サーバ40Aと略同一の機能を備える。すなわち、司令者端末30Bは、受信部300と、共有情報取得部301と、地図情報取得部302と、位置取得部303と、属性情報記憶部304と、送信部305とを含む。   FIG. 19 is a functional block diagram for explaining the functions of the commander terminal 30B according to the second embodiment. The commander terminal 30B according to the second embodiment has substantially the same function as the management server 40A according to the first embodiment described above. That is, the commander terminal 30B includes a reception unit 300, a shared information acquisition unit 301, a map information acquisition unit 302, a position acquisition unit 303, an attribute information storage unit 304, and a transmission unit 305.

受信部300、共有情報取得部301、地図情報取得部302、位置取得部303および送信部305は、CPU3000上で動作するプログラムにより実現される。属性情報記憶部304は、例えばストレージ3005上の所定の領域に形成される。これに限らず、受信部300、共有情報取得部301、地図情報取得部302、位置取得部303および送信部305のうち一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。   The reception unit 300, the shared information acquisition unit 301, the map information acquisition unit 302, the position acquisition unit 303, and the transmission unit 305 are realized by a program that operates on the CPU 3000. The attribute information storage unit 304 is formed in a predetermined area on the storage 3005, for example. Not limited to this, a part or all of the reception unit 300, the shared information acquisition unit 301, the map information acquisition unit 302, the position acquisition unit 303, and the transmission unit 305 are configured by hardware circuits that operate in cooperation with each other. May be.

受信部300、共有情報取得部301、地図情報取得部302、属性情報記憶部304および送信部305は、それぞれ、図9で示した管理サーバ40Aにおける受信部400、共有情報取得部401、地図情報取得部402、属性情報記憶部404および送信部405と略同等の機能を有する。   The reception unit 300, the shared information acquisition unit 301, the map information acquisition unit 302, the attribute information storage unit 304, and the transmission unit 305 are respectively the reception unit 400, the shared information acquisition unit 401, and the map information in the management server 40A illustrated in FIG. The acquisition unit 402, the attribute information storage unit 404, and the transmission unit 405 have substantially the same functions.

すなわち、受信部300は、ネットワークを介して送信された情報を受信する。共有情報取得部301は、受信部300により受信された情報に上述した共有情報が含まれる場合に、当該共有情報を取得する。地図情報取得部302は、ネットワークを介して、あるいは、司令者端末30Bに予め記憶された地図情報を取得する。   That is, the receiving unit 300 receives information transmitted via the network. When the shared information described above is included in the information received by the receiving unit 300, the shared information acquiring unit 301 acquires the shared information. The map information acquisition unit 302 acquires map information stored in advance in the commander terminal 30B via the network.

属性情報記憶部304は、対象の属性を示す属性情報と、属性を表すマーカ画像とを関連付けた属性情報テーブルを記憶する。送信部305は、位置取得部303により算出された位置情報を含む対象情報を、ネットワークを介して端末装置10aおよび10bに送信する。   The attribute information storage unit 304 stores an attribute information table in which attribute information indicating a target attribute is associated with a marker image representing the attribute. The transmission unit 305 transmits the target information including the position information calculated by the position acquisition unit 303 to the terminal devices 10a and 10b via the network.

位置取得部303は、対象500の位置を示す位置情報を取得する。位置取得部303は、例えば端末装置10aから対象500までの距離を示す距離情報が送信された場合、この距離情報と、共有情報取得部301により取得された共有情報とに基づき、対象500の位置を算出し、当該位置を示す位置情報を取得する。   The position acquisition unit 303 acquires position information indicating the position of the target 500. For example, when distance information indicating the distance from the terminal device 10 a to the target 500 is transmitted, the position acquisition unit 303 determines the position of the target 500 based on the distance information and the shared information acquired by the shared information acquisition unit 301. And position information indicating the position is acquired.

また、位置取得部303は、例えば端末装置10aと司令者端末30Bとの間でなされた音声による通信により取得された距離情報に基づき、対象500の位置を算出してもよい。   Further, the position acquisition unit 303 may calculate the position of the target 500 based on distance information acquired by voice communication between the terminal device 10a and the commander terminal 30B, for example.

例えば、端末装置10aのユーザAは、眼鏡ユニット1Aのフロント11Aを介した目視により対象500までの距離を推測し、推測された距離を示す情報を、マイクロホン2030により収音可能に発声する。端末装置10aは、マイクロホン2030に収音された、距離を示す情報を含んだ音声による音声信号を、司令者端末30Bに送信する。   For example, the user A of the terminal device 10a estimates the distance to the target 500 by visual observation through the front 11A of the eyeglass unit 1A, and utters information indicating the estimated distance by the microphone 2030 so that sound can be collected. The terminal device 10a transmits to the commander terminal 30B a voice signal that is collected by the microphone 2030 and includes voice information including information indicating the distance.

司令者端末30Bを操作するユーザ(司令者)は、この音声通信により取得した音声信号に基づく音声をスピーカ3031により聞く。司令者は、音声に含まれる距離を示す情報に基づき、例えばキーボード3008を操作することで、司令者端末30Bに距離情報を入力する。位置取得部303は、こうして入力された距離情報と、端末装置10aから送信された共有情報とを用いて、対象500の位置を算出し、対象500の位置を示す位置情報を取得する。   A user (commander) who operates the commander terminal 30 </ b> B listens through the speaker 3031 for sound based on the sound signal acquired by the sound communication. The commander inputs distance information to the commander terminal 30B by operating the keyboard 3008, for example, based on the information indicating the distance included in the voice. The position acquisition unit 303 calculates the position of the target 500 using the distance information input in this way and the shared information transmitted from the terminal device 10a, and acquires position information indicating the position of the target 500.

第2の実施形態に係る司令者端末30Bの各機能を実現するための情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、情報処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、情報処理プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。   An information processing program for realizing each function of the commander terminal 30B according to the second embodiment is a file in an installable format or an executable format, which is a CD (Compact Disk), a flexible disk (FD), a DVD ( Provided on a computer-readable recording medium such as Digital Versatile Disk). However, the present invention is not limited thereto, and the information processing program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The information processing program may be provided or distributed via a network such as the Internet.

情報処理プログラムは、上述した各部(受信部300、共有情報取得部301、地図情報取得部302、位置取得部303および送信部305)を含むモジュール構成となっている。実際のハードウェアとしては、CPU3000がストレージ3005などの記憶媒体から当該情報処理プログラムを読み出して実行することにより、上述した各部がRAM3002などの主記憶装置上にロードされ、受信部300、共有情報取得部301、地図情報取得部302、位置取得部303および送信部305が主記憶装置上に生成されるようになっている。   The information processing program has a module configuration including the above-described units (reception unit 300, shared information acquisition unit 301, map information acquisition unit 302, position acquisition unit 303, and transmission unit 305). As actual hardware, the CPU 3000 reads the information processing program from a storage medium such as the storage 3005 and executes the information processing program, whereby the above-described units are loaded on the main storage device such as the RAM 3002, and the reception unit 300 acquires the shared information. The unit 301, the map information acquisition unit 302, the position acquisition unit 303, and the transmission unit 305 are generated on the main storage device.

図20は、第2の実施形態に適用可能な管理サーバ40Bの機能を説明するための一例の機能ブロック図である。なお、管理サーバ40Bのハードウェア構成は、図8を用いて説明した、第1の実施形態に係る管理サーバ40Aと同様の構成を適用可能であるので、ここでの説明を省略する。   FIG. 20 is a functional block diagram illustrating an example of functions of the management server 40B applicable to the second embodiment. The hardware configuration of the management server 40B can be the same configuration as that of the management server 40A according to the first embodiment described with reference to FIG. 8, and thus the description thereof is omitted here.

図20において、管理サーバ40Bは、受信部410と、送信部411とを含む。受信部410は、例えば端末装置10a、10b、…、および、司令者端末30Bからネットワークを介して管理サーバ40Bに送信された情報を受信する。送信部411は、ネットワークを介して、例えば端末装置10a、10b、…ならびに、司令者端末30Bに情報を送信する。   In FIG. 20, the management server 40B includes a reception unit 410 and a transmission unit 411. The receiving unit 410 receives information transmitted from the terminal devices 10a, 10b,... And the commander terminal 30B to the management server 40B via the network, for example. The transmitting unit 411 transmits information to, for example, the terminal devices 10a, 10b,... And the commander terminal 30B via the network.

上述のような構成において、端末装置10a、10b、…は、それぞれ、自身の位置を示す位置情報と、自身(眼鏡ユニット1Aのフロント11A)が向いている方角を示す方角情報とを、自身を識別する識別情報と共に管理サーバ40Bに送信する。管理サーバ40Bは、各端末装置10a、10b、…から送信された位置情報、方角情報および識別情報を受信する。管理サーバ40Bは、受信した各位置情報および方角情報を、それぞれ対応する識別情報に関連付けて司令者端末30Bに送信する。   In the configuration as described above, each of the terminal devices 10a, 10b,... Receives position information indicating its own position and direction information indicating the direction in which the terminal device (the front 11A of the spectacle unit 1A) is facing. It transmits to the management server 40B with the identification information to identify. The management server 40B receives position information, direction information, and identification information transmitted from each terminal device 10a, 10b,. The management server 40B transmits the received position information and direction information to the commander terminal 30B in association with the corresponding identification information.

司令者端末30Bは、管理サーバ40Bから送信された各端末装置10a、10b、…の位置情報、方角情報および識別情報を受信する。司令者端末30Bは、受信した各端末装置10a、10b、…の位置情報に基づき地図情報を取得する。司令者端末30Bは、地図情報と、管理サーバ40Bから受信した各端末装置10a、10b、…の位置情報、方角情報および識別情報とを、管理サーバ40Bを介して各端末装置10a、10b、…に送信する。   The commander terminal 30B receives the position information, direction information, and identification information of each terminal device 10a, 10b,... Transmitted from the management server 40B. The commander terminal 30B acquires map information based on the received position information of each terminal device 10a, 10b,. The commander terminal 30B receives the map information and the position information, direction information and identification information of the terminal devices 10a, 10b,... Received from the management server 40B via the management server 40B. Send to.

各端末装置10a、10b、…は、管理サーバ40Bから送信された地図情報と、各端末装置10a、10b、…の位置情報、方角情報および識別情報とを受信する。各端末装置10a、10b、…は、受信した地図情報に基づく地図画像に対して、各位置情報、方角情報および識別情報に基づき、各端末装置10a、10b、…を示す情報を重畳して表示させる。   Each of the terminal devices 10a, 10b,... Receives the map information transmitted from the management server 40B and the position information, direction information, and identification information of each of the terminal devices 10a, 10b,. Each terminal device 10a, 10b,... Is displayed by superimposing information indicating each terminal device 10a, 10b,... On the map image based on the received map information, based on each position information, direction information, and identification information. Let

図21は、第2の実施形態に係る、端末装置10aのディスプレイに表示される画面70aの例を示す。画面70aは、地図画像700を含む。地図画像700において、自装置マーカ702が、端末装置10aの位置を示す位置情報に対応する地図画像700上の位置に重畳されて表示される。また、自装置マーカ702は、端末装置10aの方角を示す方角情報に従い、当該端末装置10aの眼鏡ユニット1Aが向いている方角を指し示すように表示される。   FIG. 21 shows an example of a screen 70a displayed on the display of the terminal device 10a according to the second embodiment. The screen 70a includes a map image 700. In the map image 700, the device marker 702 is displayed superimposed on the position on the map image 700 corresponding to the position information indicating the position of the terminal device 10a. The own device marker 702 is displayed so as to indicate the direction in which the eyeglass unit 1A of the terminal device 10a faces according to the direction information indicating the direction of the terminal device 10a.

なお、端末装置10aに関する位置情報および方角情報は、司令者端末30Bから管理サーバ40Bを介して送信された情報を用いてもよいし、端末装置10aにおいて位置情報取得部202および頭部運動検出部207で取得、検出された情報を用いてもよい。   The position information and the direction information related to the terminal device 10a may use information transmitted from the commander terminal 30B via the management server 40B, or the position information acquisition unit 202 and the head movement detection unit in the terminal device 10a. Information acquired and detected in 207 may be used.

また、地図画像700において、他の端末装置(例えば端末装置10b)の位置を示す位置情報に対応する位置に、端末装置10bを示すマーカ画像703bと、端末装置10bを識別する識別情報(例えば使用名「ユーザB」)とが重畳されて表示される。さらに他の端末装置についても同様に、それぞれの端末装置の位置情報に対応する各位置に、各端末装置を示すマーカ画像(例えばマーカ画像703c、703d)と、各端末装置を識別する識別情報(例えばユーザC、ユーザD)とが重畳されて表示される。   In addition, in the map image 700, the marker image 703b indicating the terminal device 10b and the identification information (for example, use) that identifies the terminal device 10b at a position corresponding to the position information indicating the position of another terminal device (for example, the terminal device 10b). The name “user B”) is superimposed and displayed. Further, similarly for other terminal devices, marker images (for example, marker images 703c and 703d) indicating the respective terminal devices and identification information for identifying the respective terminal devices (for example, marker images 703c and 703d) are provided at the positions corresponding to the position information of the respective terminal devices. For example, user C and user D) are superimposed and displayed.

また、司令者端末30Bは、司令者端末30Bにおいて取得される、現在の時刻を示す時間情報を、これら地図情報と、各端末装置10a、10b、…の各位置情報、方角情報および識別情報と共に、管理サーバ40Bを介して各端末装置10a、10b、…に送信することができる。端末装置10aは、画面70aに対して、受信した時間情報を示すメッセージ表示730を表示させる。   Further, the commander terminal 30B obtains the time information indicating the current time acquired at the commander terminal 30B together with the map information, the position information, the direction information, and the identification information of each of the terminal devices 10a, 10b,. , Can be transmitted to each terminal device 10a, 10b,... Via the management server 40B. The terminal device 10a displays a message display 730 indicating the received time information on the screen 70a.

図22は、第2の実施形態に係る、端末装置10bのディスプレイに表示される画面70bの例を示す。この場合、地図画像700は、端末装置10aの画面70aに表示される地図画像700と共通とされ、端末装置10bの位置を示す位置情報に対応する地図画像700上の位置に、自装置マーカ702が重畳されて表示される。また、端末装置10b以外の他の端末装置の地図画像700上の位置に、他の端末装置それぞれを示すマーカ画像(例えばマーカ画像703a、703c、703d)と、他の端末装置それぞれを識別する識別情報(例えばユーザA、ユーザC、ユーザD)とが重畳されて表示される。   FIG. 22 shows an example of a screen 70b displayed on the display of the terminal device 10b according to the second embodiment. In this case, the map image 700 is common to the map image 700 displayed on the screen 70a of the terminal device 10a, and the own device marker 702 is located at a position on the map image 700 corresponding to the position information indicating the position of the terminal device 10b. Are superimposed and displayed. In addition, a marker image (for example, marker images 703a, 703c, and 703d) indicating each of the other terminal devices at a position on the map image 700 of another terminal device other than the terminal device 10b and an identification for identifying each of the other terminal devices. Information (for example, user A, user C, user D) is superimposed and displayed.

また、画面70bに対して、司令者端末30Bによる時間情報を示すメッセージ表示730が、上述した端末装置10aのディスプレイに表示される画面70aと共通して表示される。   Further, on the screen 70b, a message display 730 indicating time information by the commander terminal 30B is displayed in common with the screen 70a displayed on the display of the terminal device 10a described above.

図23は、第2の実施形態に係る司令者端末30Bのディスプレイに表示される画面71の例を示す。司令者端末30Bは、各端末装置10a、10b、…から受信した各位置情報、方角情報および識別情報に基づき、地図画像700上の、各位置情報に対応する位置に、各端末装置10a、10b、…を示すマーカ画像705a、705b、705c、705dをそれぞれ重畳する。このとき、司令者端末30Bは、各マーカ画像705a、705b、705c、705dを、対応する各端末装置10a、10b、…の各方角情報に従い、各端末装置10a、10b、…の眼鏡ユニット1Aが向いている方角を指し示すように表示される。   FIG. 23 shows an example of a screen 71 displayed on the display of the commander terminal 30B according to the second embodiment. The commander terminal 30B, based on the position information, direction information, and identification information received from the terminal devices 10a, 10b,..., At the positions corresponding to the position information on the map image 700, the terminal devices 10a, 10b. ,... Are superimposed on marker images 705a, 705b, 705c, and 705d, respectively. At this time, in the commander terminal 30B, each marker image 705a, 705b, 705c, 705d is sent to the glasses unit 1A of each terminal device 10a, 10b,... According to each direction information of each corresponding terminal device 10a, 10b,. It is displayed to point in the direction you are facing.

司令者は、この画面71を見ることで、各端末装置10a、10b、…のユーザA、B、…がどの方角を向いているかを知ることができる。また、司令者は、継続的に画面71を見ることで、各端末装置10a、10b、…のユーザA、B、…がどのように移動しているかを知ることができ、さらに、各ユーザA、B、…の移動先を推測することが可能である。   The commander can know which direction the users A, B,... Of each terminal device 10a, 10b,. Moreover, the commander can know how the users A, B,... Of the terminal devices 10a, 10b,... , B,... Can be estimated.

(第2実施形態にかかる情報共有システムの適用例)
第2の実施形態に係る情報共有システムが適用される例としては、大規模な災害現場などでの救助活動などがある。地震、洪水、豪雪などの大規模な災害が起こると、全国各地から救助隊員が集められ見知らぬ土地で見知らぬ隊員同士が連携して作業をする必要がある。災害で道路状況が悪い、土砂崩れなどの二次災害の可能性がある箇所も出てくる。さらに救助活動は時間との勝負であり、例えば他の隊員がすでに調査した場所に別の隊員が訪れるといったことは大きな無駄になる。
(Application example of the information sharing system according to the second embodiment)
As an example to which the information sharing system according to the second embodiment is applied, there is a rescue operation at a large-scale disaster site. When large-scale disasters such as earthquakes, floods, and heavy snowfall occur, rescue workers are gathered from all over the country, and it is necessary for strangers to work together in a strange land. There are also places where there is a possibility of secondary disasters such as bad road conditions and landslides. Furthermore, rescue operations are a matter of time, and it is a waste of time for another member to visit a location that another member has already investigated.

上述したように、第2の実施形態に係る情報共有システムによれば、各端末装置10a、10b、…のディスプレイに、共通の地図画像700と、自装置の位置を示す自装置マーカ702と、他の端末装置を示すマーカ画像(自装置が端末装置10aであれば、例えばマーカ画像703b、703c…)が、対応する端末装置の地図画像700上における位置に表示される。また、司令者が使用する司令者端末30Bのディスプレイには、地図画像700上に、各端末装置10a、10b、…の方角および地図画像700上での位置を示す各マーカ画像705a、705b、…が表示される。   As described above, according to the information sharing system according to the second embodiment, the display of each terminal device 10a, 10b,..., The common map image 700, the own device marker 702 indicating the position of the own device, Marker images indicating other terminal devices (for example, if the device is the terminal device 10a, marker images 703b, 703c,...) Are displayed at positions on the map image 700 of the corresponding terminal devices. Further, on the display of the commander terminal 30B used by the commander, the marker images 705a, 705b,... Showing the directions of the terminal devices 10a, 10b,. Is displayed.

したがって、第2の実施形態に係る情報共有システムをこのような場面に適用することで、各隊員は、自分がいる場所や、自分が向かう方角を容易に把握することができると共に、他の隊員のいる場所を容易に把握することが可能となる。これにより、各隊員は、無駄を抑えた適切な行動をとることができる。さらに、司令者は、司令者端末30Bの画面71により、全隊員の位置を容易に把握することができ、例えば音声通信を使って各隊員と連絡を取り合うことで的確な指示を出すことができる。   Therefore, by applying the information sharing system according to the second embodiment to such a scene, each member can easily grasp the location where he / she is and the direction to which he / she is going, and other members It is possible to easily grasp the place where there is. Thereby, each member can take an appropriate action with reduced waste. Furthermore, the commander can easily grasp the positions of all the members on the screen 71 of the commander terminal 30B. For example, the commander can give accurate instructions by communicating with each member using voice communication. .

また、各隊員が使用する端末装置10a、10b、…は、頭部80に装着して用いる眼鏡型デバイスであるため、両手を使用可能な状態で情報を得ることができる。そのため、救助用具を手で持っていたり、急斜面を両手両足で登攀している場合であっても情報確認が可能である。   Further, since the terminal devices 10a, 10b,... Used by each member are spectacle-type devices that are used by being mounted on the head 80, information can be obtained in a state where both hands can be used. Therefore, information can be confirmed even when a rescue tool is held by hand or when climbing a steep slope with both hands and feet.

第2の実施形態に係る情報共有システムの適用例は、災害救助などに限られない。例えば、サバイバルゲームのようなアミューズメントに、第2の実施形態に係る情報共有システムを適用することも可能である。この場合、味方の位置が分かるため、敵陣地のフラッグを奪取する際などに協同的に動くことでゲームに戦略的な要素を加えることができる。サバイバルゲームは両手に銃を構える場合が多いため、眼鏡型デバイスにより両手が使用可能な状態での情報表示は、非常に有効である。サバイバルゲームに限らず、雪合戦などの集団競技に第2の実施形態に係る情報共有システムを適用することで、競技に戦略性を加味することができ、競技価値を上げることができる。   An application example of the information sharing system according to the second embodiment is not limited to disaster relief. For example, the information sharing system according to the second embodiment can be applied to an amusement such as a survival game. In this case, since the position of the ally is known, a strategic element can be added to the game by moving cooperatively when taking the flag of the enemy base. Since survival games often have guns in both hands, displaying information in a state where both hands can be used with a glasses-type device is very effective. By applying the information sharing system according to the second embodiment to group competitions such as snowball fights as well as survival games, it is possible to add strategy to the competition and increase the competition value.

(第2の実施形態の第1の変形例)
次に、第2の実施形態の第1の変形例について説明する。第2の実施形態の第1の変形例は、司令者端末30Bにおいて地図画像700上の所望の位置を指定する場合の例である。例えば、司令者は、司令者端末30Bのディスプレイ3004に表示される画面71を参照しながら、司令者端末30Bに接続されるポインティングデバイス3007を用いて、画面71内の地図画像700上の所望の位置を指定する。また、司令者端末30Bは、例えばキーボード3008を用いて、指定した位置に対応するメッセージを入力することができる。
(First Modification of Second Embodiment)
Next, a first modification of the second embodiment will be described. The 1st modification of 2nd Embodiment is an example in the case of designating the desired position on the map image 700 in the commander terminal 30B. For example, the commander uses the pointing device 3007 connected to the commander terminal 30B while referring to the screen 71 displayed on the display 3004 of the commander terminal 30B, to select a desired one on the map image 700 in the screen 71. Specify the position. In addition, the commander terminal 30B can input a message corresponding to the designated position using the keyboard 3008, for example.

図24は、第2の実施形態の第1の変形例に係る、司令者端末30Bにおいて地図画像700上の所望の位置が指定された場合の画面71の例を示す。画面71内の地図画像700の指定された位置にマーカ画像706が重畳されると共に、マーカ画像706の近傍に、入力されたメッセージ(この例では「目的地」)が表示される。   FIG. 24 shows an example of a screen 71 when a desired position on the map image 700 is designated on the commander terminal 30B according to the first modification of the second embodiment. A marker image 706 is superimposed at a designated position of the map image 700 in the screen 71, and an input message (in this example, “destination”) is displayed near the marker image 706.

司令者端末30Bは、さらに、地図画像700を表示する地図情報に基づき、例えば位置取得部303により、指定された位置に対応する位置情報である指定位置情報(緯度および経度)を取得する。司令者端末30Bは、取得した指定位置情報と、指定された位置に対応するメッセージとを、管理サーバ40Bを介して端末装置10a、10b、…に送信する。これにより、各端末装置10a、10b、…のユーザA、B、…に対して同一の位置を通知することが可能となる。   The commander terminal 30B further acquires specified position information (latitude and longitude) that is position information corresponding to the specified position, for example, by the position acquisition unit 303, based on the map information displaying the map image 700. The commander terminal 30B transmits the acquired designated position information and a message corresponding to the designated position to the terminal devices 10a, 10b,... Via the management server 40B. This makes it possible to notify the users A, B,... Of the terminal devices 10a, 10b,.

第2の実施形態の第1の変形例に係る情報共有システムを、上述のように災害救助などに適用した場合には、複数の隊員に対して、ある位置を共通して、迅速に通知することができる。また、指定された位置を示す位置情報が、眼鏡ユニット1Aのディスプレイに表示されるため、情報が更新され指定された位置が変更された場合にも、各隊員は、位置情報の更新に素早く応答することが可能である。   When the information sharing system according to the first modification of the second embodiment is applied to disaster relief as described above, a plurality of members are quickly notified of a certain position in common. be able to. In addition, since the position information indicating the designated position is displayed on the display of the spectacle unit 1A, even if the information is updated and the designated position is changed, each member quickly responds to the update of the position information. Is possible.

(第2の実施形態の第2の変形例)
次に、第2の実施形態の第2の変形例について説明する。第2の実施形態の第2の変形例は、対象500の位置を示す位置情報を、各端末装置10a、10b、…と、司令者端末30Bとの間で共有し、また、各端末装置10a、10b、…間で共有する例である。
(Second modification of the second embodiment)
Next, a second modification of the second embodiment will be described. In the second modification of the second embodiment, position information indicating the position of the object 500 is shared between the terminal devices 10a, 10b,... And the commander terminal 30B, and each terminal device 10a. This is an example of sharing between 10b,.

例えば、端末装置10aを使用するユーザAは、端末装置10aの眼鏡ユニット1Aにおけるフロント11Aを介して対象500を目視し、対象500に関する情報の共有を開始する。ユーザAは、端末装置10aから対象500までの距離を例えば目視にて計測し、計測した距離を示す距離情報を、音声やジェスチャにより端末装置10aに入力する。音声やジェスチャにより距離情報を入力する方法は、図12を用いて説明した方法を適用できるので、ここでの説明を省略する。   For example, the user A who uses the terminal device 10a visually observes the target 500 via the front 11A in the eyeglass unit 1A of the terminal device 10a, and starts sharing information regarding the target 500. The user A measures the distance from the terminal device 10a to the target 500, for example, visually, and inputs distance information indicating the measured distance to the terminal device 10a by voice or gesture. Since the method described with reference to FIG. 12 can be applied to the method of inputting distance information by voice or gesture, description thereof is omitted here.

端末装置10aは、入力された距離情報を、端末装置10aの識別情報と関連付けて、管理サーバ40Bを介して司令者端末30Bに送信する。なお、端末装置10aの位置情報、方角情報および識別情報は、距離情報の送信に先立って、管理サーバ40Bを介して司令者端末30Bに送信されているものとする。   The terminal device 10a transmits the input distance information in association with the identification information of the terminal device 10a to the commander terminal 30B via the management server 40B. It is assumed that the position information, the direction information, and the identification information of the terminal device 10a are transmitted to the commander terminal 30B via the management server 40B prior to the transmission of the distance information.

司令者端末30Bは、端末装置10aから送信された距離情報と識別情報とを受信すると、位置取得部303により、受信された距離情報と、先に受信された端末装置10aの位置情報および方角情報とに基づき、対象500の位置を示す位置情報を取得する。司令者端末30Bは、取得した対象500の位置情報に対応する地図画像700上の位置に、対象500を示すマーカ画像を重畳する。   When the commander terminal 30B receives the distance information and the identification information transmitted from the terminal device 10a, the position acquisition unit 303 receives the received distance information and the previously received position information and direction information of the terminal device 10a. Based on the above, position information indicating the position of the object 500 is acquired. The commander terminal 30B superimposes a marker image indicating the target 500 on a position on the map image 700 corresponding to the acquired position information of the target 500.

図25は、第2の実施形態の第2の変形例に係る、司令者端末30Bの画面71における地図画像700に対して、対象500を示すマーカ画像である対象マーカ722が重畳された例を示す。この例では、端末装置10aから対象500の属性を示す属性情報が送信され、司令者端末30Bは、属性情報記憶部304に記憶される属性情報テーブルから、この属性情報に対応する対象マーカ722を取得して、地図画像700に重畳させている。   FIG. 25 illustrates an example in which a target marker 722 that is a marker image indicating the target 500 is superimposed on the map image 700 on the screen 71 of the commander terminal 30B according to the second modification of the second embodiment. Show. In this example, attribute information indicating the attribute of the target 500 is transmitted from the terminal device 10a, and the commander terminal 30B sets the target marker 722 corresponding to this attribute information from the attribute information table stored in the attribute information storage unit 304. Obtained and superimposed on the map image 700.

司令者端末30Bは、取得した対象500の位置を示す位置情報と、当該対象500の属性に対応する対象マーカ722とを、管理サーバ40Bを介して各端末装置10a、10b、…に送信する。各端末装置10a、10b、…は、自装置の眼鏡ユニット1Aのディスプレイの画面70a、70b、…において、対象500の位置を示す位置情報に対応する地図画像700上の位置に、対象マーカ722を重畳させる。   The commander terminal 30B transmits the acquired position information indicating the position of the target 500 and the target marker 722 corresponding to the attribute of the target 500 to each terminal device 10a, 10b,... Via the management server 40B. Each terminal device 10a, 10b,... Has a target marker 722 at a position on the map image 700 corresponding to the position information indicating the position of the target 500 on the display screen 70a, 70b,. Superimpose.

第2の実施形態の第2の変形例に係る情報共有システムを、上述のように災害救助などに適用した場合には、一人の隊員が発見した危険箇所などの位置を、複数の隊員に容易に通知できる。また、例えば全く目印が無い山道などで災害救助をしている場合などでも、危険箇所などの位置を容易に通知でき、各隊員の安全を守ることが可能となる。   When the information sharing system according to the second modification of the second embodiment is applied to disaster relief as described above, the location of a dangerous spot or the like discovered by one member can be easily set by a plurality of members. Can be notified. In addition, for example, even when a disaster is being rescued on a mountain road where there is no mark at all, it is possible to easily notify the location of a dangerous location or the like, and it is possible to protect the safety of each member.

なお、上述では、第2の実施形態の第2の変形例において、対象500の位置を端末装置10aから管理サーバ40Bを介して送信された距離情報に基づき取得しているが、これはこの例に限定されない。例えば、端末装置10aは、ユーザAの音声による音声通信を用いて司令者端末30Bに距離情報を送信してもよい。司令者は、この音声通信により取得した距離情報を、例えばキーボード3008などを操作して司令者端末30Bに入力する。これに限らず、司令者は、音声通信により取得した距離情報に基づき司令者端末30Bのディスプレイ3004に表示される画面71内の地図画像700上に、ポインティングデバイス3007などを用いて直接的に対象500の位置を指定してもよい。   In the above, in the second modification of the second embodiment, the position of the target 500 is acquired based on the distance information transmitted from the terminal device 10a via the management server 40B. It is not limited to. For example, the terminal device 10a may transmit distance information to the commander terminal 30B using voice communication using the voice of the user A. The commander inputs the distance information acquired by the voice communication to the commander terminal 30B by operating, for example, the keyboard 3008. The commander is not limited thereto, and the commander directly uses the pointing device 3007 or the like on the map image 700 in the screen 71 displayed on the display 3004 of the commander terminal 30B based on the distance information acquired by voice communication. 500 positions may be specified.

(第2の実施形態の第3の変形例)
次に、第2の実施形態の第3の変形例について説明する。第2の実施形態の第3の変形例は、上述した第2の実施形態の第1の変形例または第2の変形例において、さらに、端末装置10a、10b、…から所望の位置または対象500までの距離を示す各距離情報を求める例である。司令者端末30Bは、例えば位置取得部303により、所望の位置または対象500の位置を示す位置情報と、各端末装置10a、10b、…の位置を示す各位置情報とに基づき、所望の位置または対象500から各端末装置10a、10b、…までの直線距離をそれぞれ算出する。
(Third Modification of Second Embodiment)
Next, a third modification of the second embodiment will be described. The third modified example of the second embodiment is the same as the first modified example or the second modified example of the second embodiment described above, and further, a desired position or object 500 from the terminal devices 10a, 10b,. It is an example which calculates | requires each distance information which shows the distance to. The commander terminal 30B, for example, by the position acquisition unit 303, based on the position information indicating the desired position or the position of the target 500 and the position information indicating the position of each terminal device 10a, 10b,. A linear distance from the object 500 to each terminal device 10a, 10b,... Is calculated.

司令者端末30Bは、所望の位置または対象500の位置を示す位置情報を、各端末装置10a、10b、…に送信する。また、司令者端末30Bは、端末装置10a、10b、…それぞれから所望の位置または対象500の位置までの直線距離を示す距離情報を、当該距離情報に対応する端末装置10a、10b、…にそれぞれ送信する。   The commander terminal 30B transmits position information indicating a desired position or the position of the target 500 to each of the terminal devices 10a, 10b,. In addition, the commander terminal 30B sends distance information indicating the linear distance from each of the terminal devices 10a, 10b,... To a desired position or the position of the target 500 to the terminal devices 10a, 10b,. Send.

各端末装置10a、10b、…は、司令者端末30Bから送信された位置情報に対応する地図画像700上の位置に、所定のマーカ画像を重畳させる。また、各端末装置10a、10b、…は、司令者端末30Bから送信された各距離情報のうち、自装置に対応する距離情報を、画面70a、70b、…にそれぞれ表示させる。図26は、第2の実施形態の第3の変形例に係る、司令者端末30Bにおいて所望の位置が指定された場合の、端末装置10aのディスプレイに表示される画面70aの例を示す。画面70aにおいて、所望の位置に対応する地図画像700上の位置にマーカ画像706が重畳されると共に、距離情報を示すメッセージ表示740が表示される。   Each of the terminal devices 10a, 10b,... Superimposes a predetermined marker image on the position on the map image 700 corresponding to the position information transmitted from the commander terminal 30B. Further, each of the terminal devices 10a, 10b,... Displays distance information corresponding to the own device among the distance information transmitted from the commander terminal 30B on the screens 70a, 70b,. FIG. 26 shows an example of a screen 70a displayed on the display of the terminal device 10a when a desired position is designated on the commander terminal 30B according to the third modification of the second embodiment. On the screen 70a, a marker image 706 is superimposed at a position on the map image 700 corresponding to a desired position, and a message display 740 indicating distance information is displayed.

地図画像700上に所望の位置または対象500の位置に従いマーカ画像706が重畳されることで、各端末装置10a、10b、…から所望の位置または対象500の位置までの凡その距離や、その位置に到達するために要する時間を推測することが可能である。   The marker image 706 is superimposed on the map image 700 according to the desired position or the position of the target 500, so that the approximate distance from each terminal device 10a, 10b,. It is possible to estimate the time required to reach

第2の実施形態の第3の変形例では、さらに、各端末装置10a、10b、…から所望の位置または対象500の位置までの実距離が表示され、表示の値が、各端末装置10a、10b、…の移動などに伴い逐次的に更新されることで、所望の位置または対象500の位置までの残り距離が明確になる。また、各端末装置10a、10b、…の各画面70a、70b、…には、共通の時刻を示す時間情報を示すメッセージ表示730が表示されている。そのため、当該所望の位置または対象500の位置への到達予定時刻を高い確度にて推測できる。   In the third modified example of the second embodiment, the actual distance from each terminal device 10a, 10b,... To the desired position or the position of the target 500 is further displayed, and the display value is set to each terminal device 10a, The remaining distance to the desired position or the position of the target 500 is clarified by sequentially updating with the movement of 10b,. Further, a message display 730 indicating time information indicating a common time is displayed on each screen 70a, 70b,... Of each terminal device 10a, 10b,. Therefore, the estimated arrival time at the desired position or the position of the target 500 can be estimated with high accuracy.

また、既存のカーナビゲーションシステムなどでは、道路を通ることを前提とした距離の算出を行っている。これに対して、第2の実施形態の第3の変形例に係る情報共有システムでは、各ユーザA、B、…と所望の位置または対象500の位置との直線距離を表示している。これにより、例えば第2の実施形態の第3の変形例に係る情報共有システムを災害救助などに適用した場合に、災害現場など道路を通常通りに通行することが困難である場合など、目的地までの直線距離(絶対距離)を示すことで、各隊員が理解容易となる。   In addition, existing car navigation systems and the like calculate distances on the assumption that they pass through roads. On the other hand, in the information sharing system according to the third modification of the second embodiment, the linear distance between each user A, B,... And the desired position or the position of the target 500 is displayed. As a result, for example, when the information sharing system according to the third modification of the second embodiment is applied to disaster relief or the like, it is difficult to travel normally on a road such as a disaster site. By showing the straight line distance (absolute distance), each member becomes easy to understand.

(第2の実施形態の第4の変形例)
次に、第2の実施形態の第4の変形例について説明する。第2の実施形態の第4の変形例は、上述した第2の実施形態および各変形例において、各端末装置10a、10b、…のディスプレイに表示される画面70a、70b、…に、司令者端末30Bから送信されたメッセージを共通して表示させる例である。
(Fourth modification of the second embodiment)
Next, a fourth modification of the second embodiment will be described. In the fourth modification of the second embodiment, in the second embodiment and each modification described above, the commander displays the screens 70a, 70b,... Displayed on the displays of the terminal devices 10a, 10b,. In this example, messages transmitted from the terminal 30B are displayed in common.

図27は、第2の実施形態の第4の変形例に係る、司令者端末30Bから送信された任意のメッセージによるメッセージ表示741が表示される画面70aの例を示す。司令者は、例えばキーボード3008を操作して、任意のメッセージを司令者端末30Bに入力する。司令者端末30Bは、入力されたメッセージを、管理サーバ40Bを介して各端末装置10a、10b、…に送信する。各端末装置10a、10b、…は、司令者端末30Bから送信されたメッセージを受信すると、受信したメッセージを含むメッセージ表示741を各画面70a、70b、…に表示させる。   FIG. 27 shows an example of a screen 70a on which a message display 741 based on an arbitrary message transmitted from the commander terminal 30B according to a fourth modification of the second embodiment is displayed. For example, the commander operates the keyboard 3008 to input an arbitrary message to the commander terminal 30B. The commander terminal 30B transmits the input message to each terminal device 10a, 10b,... Via the management server 40B. When receiving the message transmitted from the commander terminal 30B, each terminal device 10a, 10b,... Displays a message display 741 including the received message on each screen 70a, 70b,.

各端末装置10a、10b、…のユーザA、B、…と司令者との間の連絡は、音声通信を用いて行うと、最も早く伝えることができる。しかしながら、ユーザA、B、…がいる環境によっては、騒音などが大きく音声が聞き取れない場合がある。この場合、連絡内容を、音声ではなく文字で伝えることができると好ましい。各端末装置10a、10b、…が備える眼鏡ユニット1Aのディスプレイに、司令者からの連絡内容を文字情報で表示させることで、より確実に連絡内容の伝達を行うことが可能となる。   Contact between the users A, B,... Of each of the terminal devices 10a, 10b,... And the commander can be communicated earliest by using voice communication. However, depending on the environment where there are users A, B,... In this case, it is preferable that the content of the communication can be conveyed by characters instead of voice. By displaying the content of the communication from the commander as character information on the display of the spectacle unit 1A included in each terminal device 10a, 10b,..., The content of the communication can be more reliably transmitted.

(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、上述の第1の実施形態および第2の実施形態、ならびに、各実施形態の各変形例における眼鏡ユニット1Aに対して、フロント11Aを透過する光量を調整する調光部を設けたものである。
(Third embodiment)
Next, a third embodiment will be described. The third embodiment is a dimmer that adjusts the amount of light that passes through the front 11 </ b> A with respect to the glasses unit 1 </ b> A according to the first and second embodiments described above and the modifications of each embodiment. Is provided.

図28〜図30を用いて、第3の実施形態に係る、眼鏡型デバイスを含む端末装置の構成の例について説明する。図28は、第3の実施形態に係る端末装置10’の一例の外観を示す斜視図である。図29は、第3の実施形態に係る端末装置10’における眼鏡ユニット1Bの頭部80への装着例を示す。また、図30は、第3の実施形態に係る眼鏡ユニット1Bのフロント11Bおよびテンプル12に内蔵される表示系の構成の例を示す。なお、図28〜図30において、上述した図2〜図4と共通する部分には同一の符号を付して、詳細な説明を省略する。   An example of the configuration of the terminal device including the eyeglass-type device according to the third embodiment will be described with reference to FIGS. FIG. 28 is a perspective view illustrating an appearance of an example of the terminal device 10 ′ according to the third embodiment. FIG. 29 shows an example of mounting the spectacles unit 1B on the head 80 in the terminal device 10 'according to the third embodiment. FIG. 30 shows an example of the configuration of a display system built in the front 11B and the temple 12 of the eyeglass unit 1B according to the third embodiment. 28 to 30, the same reference numerals are given to the portions common to FIGS. 2 to 4 described above, and detailed description thereof is omitted.

図28〜図30において、眼鏡ユニット1Bは、フロント11Bに対し、導光板2の入射側に、透過率を制御可能な調光フィルタ1010が設けられる。すなわち、第3の実施形態においては、外部からの光は、調光フィルタ1010と導光板2とを介して眼球に入射される。   28-30, the spectacles unit 1B is provided with the light control filter 1010 which can control the transmittance | permeability in the incident side of the light-guide plate 2 with respect to the front 11B. That is, in the third embodiment, light from the outside enters the eyeball via the light control filter 1010 and the light guide plate 2.

図31は、第3の実施形態に適用可能な調光フィルタ1010の一例の構成を示す。図31において、調光フィルタ1010は、表示基板900上に酸化チタン粒子膜901および表示層902を形成し、10μm程度のスペーサ903を介して対向基板904を貼り合わせたセル構造とすることができる。セル構造内には、電解液として、例えば、1−エチル−3−メチルイミダゾリウム・テトラシアノボレートが封入されている。   FIG. 31 shows an example of the configuration of a light control filter 1010 applicable to the third embodiment. In FIG. 31, the dimming filter 1010 can have a cell structure in which a titanium oxide particle film 901 and a display layer 902 are formed on a display substrate 900, and a counter substrate 904 is bonded through a spacer 903 of about 10 μm. . In the cell structure, for example, 1-ethyl-3-methylimidazolium tetracyanoborate is enclosed as an electrolytic solution.

表示基板900としては、例えば、150mm×80mm程度のITO(Indium Tin Oxide)導電膜付きフィルム基板を用いることができる。酸化チタン粒子膜901は、例えば、表示基板900上に酸化チタンナノ粒子分散液をスピンコート方式などにより塗布し、120℃程度の温度で15分間程度アニール処理を行うことによって形成できる。   As the display substrate 900, for example, a film substrate with an ITO (Indium Tin Oxide) conductive film of about 150 mm × 80 mm can be used. The titanium oxide particle film 901 can be formed, for example, by applying a titanium oxide nanoparticle dispersion liquid on the display substrate 900 by a spin coating method or the like and performing an annealing process at a temperature of about 120 ° C. for about 15 minutes.

表示層902は、例えば、酸化チタン粒子膜901上に下記の化学式(1)による構造式で示される化合物の1wt%2,2,3,3−テトラフロロプロパノール溶液を塗布液としてスピンコート方式などにより塗布する。そして、120℃程度の温度で10分間程度アニール処理を行うことによって、酸化チタン粒子膜901を構成する酸化チタン粒子表面にエレクトロクロミック化合物を吸着させて形成できる。   The display layer 902 is, for example, a spin coat method using a 1 wt% 2,2,3,3-tetrafluoropropanol solution of a compound represented by the following structural formula (1) on the titanium oxide particle film 901 as a coating solution. Apply by. Then, by performing an annealing process at a temperature of about 120 ° C. for about 10 minutes, an electrochromic compound can be adsorbed and formed on the surface of the titanium oxide particles constituting the titanium oxide particle film 901.

第3の実施形態に係る眼鏡ユニット1Bは、さらに、フロント11Bに照射される光の照度を検出する照度センサを含むことができる。図32は、第3の実施形態に係る、照度センサを含む眼鏡ユニットの構成例を示す。図32において、眼鏡ユニット1Bのフロント11Bは、左右方向の中央付近に、照度センサ1011が設けられている。図32では、照度センサ1011が左眼側に設けられているが、照度センサ1011は、右眼側に設けてもよい。これに限らず、照度センサ1011は、眼鏡ユニット1Bを頭部80に装着した状態でフロント11Bを介して両眼に入射される光の照度を精度良く検出可能であれば、設ける位置を限定されない。   The eyeglass unit 1B according to the third embodiment can further include an illuminance sensor that detects the illuminance of light irradiated on the front 11B. FIG. 32 shows a configuration example of an eyeglass unit including an illuminance sensor according to the third embodiment. In FIG. 32, an illuminance sensor 1011 is provided on the front 11B of the spectacle unit 1B near the center in the left-right direction. In FIG. 32, the illuminance sensor 1011 is provided on the left eye side, but the illuminance sensor 1011 may be provided on the right eye side. The illuminance sensor 1011 is not limited to this position as long as the illuminance sensor 1011 can accurately detect the illuminance of light incident on both eyes via the front 11B with the spectacles unit 1B mounted on the head 80. .

図32において、外光光量Aと、外光光量Aが調光フィルタ1010で減光された透過光量Bと、フロント11Bに含まれるハーフミラー8(ディスプレイ)から射出される光(映像)の映像光量Cとの関係が示されている。透過光量Bに比べて映像光量Cが大きいほど、ディスプレイに表示される映像が見易くなる。一方、透過光量Bが小さくなり過ぎると、フロント11Bを透過する外光による周辺の実像が見え難くなる。   In FIG. 32, the external light quantity A, the transmitted light quantity B obtained by reducing the external light quantity A by the light control filter 1010, and the image of the light (video) emitted from the half mirror 8 (display) included in the front 11B. The relationship with the light quantity C is shown. As the image light amount C is larger than the transmitted light amount B, the image displayed on the display becomes easier to see. On the other hand, if the transmitted light amount B becomes too small, it is difficult to see the surrounding real image due to the external light transmitted through the front 11B.

そのため、第3の実施形態では、照度センサ1011により外光光量Aをモニタし、モニタ結果に応じて、調光フィルタ1010の透過率と、ハーフミラー8に照射される映像光の光量とを制御する。これにより、眼球に対して照射される外光および映像光の光量が適切に照射され、ユーザは、異なる外光環境の元でも、外光による光景と映像光による映像とを容易に認識することが可能となる。   Therefore, in the third embodiment, the ambient light amount A is monitored by the illuminance sensor 1011, and the transmittance of the light control filter 1010 and the light amount of the image light irradiated on the half mirror 8 are controlled according to the monitoring result. To do. As a result, the amount of external light and image light emitted to the eyeball is appropriately irradiated, and the user can easily recognize the scene of the external light and the image of the image light even under different external light environments. Is possible.

図33は、第3の実施形態に係る眼鏡ユニット1Bのハードウェア構成の例を示す。なお、図33において、上述の図5および図32と対応する部分には同一の符号を付して、詳細な説明を省略する。図33に示される眼鏡ユニット1Bは、図5に示した眼鏡ユニット1Aに対して、調光フィルタ1010および照度センサ1011と、調光制御回路1012とが追加されている。調光制御回路1012は、CPU1000の制御に従い、調光フィルタ1010の透過率と、光源4が射出する光の光量とを制御する。   FIG. 33 shows an example of the hardware configuration of the eyeglass unit 1B according to the third embodiment. 33, the same reference numerals are given to the portions corresponding to those in FIGS. 5 and 32 described above, and the detailed description thereof will be omitted. The eyeglass unit 1B shown in FIG. 33 has a dimming filter 1010, an illuminance sensor 1011, and a dimming control circuit 1012 added to the eyeglass unit 1A shown in FIG. The dimming control circuit 1012 controls the transmittance of the dimming filter 1010 and the amount of light emitted from the light source 4 according to the control of the CPU 1000.

図34は、第3の実施形態に係る眼鏡ユニット1Bの機能を説明するための一例の機能ブロック図である。なお、図34において、上述した図7と共通する部分には同一の符号を付して、詳細な説明を省略する。また、第3の実施形態に係る端末装置10’において、情報処理ユニット20Aは、図6および図7を用いて説明した構成および機能をそのまま適用可能であるので、ここでの説明を省略する。   FIG. 34 is a functional block diagram illustrating an example of functions of the eyeglass unit 1B according to the third embodiment. In FIG. 34, parts common to those in FIG. 7 described above are denoted by the same reference numerals, and detailed description thereof is omitted. Further, in the terminal device 10 ′ according to the third embodiment, the information processing unit 20 </ b> A can apply the configuration and function described with reference to FIGS. 6 and 7 as they are, and thus the description thereof is omitted here.

図34において、眼鏡ユニット1Bは、図7を用いて説明した機能に対して、照度検知部1020と、調光制御部1021とが追加されている。照度検知部1020は、照度センサ1011から出力された照度検知結果を受け付け、調光制御部1021に渡す。調光制御部1021は、照度検知部1020から渡された照度検知結果に基づき、調光フィルタ1010の透過率と、光源4の光量とを制御する。   In FIG. 34, the spectacle unit 1B has an illuminance detection unit 1020 and a dimming control unit 1021 added to the functions described with reference to FIG. The illuminance detection unit 1020 receives the illuminance detection result output from the illuminance sensor 1011 and passes it to the dimming control unit 1021. The dimming control unit 1021 controls the transmittance of the dimming filter 1010 and the light amount of the light source 4 based on the illuminance detection result passed from the illuminance detection unit 1020.

調光制御部1021は、例えば、照度センサ1011による照度検知結果と、調光フィルタ1010における透過率と、光源4の光量とを関連付けた調光テーブルを有する。調光テーブルは、例えば眼鏡ユニット1Bが備えるメモリ1001のROM領域に予め記憶しておくことが考えられる。調光制御部1021は、照度検知部1020から渡された照度検知結果に基づき調光テーブルを参照し、対応する透過率と光量とを取得する。調光制御部1021は、取得した透過率および光量に従い、調光フィルタ1010と、光源4とを制御する。   The dimming control unit 1021 includes, for example, a dimming table that associates the illuminance detection result by the illuminance sensor 1011, the transmittance of the dimming filter 1010, and the light amount of the light source 4. For example, the dimming table may be stored in advance in the ROM area of the memory 1001 provided in the spectacle unit 1B. The dimming control unit 1021 refers to the dimming table based on the illuminance detection result passed from the illuminance detecting unit 1020, and acquires the corresponding transmittance and light amount. The dimming control unit 1021 controls the dimming filter 1010 and the light source 4 according to the acquired transmittance and light amount.

図35は、第3の実施形態に適用可能な調光フィルタ1010の透過率の変化の例を示す。図35の例では、2Vの定電圧を印加して調光フィルタ1010の表示層902を発色させている。図35より、例えば、調光フィルタ1010の透過率を30%にしたければ、調光制御部1021は、調光フィルタ1010に対して2Vの定電圧を1.5秒間印加する。また、調光フィルタ1010の透過率を10%にしたければ、調光制御部1021は、調光フィルタ1010に対して2Vの定電圧を5秒間印加する。このようにして調光制御部1021により調光フィルタ1010の透過率を制御することで、上述した透過光量Bを調整できる。   FIG. 35 shows an example of a change in transmittance of the light control filter 1010 applicable to the third embodiment. In the example of FIG. 35, the display layer 902 of the light control filter 1010 is colored by applying a constant voltage of 2V. 35, for example, if the transmittance of the dimming filter 1010 is to be 30%, the dimming control unit 1021 applies a constant voltage of 2 V to the dimming filter 1010 for 1.5 seconds. If the transmittance of the dimming filter 1010 is to be 10%, the dimming control unit 1021 applies a constant voltage of 2 V to the dimming filter 1010 for 5 seconds. In this way, by controlling the transmittance of the dimming filter 1010 by the dimming control unit 1021, the above-described transmitted light amount B can be adjusted.

一方、眼鏡ユニット1Bのディスプレイにおける映像光量Cは、光源4の射出する光の光量(強度)を調光制御部1021により制御することで調整できる。例えば、光源4としてLED(Light Emitting Diode)を用い、光源4をPWM(Pulse Width Modulation)による電源により駆動する場合を考える。この場合には、調光制御部1021は、光源4としてのLEDを点灯/消灯するパルス幅(デューティ比)を変えることで、光源4の光量を調整できる。   On the other hand, the image light amount C in the display of the spectacle unit 1B can be adjusted by controlling the light amount (intensity) of the light emitted from the light source 4 by the dimming control unit 1021. For example, consider a case where an LED (Light Emitting Diode) is used as the light source 4 and the light source 4 is driven by a power source based on PWM (Pulse Width Modulation). In this case, the dimming control unit 1021 can adjust the light amount of the light source 4 by changing the pulse width (duty ratio) for turning on / off the LED as the light source 4.

各実施形態に係る情報共有システムが適用される現場の一つとして、屋外の広い場所がある。従来技術に係る眼鏡型デバイスは、屋外においては、ディスプレイの輝度に対して外光(太陽光)の明るさが圧倒的に強く、ディスプレイの映像を明確に認識することが極めて困難となる場合が多い。そのため、従来技術に係る眼鏡型デバイスでは、ディスプレイ表面に遮光シートを貼るなどの措置が必要である。この場合、遮光シートの濃度は一定であり、屋外の明るさによって調整することが困難である。また、ディスプレイに映出される映像を見ないで行動したいときは、視界を妨げるため、遮光シートを外さなくてはならない。   One of the sites to which the information sharing system according to each embodiment is applied is a wide outdoor location. In the case of the glasses-type device according to the prior art, the brightness of external light (sunlight) is overwhelmingly strong with respect to the brightness of the display, and it may be extremely difficult to clearly recognize the display image. Many. Therefore, in the eyeglass-type device according to the prior art, measures such as attaching a light shielding sheet to the display surface are necessary. In this case, the density of the light-shielding sheet is constant, and it is difficult to adjust depending on the outdoor brightness. Also, if you want to act without seeing the image shown on the display, you must remove the light-shielding sheet to obstruct the field of view.

第3の実施形態に係る眼鏡ユニット1Bは、外光の強度に応じて、調光フィルタ1010の透過率と光源4の光量とを制御している。そのため、第3の実施形態に係る眼鏡ユニット1Bを含む端末装置10’を用いることで、ユーザは、別途に遮光手段を用いること無しに、屋外および屋内それぞれにおいて適切な状態で、眼鏡ユニット1Bを用いることができる。   The eyeglass unit 1B according to the third embodiment controls the transmittance of the light control filter 1010 and the light amount of the light source 4 according to the intensity of external light. Therefore, by using the terminal device 10 ′ including the eyeglass unit 1B according to the third embodiment, the user can put the eyeglass unit 1B in an appropriate state outdoors and indoors without using a separate light shielding unit. Can be used.

(第4の実施形態)
次に、第4の実施形態について説明する。上述した第1の実施形態、第2の実施形態および第3の実施形態、ならびに、これら各実施形態の各変形例では、眼鏡型デバイスである端末装置10、あるいは、端末装置10’のディスプレイに、地図情報を表示させ、各端末装置10、あるいは、端末装置10’の位置を示す位置情報を地図情報に重畳させて表示させていた。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the first embodiment, the second embodiment, the third embodiment, and the modifications of each of the above-described embodiments, the terminal device 10 that is a glasses-type device or the display of the terminal device 10 ′ is used. The map information is displayed, and the position information indicating the position of each terminal device 10 or terminal device 10 ′ is displayed superimposed on the map information.

これに対して、第4の実施形態では、眼鏡型デバイスである端末装置のディスプレイを透過状態で用い、他の端末装置の位置を示す情報を、当該ディスプレイに、透過して視認できる現実世界の像(以下、実像と呼ぶ)の当該位置に対応する位置に重畳させて表示させる。これにより、第4の実施形態に係る端末装置を装着するユーザ(以下、装着者)は、実像に対する視認性を確保しつつ、他の端末装置について、位置などの情報を知ることができる。   In contrast, in the fourth embodiment, the display of a terminal device that is a spectacle-type device is used in a transparent state, and information indicating the position of another terminal device can be transmitted through the display and viewed in the real world. An image (hereinafter referred to as a real image) is displayed superimposed on a position corresponding to the position. As a result, a user wearing the terminal device according to the fourth embodiment (hereinafter referred to as a wearer) can know information such as the position of other terminal devices while ensuring the visibility of the real image.

図36は、第4の実施形態に係る情報共有システムの一例の構成を示す。なお、図36において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。第4の実施形態に係る情報共有システムは、それぞれユーザA’、B’、C’およびD’が使用する複数の端末装置10a’、10b’、10c’および30Cと、管理サーバ40Cとを含む。各端末装置10a’、10b’、10c’および30C、ならびに、管理サーバ40Cは、互いにネットワーク50により通信可能に接続されている。   FIG. 36 shows a configuration of an example of an information sharing system according to the fourth embodiment. In FIG. 36, parts common to those in FIG. 1 described above are denoted by the same reference numerals, and detailed description thereof is omitted. The information sharing system according to the fourth embodiment includes a plurality of terminal devices 10a ′, 10b ′, 10c ′, and 30C used by users A ′, B ′, C ′, and D ′, respectively, and a management server 40C. . The terminal devices 10a ', 10b', 10c 'and 30C and the management server 40C are connected to each other via a network 50 so as to be able to communicate with each other.

図36に示される端末装置10a’、10b’および10c’は、第3の実施形態に係る、調光部を設けたフロント部11Bを含む端末装置10’に対応する眼鏡型デバイスを含み、それぞれ無線通信によりネットワーク50と通信可能とされている。また、第4の実施形態では、端末装置10’は、GNSSに対応し、GNSSによる衛星60から送信される信号に基づき、自装置の位置を示す位置情報を取得できる。   The terminal devices 10a ′, 10b ′ and 10c ′ shown in FIG. 36 include eyeglass-type devices corresponding to the terminal device 10 ′ including the front part 11B provided with the light control unit according to the third embodiment. It is possible to communicate with the network 50 by wireless communication. In the fourth embodiment, the terminal device 10 ′ corresponds to GNSS, and can acquire position information indicating the position of the own device based on a signal transmitted from the satellite 60 by GNSS.

図36において、端末装置30Cは、例えば、ユーザA’、B’およびC’に対して司令を与える立場のユーザD’が使用する司令者端末である。以降、端末装置30Cを、司令者端末30Cと呼ぶ。管理サーバ40Cは、図1の管理サーバ40Aに対応し、各端末装置10a’、10b’および10c’は、司令者端末30Cと、管理サーバ40Cを介して接続される。司令者端末30Cは、例えば各端末装置10a’、10b’および10c’が存在する位置を含む地図画像を画面75に表示させることができる。   In FIG. 36, the terminal device 30C is, for example, a commander terminal used by a user D 'who is in a position to give commands to the users A', B 'and C'. Hereinafter, the terminal device 30C is referred to as a commander terminal 30C. The management server 40C corresponds to the management server 40A of FIG. 1, and each terminal device 10a ', 10b' and 10c 'is connected to the commander terminal 30C via the management server 40C. The commander terminal 30C can display, on the screen 75, a map image including the positions where the terminal devices 10a ', 10b', and 10c 'are present, for example.

各端末装置10a’、10b’および10c’は、図30を用いて説明した表示系と同一の光学的構造を有するディスプレイを備える。各端末装置10a’、10b’および10c’のディスプレイに表示される各画面13a、13bおよび13cは、ハーフミラー8を透過した現実世界の光景(実像)に対して、自機が向いている方位を示す方位表示1300と、自装置以外の眼鏡型デバイスによる端末装置に関する情報を示す位置マーカ1301およびラベル1302とが重畳して表示される。なお、以下では、ユーザの眼にハーフミラー8を透過して見える実像についても、便宜上、ディスプレイに表示されるものとして説明を行う。   Each terminal device 10a ', 10b', and 10c 'includes a display having the same optical structure as the display system described with reference to FIG. Each screen 13a, 13b, and 13c displayed on the display of each terminal device 10a ′, 10b ′, and 10c ′ is an orientation in which the own device is directed to a real-world scene (real image) that has passed through the half mirror 8. Is displayed superimposed on a position marker 1301 and a label 1302 indicating information related to a terminal device using a spectacle-type device other than its own device. In the following description, it is assumed that a real image that appears through the half mirror 8 to the user's eyes is also displayed on the display for convenience.

(第4の実施形態に適用可能な構成)
次に、図37〜図40を用いて、第4の実施形態に適用可能な端末装置10a’、10b’および10c’の構成の例について説明する。以下では、特に記載の無い限り、端末装置10a’、10b’および10c’を端末装置10a’で代表させて説明を行う。また、図38〜図40において、上述した図6、図33および図34と共通する部分には同一の符号を付して、詳細な説明を省略する。
(Configuration applicable to the fourth embodiment)
Next, an example of the configuration of the terminal devices 10a ′, 10b ′, and 10c ′ applicable to the fourth embodiment will be described with reference to FIGS. In the following description, the terminal devices 10a ′, 10b ′, and 10c ′ are represented by the terminal device 10a ′ unless otherwise specified. Also, in FIGS. 38 to 40, the same reference numerals are given to the portions common to FIGS. 6, 33, and 34 described above, and detailed description thereof is omitted.

図37は、第4の実施形態に係る端末装置10a’の一例の外観を示す斜視図である。図37に例示されるように、端末装置10a’は、眼鏡ユニット1Cと、眼鏡ユニット1Cに対してケーブル21を介して接続される情報処理ユニット20Cとを含む。眼鏡ユニット1Cは、図28に示した眼鏡ユニット1Bに対して、カメラ23が省略された構成となっている。図38は、図33の眼鏡ユニット1Bに対してカメラ23が省略された眼鏡ユニット1Cのハードウェア構成の例を示す。   FIG. 37 is a perspective view showing an appearance of an example of the terminal device 10a 'according to the fourth embodiment. As illustrated in FIG. 37, the terminal device 10a 'includes a glasses unit 1C and an information processing unit 20C connected to the glasses unit 1C via a cable 21. The eyeglass unit 1C has a configuration in which the camera 23 is omitted from the eyeglass unit 1B shown in FIG. FIG. 38 shows an example of the hardware configuration of the eyeglass unit 1C in which the camera 23 is omitted from the eyeglass unit 1B of FIG.

図39は、第4の実施形態に適用可能な情報処理ユニット20Cのハードウェア構成の例を示す。図39に示されるように、情報処理ユニット20Cは、図6の情報処理ユニット20Aに対して、MIC2030が接続される音声I/F2008が省略される。また、音声I/F2008の省略と、眼鏡ユニット1Cにおけるカメラ23の省略に伴い、音声・画像解析部2009も省略されている。   FIG. 39 shows an example of the hardware configuration of an information processing unit 20C applicable to the fourth embodiment. As shown in FIG. 39, the information processing unit 20C omits the audio I / F 2008 to which the MIC 2030 is connected to the information processing unit 20A of FIG. In addition, with the omission of the audio I / F 2008 and the omission of the camera 23 in the eyeglass unit 1C, the audio / image analysis unit 2009 is also omitted.

図40は、第4の実施形態に係る端末装置10a’の機能を説明するための一例の機能ブロック図である。図40において、眼鏡ユニット1Cは、カメラ23および音声I/F2008の省略に伴い、図34に示した眼鏡ユニット1Bに対して、撮像制御部104および画像情報出力部105が省略されている。同様に、情報処理ユニット20Bは、図7に示した情報処理ユニット20Aに対して、入力処理部205が省略されている。   FIG. 40 is a functional block diagram illustrating an example of functions of the terminal device 10a ′ according to the fourth embodiment. In FIG. 40, in the eyeglass unit 1C, the imaging control unit 104 and the image information output unit 105 are omitted from the eyeglass unit 1B shown in FIG. 34 due to the omission of the camera 23 and the audio I / F 2008. Similarly, in the information processing unit 20B, the input processing unit 205 is omitted from the information processing unit 20A illustrated in FIG.

一方、表示情報生成部204’は、第4の実施形態に係る位置マーカ1301およびラベル1302を生成し例えば画面13aに表示させる、表示制御部としての機能を含む。表示情報生成部204’の機能については、後述する。また、頭部運動検出部207’は、9軸センサ22による地磁気センサの出力を用いて、端末装置10a’が向いている方位を算出する。頭部運動検出部207’は、さらに、9軸センサ22によるジャイロセンサの出力から取得したロール角、ヨー角およびピッチ角それぞれを用いて、各方向に対する傾きを修正する修正値を出力する。   On the other hand, the display information generation unit 204 ′ includes a function as a display control unit that generates the position marker 1301 and the label 1302 according to the fourth embodiment and displays them on the screen 13 a, for example. The function of the display information generation unit 204 'will be described later. Further, the head movement detection unit 207 ′ uses the output of the geomagnetic sensor by the 9-axis sensor 22 to calculate the direction in which the terminal device 10 a ′ is facing. The head movement detection unit 207 ′ further outputs a correction value for correcting the inclination with respect to each direction using each of the roll angle, the yaw angle, and the pitch angle acquired from the output of the gyro sensor by the 9-axis sensor 22.

なお、第4の実施形態に係る情報共有システムにおいて、司令者端末30Cは、図18および図19を用いて説明した司令者端末30Bと同等のハードウェア構成および機能により実現可能であるので、ここでの説明を省略する。なお、司令者端末30Cは、図18の構成に対して音声I/F3010、マイクロホン3030およびスピーカ3031を省略することができる。また、第4の実施形態に適用可能な管理サーバ40Cは、図8および図9を用いて説明した管理サーバ40Aと同等のハードウェア構成および機能により実現可能であるので、ここでの説明を省略する。   In the information sharing system according to the fourth embodiment, the commander terminal 30C can be realized with the same hardware configuration and function as the commander terminal 30B described with reference to FIGS. The description in is omitted. The commander terminal 30C can omit the voice I / F 3010, the microphone 3030, and the speaker 3031 from the configuration of FIG. Further, the management server 40C applicable to the fourth embodiment can be realized by the same hardware configuration and function as the management server 40A described with reference to FIGS. 8 and 9, and thus description thereof is omitted here. To do.

図41は、第4の実施形態に係る情報共有システムにおける処理の例を示すシーケンス図である。なお、図41において、上述した図36と共通する部分には同一の符号を付して、詳細な説明を省略する。また、図41では、端末装置10a’、10b’および10c’を、それぞれ「端末装置A’」、「端末装置B’」および「端末装置C’」としても示している。   FIG. 41 is a sequence diagram illustrating an example of processing in the information sharing system according to the fourth embodiment. In FIG. 41, parts common to those in FIG. 36 described above are denoted by the same reference numerals, and detailed description thereof is omitted. In FIG. 41, the terminal devices 10a ', 10b' and 10c 'are also shown as "terminal device A'", "terminal device B '" and "terminal device C'", respectively.

以下では、ユーザA’が装着した端末装置10a’と、ユーザB’が装着した端末装置10b’と、ユーザC’が装着した端末装置10c’と、の間で、位置情報を共有するものとして説明を行う。また、ユーザD’が各ユーザA’、B’およびC’に対する司令者として、司令者端末30Cを利用して、各ユーザA’、B’およびC’の位置を同時に閲覧しているものとする。   Hereinafter, it is assumed that position information is shared among the terminal device 10a ′ worn by the user A ′, the terminal device 10b ′ worn by the user B ′, and the terminal device 10c ′ worn by the user C ′. Give an explanation. Further, the user D ′ is browsing the positions of the users A ′, B ′, and C ′ simultaneously using the commander terminal 30C as a commander for the users A ′, B ′, and C ′. To do.

端末装置10a’が管理サーバ40Cに対して初回のアクセスを行うと(ステップS50)、管理サーバ40Cは、端末装置10a’を識別するための識別情報(ID)を生成する(ステップS51)。管理サーバ40Cは、生成したIDを記憶すると共に、当該IDを端末装置10a’に返す(ステップS52)。管理サーバ40Cは、端末装置10b’および10c’についても同様に、初回のアクセス(ステップS60、ステップS70)に応じてそれぞれ端末装置10b’および10c’を識別するためのIDを生成し(ステップS61、ステップS71)、生成した各IDを記憶すると共に、各IDをそれぞれ端末装置10b’および10c’に返す(ステップS62、ステップS72)。ここでは、管理サーバ40Cは、端末装置10a’、10b’および10c’のIDとして、それぞれ「U001」、「U002」および「U003」を生成するものとする。   When the terminal device 10a 'makes an initial access to the management server 40C (step S50), the management server 40C generates identification information (ID) for identifying the terminal device 10a' (step S51). The management server 40C stores the generated ID and returns the ID to the terminal device 10a '(step S52). Similarly, for the terminal devices 10b ′ and 10c ′, the management server 40C generates IDs for identifying the terminal devices 10b ′ and 10c ′ according to the first access (step S60 and step S70) (step S61). Step S71), the generated IDs are stored, and the IDs are returned to the terminal devices 10b ′ and 10c ′, respectively (Steps S62 and S72). Here, it is assumed that the management server 40C generates “U001”, “U002”, and “U003” as the IDs of the terminal devices 10a ′, 10b ′, and 10c ′, respectively.

また、司令者端末30Cも、管理サーバ40Cに対して初回のアクセスを行う(ステップS80)。図41では、管理サーバ40Cは、司令者端末30Cに対してIDを生成しないように示しているが、これはこの例に限定されず、管理サーバ40Cは、司令者端末30Cに対してIDを生成してもよい。   The commander terminal 30C also makes an initial access to the management server 40C (step S80). In FIG. 41, the management server 40C is shown not to generate an ID for the commander terminal 30C, but this is not limited to this example, and the management server 40C assigns an ID to the commander terminal 30C. It may be generated.

さらに、図41では、管理サーバ40Cへの初回のアクセスが、端末装置10a’、端末装置10b’、端末装置10c’、司令者端末30Cの順に実行されているが、これは説明のための例であって、各端末装置10a’、10b’および10c’、ならびに、司令者端末30Cからの管理サーバ40Cへの初回のアクセスの順序は、図41に例示される順序に限定されない。   Furthermore, in FIG. 41, the first access to the management server 40C is executed in the order of the terminal device 10a ′, the terminal device 10b ′, the terminal device 10c ′, and the commander terminal 30C. This is an illustrative example. In addition, the order of the initial access from the terminal devices 10a ′, 10b ′, and 10c ′ and the commander terminal 30C to the management server 40C is not limited to the order illustrated in FIG.

管理サーバ40Cは、端末装置10a’、10b’および10c’、ならびに、司令者端末30Cそれぞれから初回アクセスを受け付けると、各端末装置10a’、10b’および10c’、ならびに、司令者端末30Cとの間でセッションを確立する(ステップS81)。セッションが確立されると、各端末装置10a’、10b’および10c’、ならびに、司令者端末30Cは、管理サーバ40Cとネットワーク50を介した通信が可能な状態となる。これにより、例えば、各端末装置10a’、10b’および10c’は、他の端末装置の位置情報を、ネットワーク50および管理サーバ40Cを介して共有可能となる。   When the management server 40C receives initial access from the terminal devices 10a ′, 10b ′, and 10c ′ and the commander terminal 30C, the management server 40C communicates with the terminal devices 10a ′, 10b ′, and 10c ′, and the commander terminal 30C. Sessions are established between them (step S81). When the session is established, each of the terminal devices 10a ', 10b' and 10c 'and the commander terminal 30C are in a state where communication with the management server 40C via the network 50 is possible. Accordingly, for example, the terminal devices 10a ', 10b', and 10c 'can share the position information of the other terminal devices via the network 50 and the management server 40C.

なお、図41では、端末装置10a’、10b’および10c’、ならびに、司令者端末30Cそれぞれから初回アクセスを受け付けた後に、セッションの確立を行っているが、これはこの例に限定されない。例えば、管理サーバ40Cは、端末装置10a’、10b’および10c’のうち少なくとも2以上の端末装置から初回アクセスを受け付けることで、セッションの確立を行うことができる。   In FIG. 41, the session is established after receiving the initial access from each of the terminal devices 10a ', 10b' and 10c 'and the commander terminal 30C, but this is not limited to this example. For example, the management server 40C can establish a session by receiving initial access from at least two terminal devices of the terminal devices 10a ', 10b', and 10c '.

司令者端末30Cは、管理サーバ40Cとの間のセッションが確立されると、地図情報を取得する(ステップS82)。司令者端末30Cは、取得した地図情報に基づく地図画像を、画面75に表示する。   When the session with the management server 40C is established, the commander terminal 30C acquires map information (step S82). The commander terminal 30 </ b> C displays a map image based on the acquired map information on the screen 75.

次のステップS90は、各端末装置10a’、10b’および10c’における位置情報の取得および位置マーカの更新処理を示している。ステップS90において、ステップS90a、ステップS90bおよびステップS90cは、それぞれ、端末装置10a’、10b’および10c’における位置情報取得処理に応じた処理の例を示す。   The next step S90 shows the position information acquisition and position marker update processing in each of the terminal devices 10a ', 10b', and 10c '. In step S90, steps S90a, S90b, and S90c show examples of processing corresponding to the position information acquisition processing in the terminal devices 10a ', 10b', and 10c ', respectively.

ステップS90aの処理について説明する。ステップS90aにおいて、端末装置10a’は、GNSSを利用して自装置の位置を示す位置情報を取得する(ステップS900)。位置情報は、緯度および経度の情報として取得される。端末装置10a’は、取得した位置情報と、自装置のID(=U001)とを管理サーバ40Cに送信する(ステップS901)。   The process of step S90a will be described. In step S90a, the terminal apparatus 10a 'acquires position information indicating the position of the own apparatus using GNSS (step S900). The position information is acquired as latitude and longitude information. The terminal device 10a 'transmits the acquired position information and the ID (= U001) of the own device to the management server 40C (step S901).

管理サーバ40Cは、端末装置10a’から位置情報およびIDを受信すると、受信した位置情報およびIDを、他の端末装置10b’および10c’にそれぞれ送信する(ステップS902、ステップS904)。また、詳細は後述するが、管理サーバ40Cは、各端末装置10a’、10b’および10c’の属性情報を、各端末装置10a’、10b’および10c’のIDに関連付けて記憶することができる。この場合、管理サーバ40Cは、この属性情報を、端末装置10a’の位置情報およびIDと共に他の端末装置10b’および10c’に送信することができる。   When the management server 40C receives the position information and ID from the terminal device 10a ', the management server 40C transmits the received position information and ID to the other terminal devices 10b' and 10c ', respectively (steps S902 and S904). Although details will be described later, the management server 40C can store the attribute information of the terminal devices 10a ′, 10b ′, and 10c ′ in association with the IDs of the terminal devices 10a ′, 10b ′, and 10c ′. . In this case, the management server 40C can transmit this attribute information to the other terminal devices 10b 'and 10c' together with the position information and ID of the terminal device 10a '.

端末装置10b’は、管理サーバ40Cから初回に端末装置10a’の位置情報およびIDを受信した場合、端末装置10a’を示す位置マーカを生成し、生成した位置マーカを、画面13bの端末装置10a’の位置情報に対応した位置に表示させる(ステップS903)。また、端末装置10b’は、端末装置10a’を示す情報(例えばID)を含むラベルを、画面13bの当該位置マーカに応じた位置に表示させる。管理サーバ40Cから、位置情報およびIDと共に端末装置10a’の属性情報が送信されている場合、端末装置10b’は、この属性情報に含まれる情報を、ラベルに含めて表示させることができる。   When the terminal device 10b ′ receives the position information and ID of the terminal device 10a ′ for the first time from the management server 40C, the terminal device 10b ′ generates a position marker indicating the terminal device 10a ′, and the generated position marker is displayed on the terminal device 10a on the screen 13b. It is displayed at the position corresponding to the position information of '(step S903). In addition, the terminal device 10b 'displays a label including information (for example, ID) indicating the terminal device 10a' at a position corresponding to the position marker on the screen 13b. When the attribute information of the terminal device 10a 'is transmitted from the management server 40C together with the position information and the ID, the terminal device 10b' can display the information included in the attribute information in a label.

なお、端末装置10b’は、管理サーバ40Cから初回の受信より後に端末装置10a’の位置情報およびIDを受信した場合、画面13bに既に表示されている端末装置10a’の位置を示す位置マーカの表示位置と、当該端末装置10a’を示す情報を含むラベルの表示位置とを、受信した位置情報に従い更新する。また、端末装置10b’は、端末装置10a’を示す情報の表示位置も、当該端末装置10a’の位置マーカの表示位置に従い更新する。   When the terminal device 10b ′ receives the position information and ID of the terminal device 10a ′ after the initial reception from the management server 40C, the terminal device 10b ′ uses a position marker indicating the position of the terminal device 10a ′ already displayed on the screen 13b. The display position and the display position of the label including information indicating the terminal device 10a ′ are updated according to the received position information. The terminal device 10b 'also updates the display position of the information indicating the terminal device 10a' according to the display position of the position marker of the terminal device 10a '.

端末装置10c’も、端末装置10b’と同等の処理を実行する。すなわち、端末装置10c’は、管理サーバ40Cから初回に端末装置10a’の位置情報およびIDを受信した場合、端末装置10a’に対応する位置マーカおよびラベルを生成し、画面13cの端末装置10a’の位置情報に対応した位置に表示させる(ステップS905)。端末装置10b’は、管理サーバ40Cから初回の受信より後に端末装置10a’の位置情報およびIDを受信した場合も同様に、画面13cに既に表示されている端末装置10a’に対応する位置マーカおよびラベルの表示位置を、受信した位置情報に従い更新する。   The terminal device 10c ′ also performs the same process as the terminal device 10b ′. That is, when the terminal device 10c ′ receives the position information and ID of the terminal device 10a ′ for the first time from the management server 40C, the terminal device 10c ′ generates a position marker and a label corresponding to the terminal device 10a ′, and the terminal device 10a ′ on the screen 13c. Is displayed at a position corresponding to the position information (step S905). Similarly, when the terminal device 10b ′ receives the position information and ID of the terminal device 10a ′ after the initial reception from the management server 40C, the terminal device 10b ′ also includes a position marker corresponding to the terminal device 10a ′ already displayed on the screen 13c, and The display position of the label is updated according to the received position information.

管理サーバ40Cは、さらに、ステップS901で端末装置10a’から受信した端末装置10a’の位置情報およびIDを、司令者端末30Cに送信する(ステップS906)。司令者端末30Cは、管理サーバ40Cから初回に受信した端末装置10a’の位置情報およびIDに基づき、画面75に表示される地図画像上の当該位置情報に対応する位置に、端末装置10a’を示すマーカを表示させる(ステップS907)。   The management server 40C further transmits the position information and ID of the terminal device 10a 'received from the terminal device 10a' in step S901 to the commander terminal 30C (step S906). The commander terminal 30C sets the terminal device 10a ′ at a position corresponding to the position information on the map image displayed on the screen 75 based on the position information and ID of the terminal device 10a ′ received for the first time from the management server 40C. The marker to be displayed is displayed (step S907).

また、司令者端末30Cは、管理サーバ40Cから初回の受信より後に端末装置10a’の位置情報およびIDを受信した場合、画面75に既に表示されている端末装置10a’の位置を示すマーカの表示位置を、受信した位置情報に従い更新する。   When the commander terminal 30C receives the position information and ID of the terminal device 10a ′ after the first reception from the management server 40C, the commander terminal 30C displays a marker indicating the position of the terminal device 10a ′ already displayed on the screen 75. The position is updated according to the received position information.

ステップS90bおよびステップS90cは、それぞれ端末装置10b’および端末装置10c’による位置情報の取得に応じて、上述したステップS90aと同様の処理が実行される。すなわち、ステップS90bにおいて、端末装置10b’は、GNSSを利用して自装置の位置を示す位置情報を取得し(ステップS910)、取得した位置情報を、自装置のID(=U002)と共に管理サーバ40Cに送信する(ステップS911)。管理サーバ40Cは、端末装置10b’から受信した位置情報およびIDを、端末装置10a’および10c’に送信する(ステップS912、ステップS914)。   In step S90b and step S90c, processing similar to that in step S90a described above is executed in accordance with the acquisition of position information by the terminal device 10b 'and the terminal device 10c', respectively. That is, in step S90b, the terminal device 10b ′ uses GNSS to acquire position information indicating the position of the own apparatus (step S910), and the acquired position information is managed together with the ID (= U002) of the own apparatus. It transmits to 40C (step S911). The management server 40C transmits the position information and ID received from the terminal device 10b 'to the terminal devices 10a' and 10c '(steps S912 and S914).

なお、端末装置10b’は、ステップS910で取得した自装置の位置を示す位置情報と、他の端末装置の位置を示す位置情報、例えばステップS902で管理サーバ40Cから受信した端末装置10a’の位置を示す位置情報とに基づき、自装置と他の端末装置との間の距離を算出することができる。端末装置10b’は、算出した距離を、当該他の端末装置に対応するラベルに表示させることができる。   Note that the terminal device 10b ′ includes the position information indicating the position of the own device acquired in step S910 and the position information indicating the position of another terminal device, for example, the position of the terminal device 10a ′ received from the management server 40C in step S902. The distance between the own device and another terminal device can be calculated based on the position information indicating The terminal device 10b 'can display the calculated distance on a label corresponding to the other terminal device.

端末装置10a’および10c’は、それぞれ、管理サーバ40Cから初回の受信にて取得した端末装置10b’の位置情報およびIDに基づき、端末装置10b’を示す位置マーカを生成する。端末装置10a’および10c’は、生成した位置マーカを、それぞれ画面13aおよび13cの端末装置10a’の位置情報に対応した位置に表示させる(ステップS913、ステップS915)。また、端末装置10a’および10c’は、端末装置10b’を示す情報を含むラベルを、それぞれ、画面13aおよび13cの当該位置マーカに応じた位置に表示させる。   Each of the terminal devices 10a 'and 10c' generates a position marker indicating the terminal device 10b 'based on the position information and ID of the terminal device 10b' acquired at the first reception from the management server 40C. The terminal devices 10a 'and 10c' display the generated position markers at positions corresponding to the position information of the terminal device 10a 'on the screens 13a and 13c, respectively (steps S913 and S915). In addition, the terminal devices 10a 'and 10c' display labels including information indicating the terminal device 10b 'at positions corresponding to the position markers on the screens 13a and 13c, respectively.

なお、端末装置10a’および10c’は、管理サーバ40Cから初回の受信より後に端末装置10b’の位置情報およびIDを受信した場合、それぞれ、画面13aおよび13cに既に表示されている端末装置10b’の位置を示す位置マーカの表示位置と、当該端末装置10b’を示す情報を含むラベルの表示位置とを、受信した位置情報に従い更新する。   When the terminal devices 10a ′ and 10c ′ receive the position information and ID of the terminal device 10b ′ after the initial reception from the management server 40C, the terminal devices 10b ′ already displayed on the screens 13a and 13c, respectively. The display position of the position marker indicating the position of the label and the display position of the label including information indicating the terminal device 10b ′ are updated according to the received position information.

管理サーバ40Cは、さらに、ステップS911で端末装置10b’から受信した端末装置10b’の位置情報およびIDを司令者端末30Cに送信する(ステップS916)。司令者端末30Cは、管理サーバ40Cから受信した端末装置10b’の位置情報およびIDに基づき、画面75に表示される地図画像情報に対して端末装置10b’を示すマーカの表示または更新を行う(ステップS917)。   The management server 40C further transmits the position information and ID of the terminal device 10b 'received from the terminal device 10b' in step S911 to the commander terminal 30C (step S916). The commander terminal 30C displays or updates the marker indicating the terminal device 10b ′ on the map image information displayed on the screen 75 based on the position information and ID of the terminal device 10b ′ received from the management server 40C ( Step S917).

ステップS90cにおける処理も、同様にして、ステップS920で端末装置10c’により取得された自装置の位置を示す位置情報が、端末装置10c’のIDと共に管理サーバ40Cを介して(ステップS921)端末装置10a’および10b’に送信される(ステップS922、ステップS924)。端末装置10a’および10b’は、管理サーバ40Cから受信した端末装置10c’の位置情報およびIDに基づき、管理サーバ40Cからの初回の受信であれば、端末装置10c’の位置を示す位置マーカを生成して画面13aおよび13bに表示させ、初回の受信より後の受信であれば、画面13aおよび13bに既に表示されている端末装置10c’の位置を示す位置マーカの表示を更新する(ステップS923、ステップS925)。   Similarly, in the process in step S90c, the position information indicating the position of the own apparatus acquired by the terminal apparatus 10c ′ in step S920 is transmitted via the management server 40C together with the ID of the terminal apparatus 10c ′ (step S921). 10a 'and 10b' are transmitted (step S922, step S924). Based on the positional information and ID of the terminal device 10c ′ received from the management server 40C, the terminal devices 10a ′ and 10b ′ provide a position marker indicating the position of the terminal device 10c ′ if it is the first reception from the management server 40C. If it is generated and displayed on the screens 13a and 13b and received after the initial reception, the display of the position marker indicating the position of the terminal device 10c ′ already displayed on the screens 13a and 13b is updated (step S923). Step S925).

また、管理サーバ40Cは、端末装置10c’から受信した位置情報およびIDを、司令者端末30Cにも送信する(ステップS926)。司令者端末30Cは、管理サーバ40Cから送信された情報に応じて、画面75に表示される地図画像上の、端末装置10c’に対応するマーカの位置を更新する(ステップS927)。   Further, the management server 40C transmits the position information and ID received from the terminal device 10c 'to the commander terminal 30C (step S926). The commander terminal 30C updates the position of the marker corresponding to the terminal device 10c 'on the map image displayed on the screen 75 in accordance with the information transmitted from the management server 40C (step S927).

なお、上述では、説明のため、ステップS90a、ステップS90b、ステップS90cの順に処理が実行されるように示されているが、これはこの例に限定されない。すなわち、ステップS90a、ステップS90bおよびステップS90cの処理は、端末装置10a’、10b’および10c’において位置情報が更新される毎に実行される。したがって、ステップS90a、ステップS90bおよびステップS90cの処理の順序は、GNSSによる衛星60からの位置情報の取得状況や、各端末装置10a’、10b’および10c’と管理サーバ40Cとの間の通信環境などに応じて、入れ替わる。また、ステップS90a、ステップS90bおよびステップS90cの処理は、それぞれの処理の終了を待たずに、並列的に実行することも可能である。   In the above description, for the sake of explanation, the processing is shown to be executed in the order of step S90a, step S90b, and step S90c, but this is not limited to this example. That is, the processes of step S90a, step S90b, and step S90c are executed every time position information is updated in the terminal devices 10a ', 10b', and 10c '. Therefore, the processing order of steps S90a, S90b, and S90c depends on the acquisition status of the position information from the satellite 60 by the GNSS and the communication environment between the terminal devices 10a ′, 10b ′, and 10c ′ and the management server 40C. It is changed according to the situation. Further, the processes in step S90a, step S90b, and step S90c can be executed in parallel without waiting for the end of each process.

上述したような処理により、端末装置10a’、10b’および10c’は、それぞれ、他の端末装置の位置を示す位置情報を、他の端末装置の位置の変化に応じて取得することができる。また、これにより、端末装置10a’、10b’および10c’は、それぞれ、画面13a、13bおよび13cに表示される、他の端末装置の位置を示す位置マーカの表示位置を、端末装置10a’、10b’および10c’の移動に応じて更新することができる。   Through the processing described above, the terminal devices 10a ', 10b', and 10c 'can acquire position information indicating the positions of the other terminal devices in accordance with changes in the positions of the other terminal devices. Thereby, the terminal devices 10a ′, 10b ′, and 10c ′ display the display positions of the position markers indicating the positions of the other terminal devices displayed on the screens 13a, 13b, and 13c, respectively. It can be updated according to the movement of 10b ′ and 10c ′.

図42は、第4の実施形態に係る、端末装置10a’、10b’および10c’の画面13a、13bおよび13cの例を、より具体的に示す。なお、図42では、画面13a、13bおよび13cを、画面13aで代表させて示している。図42(b)は、画面13aを表示する端末装置10a’を装着したユーザA’の状況の例を示し、図42(a)は、図42(b)の状況における画面13aの表示の例を示す。   FIG. 42 shows more specifically examples of the screens 13a, 13b, and 13c of the terminal devices 10a ′, 10b ′, and 10c ′ according to the fourth embodiment. In FIG. 42, the screens 13a, 13b, and 13c are represented by the screen 13a. FIG. 42 (b) shows an example of the situation of the user A ′ wearing the terminal device 10a ′ for displaying the screen 13a, and FIG. 42 (a) shows an example of the display of the screen 13a in the situation of FIG. 42 (b). Indicates.

図42(b)において、右斜上方向が北の方角を指すものとする。また、ユーザA’に対して北の方角に例えば建造物であるオブジェクト14が存在している。ユーザA’から見てオブジェクト14の陰に、端末装置10b’を装着したユーザB’が存在し、ユーザB’に対してさらに遠方のやや西側に、端末装置10c’を装着したユーザC’が存在している。各端末装置10a’、10b’および10c’は、図41のステップS900およびステップS901、ステップS910およびステップS911、ならびに、ステップS920およびステップS921の処理に従い、GNSSを利用して自装置の位置を検出し、検出された位置を示す位置情報を、自装置のIDと共に管理サーバ40Cに送信する。   In FIG. 42B, it is assumed that the upper right direction indicates the north direction. Further, an object 14 that is, for example, a building exists in the north direction with respect to the user A ′. The user B ′ wearing the terminal device 10b ′ exists behind the object 14 as viewed from the user A ′, and the user C ′ wearing the terminal device 10c ′ is located slightly further to the west side than the user B ′. Existing. Each terminal device 10a ′, 10b ′ and 10c ′ detects the position of its own device using GNSS in accordance with the processing of step S900 and step S901, step S910 and step S911, and step S920 and step S921 of FIG. Then, the position information indicating the detected position is transmitted to the management server 40C together with the ID of the own apparatus.

第4の実施形態では、図42(b)の状況において、端末装置10a’による画面13aには、実像としてオブジェクト14の像が透過して表示される。また、他の端末装置10b’および10c’について、各位置を示す位置マーカ1301aおよび1301bと、属性情報を含むラベル1302aおよび1302bとが、実像に重畳されて、それぞれ表示される。   In the fourth embodiment, in the situation of FIG. 42B, the image of the object 14 is transmitted and displayed as a real image on the screen 13a by the terminal device 10a '. For the other terminal devices 10b 'and 10c', position markers 1301a and 1301b indicating the respective positions and labels 1302a and 1302b including attribute information are superimposed on the real image and displayed.

位置マーカ1301aおよび1301bは、画面13aの、端末装置10a’の位置を基準とした、各端末装置10b’および10c’の方向に対応する位置に、それぞれ表示される。また、位置マーカ1301aおよび1301bは、端末装置10a’と、端末装置10b’および10c’との間の距離に応じた大きさで表示される。図42(a)および図42(b)の例では、ユーザA’に対してユーザB’がユーザC’よりも近くに存在するため、ユーザB’に対応する位置マーカ1301aは、ユーザC’に対応する位置マーカ1301bよりも大きく表示されている。   The position markers 1301a and 1301b are respectively displayed on the screen 13a at positions corresponding to the directions of the terminal devices 10b 'and 10c' with reference to the position of the terminal device 10a '. The position markers 1301a and 1301b are displayed in a size corresponding to the distance between the terminal device 10a 'and the terminal devices 10b' and 10c '. In the example of FIGS. 42A and 42B, since the user B ′ is closer to the user A ′ than the user C ′, the position marker 1301a corresponding to the user B ′ is the user C ′. Is displayed larger than the position marker 1301b corresponding to.

各ラベル1302aおよび1302bは、画面13aにおいて、それぞれ対応するユーザB’およびC’の位置マーカ1301aおよび1301bに応じた位置に表示される。このとき、各ラベル1302aおよび1302bは、各位置マーカ1301aおよび1301bに対して、ユーザA’(端末装置10a’)と、ユーザB’(端末装置10b’)およびC’(端末装置10c’)との間の距離に応じた高さの位置に表示される。この例では、ユーザB’に対応するラベル1301aは、ユーザC’に対応するラベル1302bよりも低い位置に表示されている。   The labels 1302a and 1302b are displayed on the screen 13a at positions corresponding to the position markers 1301a and 1301b of the corresponding users B 'and C', respectively. At this time, the labels 1302a and 1302b correspond to the user A '(terminal device 10a'), the user B '(terminal device 10b') and C '(terminal device 10c') with respect to the respective position markers 1301a and 1301b. It is displayed at a height position corresponding to the distance between In this example, the label 1301a corresponding to the user B 'is displayed at a position lower than the label 1302b corresponding to the user C'.

画面13aにおいて、下部に、端末装置10a’が向いている方位を示す方位表示1300が表示される。端末装置10a’が向いている方向が変更されると、方位表示1300の表示も、端末装置10a’の向きに応じて変更される。図42(a)の例では、方位表示1300は、画面13aの横方向の中心部に0°(N)が表示され、端末装置10a’が北(N)を向いていることを示している。   In the lower part of the screen 13a, an azimuth display 1300 indicating the azimuth in which the terminal device 10a 'is facing is displayed. When the direction in which the terminal device 10a 'is facing is changed, the display of the orientation display 1300 is also changed according to the orientation of the terminal device 10a'. In the example of FIG. 42A, the azimuth display 1300 indicates that 0 ° (N) is displayed at the center in the horizontal direction of the screen 13a, and the terminal device 10a ′ faces north (N). .

方位表示1300は、画面13aの画角に応じて適切な範囲の情報が表示される。図42(a)の例では、画面13aの画角が46°(画面13aの中央に対して左右に23°ずつ)とされ、方位表示1300も、46°の範囲で表示されている。これに限らず、画面13aの画角に対して広い画角で方位表示1300を表示させることもできる。この場合、より広い範囲にわたってユーザ(端末装置)の存在を確認可能となる一方で、位置マーカ1301aおよび1301bは、画面13aを透過して表示される実像における各端末装置10b’および10c’の方向と異なる方向に表示されることになる。   The azimuth display 1300 displays information in an appropriate range according to the angle of view of the screen 13a. In the example of FIG. 42A, the angle of view of the screen 13a is 46 ° (23 ° left and right with respect to the center of the screen 13a), and the azimuth display 1300 is also displayed in the range of 46 °. The azimuth display 1300 can be displayed with a wider angle of view than the angle of view of the screen 13a. In this case, the presence of the user (terminal device) can be confirmed over a wider range, while the position markers 1301a and 1301b are directions of the terminal devices 10b ′ and 10c ′ in the real image displayed through the screen 13a. Will be displayed in a different direction.

このように、画面13aに表示可能な情報は少ないが、位置マーカの表示を方位に一致させるように表示させるか、位置マーカの表示は方位に一致しないがより多い情報を画面13aに表示させるかは、適宜に選択させるようにできる。   In this way, there is little information that can be displayed on the screen 13a, but whether the display of the position marker is displayed so as to match the orientation, or whether the display of the position marker does not match the orientation but more information is displayed on the screen 13a. Can be selected as appropriate.

また、例えば端末装置10a’の画面13aにおいて、他の端末装置10b’および10c’の位置マーカ1301aおよび1301bの表示は、図41を用いて説明したように、これら端末装置10b’および10c’の位置に応じて更新される。例えば、ユーザA’、B’およびC’のうち少なくとも一人が歩行などにより移動する場合について考える。この場合、ユーザA’と、ユーザB’およびC’との相対的な位置関係が変化し、この位置関係の変化に応じて、画面13aにおける、ユーザB’およびC’に対応する位置マーカ1301aおよび1301bの表示が動的に変更される。   Further, for example, on the screen 13a of the terminal device 10a ′, the display of the position markers 1301a and 1301b of the other terminal devices 10b ′ and 10c ′ is the same as that of the terminal devices 10b ′ and 10c ′ as described with reference to FIG. Updated according to position. For example, consider a case where at least one of the users A ′, B ′, and C ′ moves by walking or the like. In this case, the relative positional relationship between the user A ′ and the users B ′ and C ′ changes, and the position marker 1301a corresponding to the users B ′ and C ′ on the screen 13a according to the change in the positional relationship. And 1301b are dynamically changed.

さらに、画面13aにおいて、ユーザB’およびC’の情報を含むラベル1302aおよび1302bが、それぞれ対応する位置マーカ1301aおよび1301bに対応する位置に表示される。これらラベル1302aおよび1302bは、位置マーカ1301aおよび1301bの位置が変更された場合、それに追従して表示位置が変更される。   Further, on the screen 13a, labels 1302a and 1302b including information on the users B 'and C' are displayed at positions corresponding to the corresponding position markers 1301a and 1301b, respectively. When the positions of the position markers 1301a and 1301b are changed, the display positions of the labels 1302a and 1302b are changed following the change.

このように、第4の実施形態に係る情報共有システムでは、ユーザA’の端末装置10a’の画面13aに、他のユーザB’およびC’の位置を示す位置マーカ1301aおよび1301bを、実像に重畳させて表示させる。したがって、例えば、ユーザB’およびC’が、ユーザA’から見てオブジェクト14の背後に存在する場合でも、ユーザA’は、ユーザB’およびC’について、存在および凡その位置を知ることができる。   Thus, in the information sharing system according to the fourth embodiment, the position markers 1301a and 1301b indicating the positions of the other users B ′ and C ′ are real images on the screen 13a of the terminal device 10a ′ of the user A ′. Overlay and display. Therefore, for example, even when the users B ′ and C ′ exist behind the object 14 when viewed from the user A ′, the user A ′ knows the existence and approximate position of the users B ′ and C ′. it can.

例えば、画像認識が必要なシステムでは、眼鏡型デバイスを装着したユーザが目視できない対象に対しては、位置マーカを表示できない。これに対して、第4の実施形態に係る情報共有システムでは、他の端末装置の位置を示す位置マーカを、GNSSを用いて検出した各端末装置の位置情報に基づき表示している。そのため、例えば図42(b)に示されるように、建造物などのオブジェクト14が遮蔽物としてユーザA’とユーザB’およびC’との間に存在している場合であっても、ユーザA’が装着する端末装置10a’の画面13aには、ユーザB’およびC’の位置を示す位置マーカ1301aおよび1301bと、これらに対応するラベル1302aおよび1302bが表示される。したがって、ユーザA’は、遮蔽物に隠れて目視できないユーザB’およびC’が、ユーザA’から見てどの方向に、どれだけ離れた位置に存在するかを把握できる。   For example, in a system that requires image recognition, a position marker cannot be displayed for an object that a user wearing a spectacle-type device cannot see. In contrast, in the information sharing system according to the fourth embodiment, a position marker indicating the position of another terminal device is displayed based on the position information of each terminal device detected using GNSS. Therefore, for example, as shown in FIG. 42B, even if the object 14 such as a building exists as a shield between the user A ′ and the users B ′ and C ′, the user A The position markers 1301a and 1301b indicating the positions of the users B 'and C' and labels 1302a and 1302b corresponding to the positions are displayed on the screen 13a of the terminal device 10a to be worn by '. Therefore, the user A ′ can grasp how far and in what direction the users B ′ and C ′, who are hidden behind the shielding and cannot see, are seen from the user A ′.

また、端末装置10a’は、ユーザB’およびC’にそれぞれ対応するマーカ1301aおよび1301bを、ユーザB’およびC’との間の距離に応じた大きさで画面13aに表示させている。そのため、ユーザA’は、ユーザB’およびC’のうち何方のユーザがより近くに存在するかを直感的に把握できる。   Further, the terminal device 10a 'displays the markers 1301a and 1301b corresponding to the users B' and C ', respectively, on the screen 13a with a size corresponding to the distance between the users B' and C '. Therefore, the user A ′ can intuitively grasp which of the users B ′ and C ′ is closer.

さらに、第4の実施形態に係る例えば端末装置10a’は、ディスプレイを透過状態で用い、他の端末装置10b’および10c’を示す位置マーカ1301aおよび1301bを、ディスプレイを透過して表示される実像に対して重畳して表示させている。そのため、端末装置10a’を装着したユーザA’は、オブジェクト14を含めた外界を容易に目視可能である。   Further, for example, the terminal device 10a ′ according to the fourth embodiment uses a display in a transmissive state, and displays a real image in which position markers 1301a and 1301b indicating the other terminal devices 10b ′ and 10c ′ are transmitted through the display. Are superimposed and displayed. Therefore, the user A ′ wearing the terminal device 10 a ′ can easily see the outside world including the object 14.

(第4の実施形態に係る各表示処理の詳細)
次に、第4の実施形態に係る各表示処理について、より詳細に説明する。図43は、上述した図41のシーケンス図のステップS90a、ステップS90bおよびステップS90cにおける、第4の実施形態に係る各端末装置10a’、10b’および10c’による位置マーカの表示処理をより具体的に示す一例のフローチャートである。ここでは、各端末装置10a’、10b’および10c’を、端末装置10a’で代表させて説明を行う。なお、各端末装置10a’〜10c’は、図41のステップS50〜ステップS52、ステップS60〜ステップS62、および、ステップS70〜ステップS72の処理により、既に管理サーバ40Cとの間のセッションを確立し、管理サーバ40CからそれぞれIDを取得しているものとする。
(Details of each display process according to the fourth embodiment)
Next, each display process according to the fourth embodiment will be described in more detail. FIG. 43 shows more specific processing of displaying position markers by the terminal devices 10a ′, 10b ′, and 10c ′ according to the fourth embodiment in step S90a, step S90b, and step S90c of the sequence diagram of FIG. 41 described above. It is a flowchart of an example shown in. Here, each terminal device 10a ′, 10b ′, and 10c ′ will be described by being represented by the terminal device 10a ′. Each of the terminal devices 10a ′ to 10c ′ has already established a session with the management server 40C through the processes of Step S50 to Step S52, Step S60 to Step S62, and Step S70 to Step S72 of FIG. Assume that IDs are acquired from the management server 40C.

ステップS200で、端末装置10a’は、位置情報取得部202により、GNSSを利用して、端末装置10a’自装置の位置を示す位置情報を取得する(図41のステップS900)。位置情報は、緯度および経度により取得される。端末装置10a’は、取得した位置情報と、自装置のIDとを管理サーバ40Cに送信する。次のステップS201で、端末装置10a’は、受信部200により、管理サーバ40Cから、他の端末装置(端末装置10b’および10c’)の各位置情報およびIDを取得する。   In step S200, the terminal apparatus 10a 'uses the GNSS to acquire position information indicating the position of the terminal apparatus 10a' itself using the position information acquisition unit 202 (step S900 in FIG. 41). The position information is acquired by latitude and longitude. The terminal device 10a 'transmits the acquired position information and the ID of the own device to the management server 40C. In the next step S201, the terminal device 10a 'uses the receiving unit 200 to acquire the position information and ID of other terminal devices (terminal devices 10b' and 10c ') from the management server 40C.

次のステップS202で、端末装置10a’は、表示情報生成部204’により、ステップS200で取得した自装置の位置を示す位置情報と、ステップS201で取得した他の端末装置10b’および10c’の各位置情報とに基づき、自装置に対する他の端末装置10b’および10c’の方位および距離を算出する。   In the next step S202, the terminal device 10a ′ uses the display information generation unit 204 ′ to obtain the position information indicating the position of the own device acquired in step S200 and the other terminal devices 10b ′ and 10c ′ acquired in step S201. Based on each position information, the azimuth | direction and distance of other terminal device 10b 'and 10c' with respect to an own apparatus are calculated.

一例として、他の端末装置10b’および10c’のうち位置マーカの表示を行う対象とする端末装置(例えば端末装置10b’)の、自装置に対する方位および距離は、自装置の位置を座標(x1,y1)とし、端末装置10b’の位置を座標(x2,y2)とした場合、自装置すなわち端末装置10a’と端末装置10b’との間の距離dは、下記の式(1)により算出できる。なお、式(1)において、定数rは、地球半径であって、r≒6378.137kmである。 As an example, the azimuth | direction and distance with respect to an own device of the terminal device (for example, terminal device 10b ') made into the object which displays a position marker among other terminal device 10b' and 10c 'coordinate the position of an own device (x 1 , y 1 ) and the position of the terminal device 10 b ′ is the coordinates (x 2 , y 2 ), the distance d between the own device, that is, the terminal device 10 a ′ and the terminal device 10 b ′ is expressed by the following formula ( It can be calculated by 1). In equation (1), the constant r is the earth radius and r≈6378.137 km.

また、端末装置10a’から見た対象とする端末装置の方位θは、下記の式(2)により算出できる。なお、式(2)において、Δx=x2−x1である。 Further, the orientation θ of the target terminal device viewed from the terminal device 10a ′ can be calculated by the following equation (2). In Expression (2), Δx = x 2 −x 1 .

次のステップS203で、端末装置10a’は、表示情報生成部204’により、ステップS202で算出した距離dおよび方位θに基づき座標変換を行い、対象とする端末装置の位置を示す位置マーカの3次元空間上の3次元座標(x,y,z)を求める。ここで、鉛直方向の軸をy軸とし、y値を固定値(cconstとする)として、端末装置10b’のy軸方向の位置を自装置と同じ高さとする。自装置の位置を座標(0,cconst,0)とした場合の、対象とする端末装置の位置マーカの3次元座標は、下記の式(3)により、target(x,y,z)として算出できる。 In the next step S203, the terminal device 10a ′ uses the display information generation unit 204 ′ to perform coordinate conversion based on the distance d and the azimuth θ calculated in step S202, and the position marker 3 indicating the position of the target terminal device. A three-dimensional coordinate (x, y, z) in the dimensional space is obtained. Here, assuming that the vertical axis is the y-axis, the y-value is a fixed value (c const ), the position of the terminal device 10b ′ in the y-axis direction is the same height as the own device. The three-dimensional coordinates of the position marker of the target terminal device when the position of the own device is the coordinate (0, c const , 0) are expressed as target (x, y, z) by the following equation (3). It can be calculated.

次のステップS204で、端末装置10a’は、表示情報生成部204’により、対象とする端末装置の位置マーカの描画が初回の描画であるか否かを判定する。表示情報生成部204’は、初回の描画であると判定した場合(ステップS204、「Yes」)、処理をステップS205に移行させる。ステップS205で、表示情報生成部204’は、対象とする端末装置に対応する位置マーカを表示するためのマーカオブジェクトを生成し、生成したマーカオブジェクトに、ステップS203で求められたtarget(x,y,z)を、描画を行うための座標情報として与える。   In the next step S204, the terminal device 10a 'determines whether or not drawing of the position marker of the target terminal device is the first drawing by the display information generation unit 204'. If the display information generation unit 204 'determines that the drawing is the first drawing (step S204, "Yes"), the process proceeds to step S205. In step S205, the display information generation unit 204 ′ generates a marker object for displaying a position marker corresponding to the target terminal device, and sets the target (x, y) obtained in step S203 to the generated marker object. , Z) is given as coordinate information for drawing.

一方、端末装置10a’において表示情報生成部204’は、対象とする端末装置の位置マーカの描画が初回の描画ではない、すなわち、端末装置10a’の画面13aに、既に当該対象とする端末装置の位置マーカが既に表示されていると判定した場合、処理をステップS206に移行させる。ステップS206で、表示情報生成部204’は、既に表示されている、対象とする端末装置の位置マーカの位置を示す座標情報を、ステップS203で求められたtarget(x,y,z)の値に更新する。   On the other hand, in the terminal device 10a ′, the display information generation unit 204 ′ determines that the drawing of the position marker of the target terminal device is not the first drawing, that is, the target terminal device already on the screen 13a of the terminal device 10a ′. If it is determined that the position marker is already displayed, the process proceeds to step S206. In step S206, the display information generation unit 204 ′ obtains the coordinate information indicating the position of the position marker of the target terminal device already displayed, and the value of the target (x, y, z) obtained in step S203. Update to

ステップS205またはステップS206の処理が終了すると、処理がステップS207に移行される。ステップS207で、表示情報生成部204’は、対象とする端末装置の位置を示す位置マーカのマーカオブジェクトによるマーカ画像を、ステップS205またはステップS206で与えられたtarget(x,y,z)の位置に描画する。これにより、端末装置10a’の画面13aに、対象とする端末装置(この例では端末装置10b’)の位置を示す位置マーカが、画面13a内の、当該端末装置の存在する方位に対応する位置に、端末装置10a’からの距離に応じた大きさで表示される。   When the process of step S205 or step S206 ends, the process proceeds to step S207. In step S207, the display information generation unit 204 ′ displays the marker image by the marker object of the position marker indicating the position of the target terminal device as the position of the target (x, y, z) given in step S205 or step S206. To draw. Thereby, the position marker indicating the position of the target terminal device (in this example, the terminal device 10b ′) on the screen 13a of the terminal device 10a ′ corresponds to the orientation in the screen 13a where the terminal device exists. Are displayed in a size corresponding to the distance from the terminal device 10a ′.

また、ステップS207で、表示情報生成部204’は、対象とする端末装置の位置マーカのマーカオブジェクトに対応する方位に、当該対象とする端末装置に関する情報を含むラベルを表示させる。ラベルには、例えば、当該対象とする端末装置のIDや、自装置から当該対象とする端末装置までの距離dを表示させることができる。また、管理サーバ40Cから端末装置10a’に、当該対象とする端末装置のIDに関連付けて、当該対象とする端末装置の属性情報を送信することで、この属性情報をさらにラベルに表示させることができる。   In step S207, the display information generation unit 204 'displays a label including information on the target terminal device in the direction corresponding to the marker object of the position marker of the target terminal device. On the label, for example, the ID of the target terminal device and the distance d from the own device to the target terminal device can be displayed. Further, the attribute information of the target terminal device is transmitted from the management server 40C to the terminal device 10a ′ in association with the ID of the target terminal device, so that the attribute information can be further displayed on the label. it can.

ステップS207で位置マーカのマーカオブジェクトの画像が描画されると、処理がステップS200に戻され、上述したステップS200からの処理が実行される。これにより、自装置および対象とする端末装置が移動した場合であっても、対象とする端末装置の位置マーカやラベルを、画面13a内における位置を動的に変更して描画できる。端末装置10a’を装着するユーザA’は、他の端末装置10b’および10c’を装着するユーザB’およびC’が、ユーザA’に対してどの方向に、どれだけ離れているかを、略リアルタイムに確認することができる。   When the marker object image of the position marker is drawn in step S207, the process returns to step S200, and the processes from step S200 described above are executed. Thereby, even if the own device and the target terminal device move, the position marker or label of the target terminal device can be drawn by dynamically changing the position in the screen 13a. The user A ′ wearing the terminal device 10a ′ roughly indicates in what direction and how far away the users B ′ and C ′ wearing the other terminal devices 10b ′ and 10c ′ from the user A ′. You can check in real time.

(第4の実施形態に係る、頭部の動きに応じた表示制御)
次に、第4の実施形態に係る端末装置10a’を装着したユーザA’の頭部80の動きに応じた画面13aの表示制御について説明する。なお、以下では、ユーザA’が眼鏡ユニット1Cを頭部80に正しく装着し、頭部80の向きと、眼鏡ユニット1Cにおけるフロント11Bの向きとが同義であるものとする。また、以下の図44〜図46において、上述した図42(a)と対応する部分には同一の符号を付して、詳細な説明を省略する。また、ユーザA’、B’およびC’は、図42(b)に示される位置関係にあるものとする。
(Display control according to the movement of the head according to the fourth embodiment)
Next, display control of the screen 13a according to the movement of the head 80 of the user A ′ wearing the terminal device 10a ′ according to the fourth embodiment will be described. In the following, it is assumed that the user A ′ correctly wears the eyeglass unit 1C on the head 80, and the direction of the head 80 is synonymous with the direction of the front 11B in the eyeglass unit 1C. Also, in the following FIGS. 44 to 46, the same reference numerals are given to the portions corresponding to FIG. 42A described above, and detailed description thereof will be omitted. Further, it is assumed that the users A ′, B ′, and C ′ are in the positional relationship shown in FIG.

端末装置10a’は、表示情報生成部204’により、9軸センサ22の検知出力に応じた頭部運動検出部207’の出力に基づき、例えば各ユーザB’およびC’にそれぞれ対応する位置マーカ1301aおよび1301bと、これらに対応するラベル1302aおよび1302bとを画面13aに表示させるための表示情報を生成する。また、表示情報生成部204’は、9軸センサ22の検知出力に応じた頭部運動検出部207’の出力に基づき、頭部80が向いている方位を示す方位表示1300を画面13aに表示させるための表示情報を生成する。   Based on the output of the head movement detection unit 207 ′ corresponding to the detection output of the 9-axis sensor 22, the terminal device 10a ′, for example, a position marker corresponding to each of the users B ′ and C ′. Display information for displaying 1301a and 1301b and corresponding labels 1302a and 1302b on the screen 13a is generated. In addition, the display information generation unit 204 ′ displays, on the screen 13a, an orientation display 1300 that indicates the orientation in which the head 80 faces based on the output of the head movement detection unit 207 ′ according to the detection output of the 9-axis sensor 22. Display information to be generated.

先ず、図44を用いて、第4の実施形態に係る、頭部80の垂直軸周りの運動に応じた表示制御について説明する。頭部80の垂直軸周りの運動は、頭部80を左右に回転させる動作に相当する。頭部80の垂直軸周りの運動では、眼鏡ユニット1Cにおいて、ピッチ角およびロール角は変化せず、ヨー角のみが変化する。図44(a)〜図44(c)は、ピッチ角およびロール角が固定であり、ヨー角のみが変化した場合の画面13aの表示例を示している。   First, display control according to the movement of the head 80 around the vertical axis according to the fourth embodiment will be described with reference to FIG. The movement of the head 80 around the vertical axis corresponds to an operation of rotating the head 80 left and right. In the movement of the head 80 around the vertical axis, the pitch angle and the roll angle do not change and only the yaw angle changes in the eyeglass unit 1C. 44 (a) to 44 (c) show display examples of the screen 13a when the pitch angle and the roll angle are fixed and only the yaw angle changes.

端末装置10a’は、9軸センサ22に含まれるジャイロセンサの検知出力に基づき、頭部80すなわち眼鏡ユニット1Cのフロント11Bが左右方向に運動しているか否かを推定できる。また、9軸センサ22に含まれる地磁気センサの検知出力に基づき、頭部80の向いている方位を推定することができる。したがって、端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80の垂直軸周りの運動を推定することが可能である。   Based on the detection output of the gyro sensor included in the 9-axis sensor 22, the terminal device 10a 'can estimate whether the head 80, that is, the front 11B of the spectacle unit 1C is moving in the left-right direction. Further, based on the detection output of the geomagnetic sensor included in the 9-axis sensor 22, the heading direction of the head 80 can be estimated. Therefore, the terminal device 10 a ′ can estimate the movement of the head 80 around the vertical axis based on the detection outputs of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22.

図44(b)は、上述した図42(b)の状態に対応するもので、この場合、頭部80(視線方向)が北(N)を向いており、9軸センサ22のジャイロセンサの検知出力において、ヨー角=0°となっている。なお、方位表示1300は、北(N)を方位0°とし、右回りに角度が増加するものとする。   FIG. 44 (b) corresponds to the state of FIG. 42 (b) described above. In this case, the head 80 (gaze direction) faces north (N) and the gyro sensor of the 9-axis sensor 22 In the detection output, the yaw angle = 0 °. In the azimuth display 1300, north (N) is set to 0 ° in azimuth, and the angle increases clockwise.

図44(c)は、図44(b)の状態に対して、頭部80が垂直軸周りに東の方角に角度20°で向きを変えた場合の画面13aの表示の例を示す。例えばユーザA’は、頭部80を垂直軸周りに回転させて、図44(b)の状態から角度20°だけ右を見る。端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80が垂直軸周りに東の方角に向きを変えたと推定し、推定結果に従い画面13aの表示を更新する。   FIG. 44 (c) shows an example of display on the screen 13a when the head 80 is turned in the east direction around the vertical axis at an angle of 20 ° with respect to the state of FIG. 44 (b). For example, the user A ′ rotates the head 80 around the vertical axis and looks to the right by an angle of 20 ° from the state of FIG. The terminal device 10a ′ estimates that the head 80 has turned in the east direction around the vertical axis based on the detection output of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22, and displays the screen 13a according to the estimation result. Update.

図44(c)の例では、方位表示1300の中心が方位20°を示し、ユーザA’に対して略北の方角に存在するユーザB’に対応する位置マーカ1301aおよびラベル1302aは、方位表示1300の北(N)の位置に対応して、画面13aの左方向に移動して表示されている。また、画面13aにおいて、位置マーカ1301bおよびラベル1302bは、それぞれ画面13a外に移動して非表示とされる。これは、これら位置マーカ1301bおよびラベル1302bに対応するユーザC’が、ユーザA’の向いている方角には存在しないことを意味している。   In the example of FIG. 44C, the center of the azimuth display 1300 indicates the azimuth 20 °, and the position marker 1301a and the label 1302a corresponding to the user B ′ existing in the direction substantially north with respect to the user A ′ are the azimuth display 1300. Corresponding to the north (N) position of the screen 13a, the screen is moved to the left in the screen 13a. On the screen 13a, the position marker 1301b and the label 1302b are moved out of the screen 13a and are not displayed. This means that the user C 'corresponding to the position marker 1301b and the label 1302b does not exist in the direction toward the user A'.

図44(a)は、図44(b)の状態に対して、頭部80が垂直軸周りに西の方角に角度20°で向きを変えた場合の画面13aの表示の例を示す。例えばユーザA’は、頭部80を垂直軸周りに回転させて、図44(b)の状態から角度20°だけ左を見る。端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80が垂直軸周りに西の方角に向きを変えたと推定し、推定結果に従い画面13aの表示を更新する。   FIG. 44 (a) shows an example of display on the screen 13a when the head 80 changes its direction in the west direction around the vertical axis at an angle of 20 ° with respect to the state of FIG. 44 (b). For example, the user A ′ rotates the head 80 around the vertical axis and looks left by an angle of 20 ° from the state shown in FIG. The terminal device 10a ′ estimates that the head 80 has turned in the west direction around the vertical axis based on the detection output of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22, and displays the screen 13a according to the estimation result. Update.

この場合も、図44(c)の例と同様に、方位表示1300の中心が方位340°(−20°)を示し、ユーザA’に対して西の方角に存在するユーザC’に対応する位置マーカ1301bおよびラベル1302bは、画面13aの右方向に移動して表示されている。また、画面13aにおいて、位置マーカ1301aおよびラベル1302aは、それぞれ画面13a外に移動して非表示とされる。これは、これら位置マーカ1301aおよびラベル1302aに対応するユーザB’が、ユーザA’の向いている方角には存在しないことを意味している。   Also in this case, as in the example of FIG. 44C, the center of the azimuth display 1300 indicates the azimuth 340 ° (−20 °) and corresponds to the user C ′ existing in the west direction with respect to the user A ′. The position marker 1301b and the label 1302b are moved and displayed in the right direction of the screen 13a. On the screen 13a, the position marker 1301a and the label 1302a are moved out of the screen 13a and are not displayed. This means that the user B 'corresponding to the position marker 1301a and the label 1302a does not exist in the direction toward the user A'.

このように、第4の実施形態に係る端末装置10a’は、頭部運動検出部207’による頭部80の垂直軸周りの運動の検出結果に基づき、他のユーザB’およびC’に対応する位置マーカ1301aおよび1301b、ならびに、ラベル1302aおよび1302bの画面13a内での表示位置を、ユーザA’から見たユーザB’およびC’の垂直軸周りの方向にそれぞれ一致するように制御する。したがって、ユーザA’が頭部80を左右に回転させても、他のユーザB’およびC’に対応する位置マーカ1301aおよび1301bなどの方向と、フロント11Bを透過して表示される実像との位置関係が固定的となり、ユーザA’は、ユーザB’およびC’の位置を直感的に把握できる。   As described above, the terminal device 10a ′ according to the fourth embodiment corresponds to other users B ′ and C ′ based on the detection result of the movement of the head 80 around the vertical axis by the head movement detection unit 207 ′. The display positions of the position markers 1301a and 1301b and the labels 1302a and 1302b on the screen 13a are controlled so as to coincide with the directions around the vertical axes of the users B ′ and C ′ as viewed from the user A ′. Therefore, even if the user A ′ rotates the head 80 left and right, the direction of the position markers 1301a and 1301b corresponding to the other users B ′ and C ′ and the real image displayed through the front 11B are displayed. The positional relationship becomes fixed, and the user A ′ can intuitively grasp the positions of the users B ′ and C ′.

次に、図45を用いて、第4の実施形態に係る、頭部80の水平軸周りの運動に応じた表示制御について説明する。頭部80の水平軸周りの運動は、頭部80を上下に傾ける動作に相当する。頭部80の水平軸周りの運動では、眼鏡ユニット1Cにおいて、ヨー角およびロール角は変化せず、ピッチ角のみが変化する。図45(a)〜図45(c)は、ヨー角およびロール角が固定であり、ピッチ角が変化した場合の画面13aの表示例を示している。   Next, display control according to the movement of the head 80 around the horizontal axis according to the fourth embodiment will be described with reference to FIG. The movement of the head 80 around the horizontal axis corresponds to an operation of tilting the head 80 up and down. In the movement of the head 80 around the horizontal axis, in the eyeglass unit 1C, the yaw angle and roll angle do not change, but only the pitch angle changes. 45A to 45C show display examples of the screen 13a when the yaw angle and roll angle are fixed and the pitch angle changes.

端末装置10a’は、9軸センサ22に含まれるジャイロセンサの検知出力に基づき、頭部80が上下方向に運動しているか否かを推定できる。また、9軸センサ22に含まれる地磁気センサの検出結果に基づき、頭部80の向いている方向を推定することができる。したがって、端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80の水平軸周りの運動を推定することが可能である。   The terminal device 10 a ′ can estimate whether or not the head 80 is moving in the vertical direction based on the detection output of the gyro sensor included in the 9-axis sensor 22. Further, the direction in which the head 80 is facing can be estimated based on the detection result of the geomagnetic sensor included in the 9-axis sensor 22. Therefore, the terminal device 10 a ′ can estimate the movement of the head 80 around the horizontal axis based on the detection outputs of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22.

図45(b)は、上述した図42(b)の状態に対応するもので、この場合、頭部80(視線方向)が水平方向を向いており、9軸センサ22のジャイロセンサの検知出力において、ピッチ角=0°となっている。   FIG. 45 (b) corresponds to the state of FIG. 42 (b) described above. In this case, the head 80 (gaze direction) faces the horizontal direction, and the detection output of the gyro sensor of the 9-axis sensor 22 is shown. , The pitch angle = 0 °.

図45(c)は、図45(b)の状態に対して、頭部80が水平軸周りに下向きに向きを変えた場合の画面13aの表示の例を示す。端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80が水平軸周りに下向きに向きを変えたと推定し、推定結果に従い画面13aの表示を更新する。   FIG. 45 (c) shows an example of display on the screen 13a when the head 80 is turned downward around the horizontal axis with respect to the state of FIG. 45 (b). The terminal device 10a ′ estimates that the head 80 has turned downward about the horizontal axis based on the detection output of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22, and updates the display of the screen 13a according to the estimation result. To do.

図45(c)の例では、図45(b)の画面13aにおいて上側に表示される、各ユーザB’およびC’に対応する各ラベル1302aおよび1302bがそれぞれ画面13a外に移動して非表示とされる。また、各ユーザB’およびC’に対応する各位置マーカ1301aおよび1301bは、画面13aの上側に移動し、見上げる位置に表示される。また、図45(b)の例と比較して、方位表示1300の表示領域が広くなっている。   In the example of FIG. 45C, the labels 1302a and 1302b corresponding to the users B ′ and C ′ displayed on the upper side of the screen 13a of FIG. 45B are moved out of the screen 13a and are not displayed. It is said. Further, the position markers 1301a and 1301b corresponding to the users B 'and C' move to the upper side of the screen 13a and are displayed at the positions to be looked up. In addition, the display area of the azimuth display 1300 is wider than that in the example of FIG.

図45(a)は、図45(b)の状態に対して、頭部80が水平軸周りに上向きに向きを変えた場合の画面13aの表示例を示す。この場合、各ユーザB’およびC’に対応する各位置マーカ1301aおよび1301b、ならびに、各ラベル1302aおよび1302bが、画面13aの下側に移動して表示されている。また、方位表示1300は、非表示とされている。   FIG. 45A shows a display example of the screen 13a when the head 80 is turned upward around the horizontal axis with respect to the state of FIG. 45B. In this case, the position markers 1301a and 1301b and the labels 1302a and 1302b corresponding to the users B 'and C' are moved and displayed on the lower side of the screen 13a. The orientation display 1300 is not displayed.

このように、第4の実施形態に係る端末装置10a’は、頭部運動検出部207’による頭部80の水平軸周りの運動の検出結果に基づき、他のユーザB’およびC’に対応する位置マーカ1301aおよび1301b、ならびに、ラベル1302aおよび1302bの画面13a内での表示位置を、ユーザA’から見たユーザB’およびC’の水平軸周りの方向にそれぞれ一致するように制御する。したがって、ユーザA’が頭部80を上下に動かしても、他のユーザB’およびC’に対応する位置マーカ1301aおよび1301bなどの方向と、フロント11Bを透過して表示される実像との位置関係が固定的となり、ユーザA’は、ユーザB’およびC’の位置を直感的に把握できる。   As described above, the terminal device 10a ′ according to the fourth embodiment corresponds to the other users B ′ and C ′ based on the detection result of the movement of the head 80 around the horizontal axis by the head movement detection unit 207 ′. The display positions of the position markers 1301a and 1301b and the labels 1302a and 1302b on the screen 13a are controlled so as to coincide with the directions around the horizontal axes of the users B ′ and C ′ viewed from the user A ′. Therefore, even if the user A ′ moves the head 80 up and down, the direction of the position markers 1301a and 1301b corresponding to the other users B ′ and C ′ and the position of the real image displayed through the front 11B The relationship becomes fixed, and the user A ′ can intuitively grasp the positions of the users B ′ and C ′.

次に、図46を用いて、第4の実施形態に係る、頭部80の前後軸周りの運動に応じた表示制御について説明する。頭部80の前後軸周りの運動は、例えば正面を向いたまま頭部80を傾ける動作に相当する。頭部80の前後軸周りの運動では、眼鏡ユニット1Cにおいて、ヨー角およびピッチ角は変化せず、ロール角のみが変化する。図46(a)〜図46(c)は、ヨー角およびピッチ角が固定であり、ロール角が変化した場合の画面13aの表示例を示している。   Next, display control according to the movement of the head 80 around the longitudinal axis according to the fourth embodiment will be described with reference to FIG. The movement of the head 80 around the front-rear axis corresponds to, for example, an operation of tilting the head 80 while facing the front. In the movement around the front-rear axis of the head 80, the yaw angle and the pitch angle do not change and only the roll angle changes in the eyeglass unit 1C. 46A to 46C show display examples of the screen 13a when the yaw angle and the pitch angle are fixed and the roll angle changes.

端末装置10a’は、9軸センサ22に含まれるジャイロセンサの検知出力に基づき、頭部80の傾きを推定できる。また、9軸センサ22に含まれる地磁気センサの検出結果に基づき、頭部80の向いている方向を推定することができる。したがって、端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80の前後軸周りの運動を推定することが可能である。   The terminal device 10 a ′ can estimate the inclination of the head 80 based on the detection output of the gyro sensor included in the 9-axis sensor 22. Further, the direction in which the head 80 is facing can be estimated based on the detection result of the geomagnetic sensor included in the 9-axis sensor 22. Therefore, the terminal device 10 a ′ can estimate the movement of the head 80 around the front-rear axis based on the detection outputs of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22.

図46(b)は、上述した図42(b)の状態に対応するもので、この場合、頭部80が直立し、9軸センサ22のジャイロセンサの検知出力において、ロール角=0°となっている。   FIG. 46B corresponds to the state of FIG. 42B described above. In this case, the head 80 stands upright, and the roll angle = 0 ° in the detection output of the gyro sensor of the 9-axis sensor 22. It has become.

図46(c)は、図46(b)の状態に対して、頭部80が左方向に傾けられた場合の画面13aの表示の例を示す。端末装置10a’は、9軸センサ22に含まれるジャイロセンサおよび地磁気センサの検知出力に基づき、頭部80が前後軸周りに左方向に向きを変えたと推定し、推定結果に従い画面13aの表示を更新する。   FIG.46 (c) shows the example of a display of the screen 13a when the head 80 is inclined leftward with respect to the state of FIG.46 (b). Based on the detection output of the gyro sensor and the geomagnetic sensor included in the 9-axis sensor 22, the terminal device 10a ′ estimates that the head 80 has turned to the left around the front-rear axis, and displays the screen 13a according to the estimation result. Update.

図46(c)の例では、ユーザB’に対応する位置マーカ1301aおよびラベル1302aと、ユーザC’に対応する位置マーカ1301bおよびラベル1302bとが、画面13a内で互いの位置関係を維持しつつ右回りに回転する。この制御により、画面13a内の位置マーカ1301aおよびラベル1302a、ならびに、位置マーカ1301bおよびラベル1302bは、実像に対して水平が保たれる。また、図46(c)の例では、方位表示1300の右端側が画面13a外にはみ出して、非表示とされている。   In the example of FIG. 46C, the position marker 1301a and the label 1302a corresponding to the user B ′ and the position marker 1301b and the label 1302b corresponding to the user C ′ are maintained in the positional relationship within the screen 13a. Rotate clockwise. By this control, the position marker 1301a and the label 1302a in the screen 13a, and the position marker 1301b and the label 1302b are kept horizontal with respect to the real image. In the example of FIG. 46C, the right end side of the orientation display 1300 protrudes outside the screen 13a and is not displayed.

図46(a)は、図46(b)の状態に対して、頭部80が右方向に傾けられた画面13aの例を示す。この場合、位置マーカ1301aおよびラベル1302a、ならびに、位置マーカ1301bおよびラベル1302bは、画面13a内で互いの位置関係を維持しつつ左回りに回転する。この制御により、画面13a内の位置マーカ1301aおよびラベル1302a、ならびに、位置マーカ1301bおよびラベル1302bは、実像に対して水平が保たれる。また、図46(a)の例では、方位表示1300の左端側が画面13a外にはみ出して、非表示とされている。   FIG. 46A shows an example of the screen 13a in which the head 80 is tilted to the right with respect to the state of FIG. In this case, the position marker 1301a and the label 1302a, and the position marker 1301b and the label 1302b rotate counterclockwise while maintaining the mutual positional relationship within the screen 13a. By this control, the position marker 1301a and the label 1302a in the screen 13a, and the position marker 1301b and the label 1302b are kept horizontal with respect to the real image. In the example of FIG. 46A, the left end side of the orientation display 1300 protrudes outside the screen 13a and is not displayed.

ヒトの眼球には、頭部80の動きを補償するように動くことで、現実世界の視対象(実像)の水平や傾きを脳が知覚しないような仕組みが備わっている。図46(a)〜図46(c)を用いて説明した制御は、この特性を利用している。   The human eyeball is equipped with a mechanism that prevents the brain from perceiving the horizontal and tilt of a real-world visual target (real image) by moving so as to compensate for the movement of the head 80. The control described with reference to FIGS. 46A to 46C uses this characteristic.

このように、第4の実施形態に係る端末装置10a’は、頭部運動検出部207’による頭部80の前後軸周りの運動の検出結果に基づき、他のユーザB’およびC’に対応する位置マーカ1301aおよび1301b、ならびに、ラベル1302aおよび1302bの画面13a内での表示位置を、互いの位置関係を維持しつつ実像に対して水平を保つように制御する。したがって、ユーザA’が頭部80を傾けても、他のユーザB’およびC’に対応する位置マーカ1301aおよび1301bなどの方向と、フロント11Bを透過して表示される実像との位置関係が固定的となり、ユーザA’は、ユーザB’およびC’の位置を直感的に把握できる。   As described above, the terminal device 10a ′ according to the fourth embodiment corresponds to the other users B ′ and C ′ based on the detection result of the movement around the front-rear axis of the head 80 by the head movement detection unit 207 ′. The display positions of the position markers 1301a and 1301b and the labels 1302a and 1302b on the screen 13a are controlled so as to be kept horizontal with respect to the real image while maintaining the mutual positional relationship. Therefore, even when the user A ′ tilts the head 80, the positional relationship between the direction of the position markers 1301a and 1301b corresponding to the other users B ′ and C ′ and the real image that is transmitted through the front 11B is displayed. The user A ′ can intuitively grasp the positions of the users B ′ and C ′.

図44〜図46を用いて説明した表示制御は、例えば、表示情報生成部204’が含むビデオメモリから画像情報を出力する領域を、頭部運動検出部207’による頭部80の運動の検出結果に基づき設定することで可能である。   The display control described with reference to FIGS. 44 to 46 includes, for example, an area in which image information is output from a video memory included in the display information generation unit 204 ′. It is possible by setting based on the result.

一例として、表示情報生成部204’が含むビデオメモリは、画面13aの画角よりも大きな画角の画像を描画可能な容量を有する。表示情報生成部204’は、管理サーバ40Cから受信した全ての端末装置の位置情報に従い、全ての端末装置に対応する各位置マーカを生成し、生成した全ての位置マーカを表示させるための画像情報をビデオメモリに書き込んで、画像情報の描画を行う。表示情報生成部204’は、頭部運動検出部207’による頭部80の運動の検出結果に基づき、ビデオメモリに描画された画像情報から、画面13aの表示領域に対応する画像情報を切り取って出力する。   As an example, the video memory included in the display information generation unit 204 ′ has a capacity capable of drawing an image having an angle of view larger than the angle of view of the screen 13 a. The display information generation unit 204 ′ generates each position marker corresponding to all the terminal devices in accordance with the position information of all the terminal devices received from the management server 40C, and image information for displaying all the generated position markers. Is written in the video memory, and image information is drawn. The display information generation unit 204 ′ cuts out image information corresponding to the display area of the screen 13a from the image information drawn in the video memory based on the detection result of the movement of the head 80 by the head movement detection unit 207 ′. Output.

次に、図47を用いて、第4の実施形態に係る、他のユーザに関する情報を含むラベルの表示制御について説明する。図47に例示される端末装置10a’の画面13aにおいて、原点を左上隅とし、横方向が右方向に座標値が増加するx軸、縦方向が下方向に座標値が増加するy軸とする。また、ここでは、ユーザA’、B’、C’およびEが、それぞれ第4の実施形態に係る端末装置を装着しているものとする。   Next, display control of a label including information related to another user according to the fourth embodiment will be described with reference to FIG. In the screen 13a of the terminal device 10a 'illustrated in FIG. 47, the origin is the upper left corner, the horizontal direction is the x axis whose coordinate value increases in the right direction, and the vertical direction is the y axis whose coordinate value increases in the downward direction. . Here, it is assumed that the users A ′, B ′, C ′, and E are wearing the terminal devices according to the fourth embodiment, respectively.

ユーザA’から見て、ユーザB’およびC’の方位の差が小さい場合、ユーザA’が装着する端末装置10a’の画面13aにおいて、ユーザB’およびC’それぞれに対応する位置マーカ1301aおよび1301bの表示位置が接近する。また、位置マーカ1301aおよび1301bの表示位置の接近に伴い、これらに対応するラベル1302aおよび1302bが、一部を重ねて表示されてしまうおそれがある。この場合、ラベル1302aおよび1302bのうち、背面に表示されるラベルの内容が当該ラベルの前面に表示されるラベルに隠されて認識が困難になってしまう場合がある。   When the difference between the orientations of the users B ′ and C ′ when viewed from the user A ′ is small, the position markers 1301a and 130 ′ corresponding to the users B ′ and C ′ respectively on the screen 13a of the terminal device 10a ′ worn by the user A ′ The display position 1301b approaches. Further, as the display positions of the position markers 1301a and 1301b approach, the labels 1302a and 1302b corresponding to these may be displayed in a partially overlapped manner. In this case, of the labels 1302a and 1302b, the contents of the label displayed on the back surface may be hidden by the label displayed on the front surface of the label, making recognition difficult.

そのため、第4の実施形態では、各ラベル1302aおよび1302bの背景を半透明(例えば透過率40%〜60%)とする。それと共に、第4の実施形態では、各ラベル1302aおよび1302bの画面13a上でのy座標を、各ラベル1302aおよび1302bに対応するユーザB’およびC’と、ユーザA’との距離に応じて変化させる。これにより、あるユーザから見て方位の差が小さい複数のユーザに対応する各ラベルの内容の確認を容易とすることが可能である。   Therefore, in the fourth embodiment, the background of each label 1302a and 1302b is translucent (for example, transmittance 40% to 60%). At the same time, in the fourth embodiment, the y-coordinates on the screen 13a of the labels 1302a and 1302b are determined according to the distance between the users B ′ and C ′ corresponding to the labels 1302a and 1302b and the user A ′. Change. Thereby, it is possible to easily confirm the contents of each label corresponding to a plurality of users having a small difference in orientation when viewed from a certain user.

さらに、ユーザA’に対して、ユーザB’と方位が近く、距離がさらに遠い、第4の実施形態に係る端末装置を装着したユーザEについて考える。例えば、ユーザA’とユーザB’との距離が50m、ユーザA’とユーザC’との距離が250m、ユーザA’とユーザEとの距離が1.2kmであるものとする。この場合、図47に例示されるように、当該ユーザEに対応する位置マーカは、ユーザB’の位置マーカ1301aの背面にあり、画面13a上では非表示となっている。一方、ユーザEに対応するラベル1302cは、画面13aにおいて、ユーザB’に対応する、背景が半透明のラベル1302aの上方に表示される。そのため、ユーザA’は、ユーザB’と近い方位、且つ、ユーザB’よりも遠方にユーザEが存在することを、直感的に把握できる。   Further, consider a user E wearing the terminal device according to the fourth embodiment, which is closer to the user A 'and closer to the user B', and is further away. For example, it is assumed that the distance between the user A ′ and the user B ′ is 50 m, the distance between the user A ′ and the user C ′ is 250 m, and the distance between the user A ′ and the user E is 1.2 km. In this case, as illustrated in FIG. 47, the position marker corresponding to the user E is on the back surface of the position marker 1301a of the user B 'and is not displayed on the screen 13a. On the other hand, the label 1302c corresponding to the user E is displayed on the screen 13a above the label 1302a corresponding to the user B 'whose background is translucent. Therefore, the user A ′ can intuitively grasp that the user E exists in a direction closer to the user B ′ and further away from the user B ′.

なお、ここでは、各ラベル1302a〜1302cの背景を半透明としているが、これはこの例に限定されない。例えば、各位置マーカ1301aおよび1301bを、さらに半透明してもよい。この場合、ユーザA’は、位置マーカ1301aを透過して、ユーザEに対応する位置マーカを確認することが可能となる。   Here, the background of each of the labels 1302a to 1302c is translucent, but this is not limited to this example. For example, the position markers 1301a and 1301b may be further translucent. In this case, the user A 'can confirm the position marker corresponding to the user E through the position marker 1301a.

図48は、第4の実施形態に係るラベルの表示処理を示す一例のフローチャートである。ここでは、図47の状態を想定して説明を行う。すなわち、それぞれ第4の実施形態に係る端末装置を装着した各ユーザA’、B’、C’およびEが、図47を用いて説明した位置関係にあるものとする。以下では、ユーザA’が装着する端末装置10a’を例にとって、ラベルの表示処理について説明する。また、以下では、便宜上、ユーザEが装着する端末装置を端末装置Eと呼び、端末装置Eに対応する位置マーカを、位置マーカEと呼ぶ。   FIG. 48 is a flowchart illustrating an example of label display processing according to the fourth embodiment. Here, description will be made assuming the state of FIG. That is, it is assumed that the users A ′, B ′, C ′, and E wearing the terminal device according to the fourth embodiment are in the positional relationship described with reference to FIG. Hereinafter, the label display process will be described by taking the terminal device 10a 'worn by the user A' as an example. Hereinafter, for convenience, a terminal device worn by the user E is referred to as a terminal device E, and a position marker corresponding to the terminal device E is referred to as a position marker E.

図48のフローチャートによる処理に先立って図41のステップS50〜ステップS72を用いて説明した処理が実行され、各ユーザA’、B’、C’およびEの端末装置10a’、10b’および10c’、ならびに、端末装置Eが管理サーバ40Cに対して初回アクセスを行い、それぞれIDを与えられる。また、端末装置10a’、10b’および10c’、ならびに、端末装置Eは、管理サーバ40Cに対する初回アクセスの際に、それぞれ装着するユーザA’、B’、C’およびEの属性情報を、管理サーバ40Cに送信する。   Prior to the processing of the flowchart of FIG. 48, the processing described using steps S50 to S72 of FIG. 41 is executed, and the terminal devices 10a ′, 10b ′, and 10c ′ of the users A ′, B ′, C ′, and E are performed. The terminal device E makes an initial access to the management server 40C and is given an ID. Further, the terminal devices 10a ′, 10b ′, and 10c ′, and the terminal device E manage the attribute information of the users A ′, B ′, C ′, and E to be attached at the first access to the management server 40C. Transmit to server 40C.

図48において、ステップS300で、端末装置10a’において、表示情報生成部204’は、管理サーバ40Cから取得した他のユーザB’、C’およびEの端末装置10a’、10b’および10c’、ならびに、端末装置Eの位置情報に基づきユーザA’と各ユーザB’、C’およびEとの間の距離を算出し、端末装置10b’および10c’、ならびに、端末装置Eの位置をそれぞれ示す位置マーカ1301aおよび1301b、ならびに、位置マーカEを生成する。表示情報生成部204’は、生成した位置マーカ1301aおよび1301b、ならびに、位置マーカEを、表示情報生成部204’が含むビデオメモリに書き込み、位置マーカ1301aおよび1301b、ならびに、位置マーカEの描画を行う。   48, in step S300, in the terminal device 10a ′, the display information generation unit 204 ′ performs the terminal devices 10a ′, 10b ′, and 10c ′ of the other users B ′, C ′, and E acquired from the management server 40C, In addition, the distance between the user A ′ and each of the users B ′, C ′ and E is calculated based on the position information of the terminal device E, and the positions of the terminal devices 10b ′ and 10c ′ and the terminal device E are respectively shown The position markers 1301a and 1301b and the position marker E are generated. The display information generation unit 204 ′ writes the generated position markers 1301a and 1301b and the position marker E to the video memory included in the display information generation unit 204 ′, and draws the position markers 1301a and 1301b and the position marker E. Do.

次のステップS301で、表示情報生成部204’は、頭部運動検出部207’から自装置(端末装置10a’)が向いている方向を取得する。この場合、自装置が向いている方向は、垂直軸周り、水平軸周り、および、前後軸周りの各方向を含む。端末装置10a’は、表示情報生成部204’により、自装置の方向と、管理サーバ40Cから取得した端末装置10b’および10c’、ならびに、端末装置Eの位置情報とに基づき、画面13a内に表示される位置マーカ数(j)をカウントする。   In the next step S301, the display information generation unit 204 'acquires a direction in which the own device (terminal device 10a') faces from the head movement detection unit 207 '. In this case, the direction in which the device is facing includes the directions around the vertical axis, the horizontal axis, and the front-rear axis. The terminal device 10a ′ is displayed on the screen 13a by the display information generation unit 204 ′ based on the direction of the own device, the terminal devices 10b ′ and 10c ′ acquired from the management server 40C, and the position information of the terminal device E. The number of position markers (j) to be displayed is counted.

すなわち、ステップS301では、自装置が向いている方向と、各位置マーカ1301aおよび1301b、ならびに、位置マーカEの位置とに基づき、各位置マーカ1301aおよび1301b、ならびに、位置マーカEのうち画面13a外に位置する位置マーカはカウントしない。図47の例では、画面13a内に位置マーカ1301aおよび1301bが表示され、さらに、位置マーカEが位置マーカ1301aに隠れた位置に存在するため、位置マーカ数(j)=3となる。また、このとき、表示情報生成部204’は、画面13a内に位置マーカ1301aおよび1301bの表示を実行する。   That is, in step S301, out of the position marker 1301a and 1301b and the position marker E out of the screen 13a based on the direction in which the device is facing, the position markers 1301a and 1301b, and the position of the position marker E. The position marker located at is not counted. In the example of FIG. 47, since the position markers 1301a and 1301b are displayed in the screen 13a, and the position marker E exists at a position hidden behind the position marker 1301a, the number of position markers (j) = 3. At this time, the display information generation unit 204 'displays the position markers 1301a and 1301b in the screen 13a.

次のステップS302で、表示情報生成部204’は、画面13aに含まれる位置マーカ1301aおよび1301b、ならびに、位置マーカEを示す情報を、自装置と、各端末装置10b’および10c’、ならびに、端末装置Eとの間の距離に基づきソートする。ここで、ソートは降順で行い、各端末装置10b’および10c’、ならびに、端末装置Eのうち、自装置との距離が近い端末装置に対応する位置マーカから順に、1から1ずつ増加する変数(i)を、位置マーカを示す情報としてそれぞれ対応付ける。   In the next step S302, the display information generation unit 204 ′ obtains information indicating the position markers 1301a and 1301b and the position marker E included in the screen 13a, the own device, the terminal devices 10b ′ and 10c ′, and Sort based on the distance to the terminal device E. Here, the sorting is performed in descending order, and each of the terminal devices 10b ′ and 10c ′, and the terminal device E, a variable that increases by 1 from 1 in order from the position marker corresponding to the terminal device that is closest to the own device. (I) is associated as information indicating a position marker.

ここでは、図47を参照し、端末装置10a’から最も近い端末装置10b’を示す位置マーカ1301aに変数(i)=1が対応付けられ、以下、位置マーカ1301bに変数(i)=2が対応付けられ、端末装置10a’に最も遠い端末装置Eに対応する位置マーカEに変数(i)=3が対応付けられる。以下では、特に記載の無い限り、位置マーカ1301aを位置マーカ(1)、位置マーカ1301bを位置マーカ(2)、位置マーカEを位置マーカ(3)とし、各位置マーカ(1)〜(3)を総称して位置マーカ(i)として説明を行う。   Here, referring to FIG. 47, variable (i) = 1 is associated with the position marker 1301a indicating the terminal device 10b ′ closest to the terminal device 10a ′, and hereinafter, the variable (i) = 2 is associated with the position marker 1301b. The variable (i) = 3 is associated with the position marker E corresponding to the terminal device E farthest from the terminal device 10a ′. In the following, unless otherwise specified, the position marker 1301a is the position marker (1), the position marker 1301b is the position marker (2), the position marker E is the position marker (3), and each of the position markers (1) to (3). Are collectively referred to as a position marker (i).

次のステップS303で、表示情報生成部204’は、画面13a内に含まれる各位置マーカ(i)の、画面13aにおける水平方向(x軸方向)の座標x(i)をそれぞれ取得する。   In the next step S303, the display information generation unit 204 'acquires the coordinate x (i) in the horizontal direction (x-axis direction) on the screen 13a of each position marker (i) included in the screen 13a.

次のステップS304で、表示情報生成部204’は、変数(i)を1に初期化する。次のステップS305で、表示情報生成部204’は、変数(i)と、位置マーカ数(j)とが等しいか否かを判定する。表示情報生成部204’は、変数(i)と位置マーカ数(j)とが等しいと判定した場合(ステップS305、「Yes」)、処理をステップS300に戻す。   In the next step S304, the display information generation unit 204 'initializes the variable (i) to 1. In the next step S305, the display information generation unit 204 'determines whether or not the variable (i) is equal to the number of position markers (j). When the display information generation unit 204 'determines that the variable (i) is equal to the number of position markers (j) (step S305, "Yes"), the process returns to step S300.

表示情報生成部204’は、ステップS305で変数(i)と位置マーカ数(j)とが異なると判定した場合(ステップS305、「No」)、処理をステップS306に移行させる。ステップS306で、表示情報生成部204’は、画面13aに含まれる位置マーカ(i)に対するラベルの垂直方向の座標y(i)を、y=cconst−(a×i)に設定する。ここで、定数aは、予め定めた1以上の値であるものとする。定数aは、例えば画面13aの垂直方向の画素数(ライン数)に応じて決めることが考えられ、例えばa=20である。また、値cconstは、位置マーカのy座標である。 If the display information generation unit 204 ′ determines that the variable (i) and the number of position markers (j) are different in step S305 (step S305, “No”), the process proceeds to step S306. In step S306, the display information generation unit 204 ′ sets y = c const − (a × i) as the vertical coordinate y (i) of the label with respect to the position marker (i) included in the screen 13a. Here, the constant a is assumed to be a predetermined value of 1 or more. The constant a may be determined according to the number of pixels (number of lines) in the vertical direction of the screen 13a, for example, a = 20. The value c const is the y coordinate of the position marker.

次のステップS307で、表示情報生成部204’は、位置マーカ(i)に対応するラベル(i)を、画面13a内の座標(x(i),y(i))に描画する。このとき、位置マーカ(i)に対応するラベル(i)が画面13a内に既に描画されている場合、表示情報生成部204’は、当該ラベル(i)の表示を、位置マーカ(i)の座標x(i)に応じて更新する。   In the next step S307, the display information generation unit 204 'draws the label (i) corresponding to the position marker (i) at the coordinates (x (i), y (i)) in the screen 13a. At this time, when the label (i) corresponding to the position marker (i) has already been drawn in the screen 13a, the display information generation unit 204 ′ displays the display of the label (i) of the position marker (i). Update according to the coordinate x (i).

なお、図47の例では、ラベル(i)すなわちラベル(1)〜(3)は、ラベル1302a、1302bおよび1302cにそれぞれ対応する。   In the example of FIG. 47, label (i), that is, labels (1) to (3) respectively correspond to labels 1302a, 1302b, and 1302c.

次のステップS308で、表示情報生成部204’は、変数(i)に1を加算して、処理をステップS305に戻す。   In the next step S308, the display information generation unit 204 'adds 1 to the variable (i), and returns the process to step S305.

図47を参照して、より具体的に説明する。一例として、画面13aの解像度が、1280画素×720ラインであるものとする。ユーザB’の位置マーカ1301aのx座標がx=400(画素)、ユーザC’の位置マーカ1301bのx座標がx=360、ユーザB’の位置マーカ1301aの背面にあるユーザEに対応する位置マーカEのx座標がx=410であるとする。   This will be described more specifically with reference to FIG. As an example, it is assumed that the resolution of the screen 13a is 1280 pixels × 720 lines. The x coordinate of the position marker 1301a of the user B ′ is x = 400 (pixels), the x coordinate of the position marker 1301b of the user C ′ is x = 360, and the position corresponding to the user E on the back of the position marker 1301a of the user B ′. Assume that the x coordinate of the marker E is x = 410.

ステップS302で、端末装置10a’と各端末装置10b’および10c’、ならびに、端末装置Eとの間の距離をキーとして、画面13a内の各位置マーカ1301aおよび1301b、ならびに、位置マーカEの情報を降順にソートする。この例では、各位置マーカ1301aおよび1301b、ならびに、位置マーカEは、位置マーカEを先頭とし、以降、位置マーカ1301b、位置マーカ1301aの順にソートされる。これら位置マーカE、位置マーカ1301b、位置マーカ1301aに、降順のソート順に従い1から1ずつ増大する変数(i)を与え、位置マーカ(1)、位置マーカ(2)、位置マーカ(3)とする。   In step S302, the position marker 1301a and 1301b in the screen 13a and the information of the position marker E using the distances between the terminal device 10a ′ and the terminal devices 10b ′ and 10c ′ and the terminal device E as keys. Sort in descending order. In this example, each of the position markers 1301a and 1301b and the position marker E is sorted in the order of the position marker 1301b and the position marker 1301a, starting with the position marker E. The position marker E, the position marker 1301b, and the position marker 1301a are given a variable (i) that increases one by one according to the descending sort order, and the position marker (1), the position marker (2), and the position marker (3) To do.

ステップS304でループ変数としての変数(i)が1に初期化され、1回毎に変数(i)が1ずつ増加されるステップS305〜ステップS308のループ処理により、各位置マーカ(i)に対応する各ラベル(i)が、座標(x(i),y(i))に描画される。より具体的には、図47を参照し、変数(i)=1で、位置マーカEに対応するラベル1302cが、画面13a内の座標(410,20)に描画される。変数(i)=2で、位置マーカ1301bに対応するラベル1302bが画面13a内の座標(360,40)に描画される。さらに、変数(i)=3で、位置マーカ1301aに対応するラベル1302aが画面13a内の座標(400,60)に描画される。   In step S304, the variable (i) as a loop variable is initialized to 1, and the variable (i) is incremented by 1 each time. The loop processing in steps S305 to S308 corresponds to each position marker (i). Each label (i) is drawn at coordinates (x (i), y (i)). More specifically, referring to FIG. 47, the label 1302c corresponding to the position marker E is drawn at the coordinates (410, 20) in the screen 13a with the variable (i) = 1. With variable (i) = 2, a label 1302b corresponding to the position marker 1301b is drawn at coordinates (360, 40) in the screen 13a. Further, with variable (i) = 3, a label 1302a corresponding to the position marker 1301a is drawn at coordinates (400, 60) in the screen 13a.

このような表示制御により、自装置と近い距離にある他端末装置の位置を示す位置マーカに対するラベルが、画面13aの下部に表示され、且つ、ラベル同士の重なりでは前面に表示される。この結果、自装置(端末装置10a’)のユーザA’は、複数の他端末装置のうち、自装置に近い位置にある端末装置に対応するラベルを、直感的に確認することができる。   By such display control, a label for the position marker indicating the position of the other terminal device at a distance close to the own device is displayed at the lower part of the screen 13a, and is displayed on the front surface when the labels overlap. As a result, the user A 'of the own device (terminal device 10a') can intuitively check the label corresponding to the terminal device located near the own device among the plurality of other terminal devices.

次に、第4の実施形態に係る例えば端末装置10a’を装着したユーザA’の移動などの動作に伴う、端末装置10a’における画面13aの表示制御について説明する。ヒトは、一般的に、常に頭部や眼球を運動させて周囲の情報を視覚探索しながら歩行などの行動をとる。したがって、例えば端末装置10a’の画面13aを透過性とし、実像に対して位置マーカなどの情報を重畳させて画面13aに表示することにより外界への視認性を確保した場合であっても、当該画面13aに重畳される情報が表示されていない場合と比較すると、周囲への注意が疎かになってしまう。   Next, display control of the screen 13a on the terminal device 10a 'according to an operation such as movement of the user A' wearing the terminal device 10a 'according to the fourth embodiment will be described. In general, a human always takes a behavior such as walking while visually searching for surrounding information by moving his / her head and eyes. Therefore, for example, even when the visibility to the outside world is ensured by making the screen 13a of the terminal device 10a 'transparent and displaying information such as a position marker on the real image on the screen 13a. Compared to the case where the information superimposed on the screen 13a is not displayed, attention to the surroundings is neglected.

この点を考慮して、例えば端末装置10a’が、装着したユーザA’が静止および歩行の何れの状態であるかを検知し、検知された状態に応じて、画面13aに対する情報表示を切り替えるようにすると、好ましい。   In consideration of this point, for example, the terminal device 10a ′ detects whether the user A ′ wearing is stationary or walking, and switches the information display on the screen 13a according to the detected state. This is preferable.

図49を用いて、第4の実施形態に適用可能な、例えば端末装置10a’を装着したユーザA’の状態に応じた画面13aにおける情報表示の切り替えについて説明する。図49(b)は、ユーザA’の状態が静止状態(左側)から歩行状態(右側)に遷移する様子を概略的に示している。また、図49(a)は、ユーザA’が静止状態、静止状態から歩行状態への遷移中、歩行状態の各状態における端末装置10a’の画面13a10、13a11および13a12の例を示す。 49, switching of information display on the screen 13a according to the state of the user A ′ wearing the terminal device 10a ′, for example, applicable to the fourth embodiment will be described. FIG. 49B schematically shows a state where the state of the user A ′ transitions from the stationary state (left side) to the walking state (right side). FIG. 49A shows an example of the screens 13a 10 , 13a 11 and 13a 12 of the terminal device 10a ′ in each state of the walking state while the user A ′ is in the stationary state, the transition from the stationary state to the walking state. .

例えば、ユーザA’が静止状態であれば、歩行状態の場合と比較して、周囲の情報への注意が払えており、また、ユーザA’が周囲の情報を必要としていると考えられる。そのため、画面13a10に例示されるように、通常通り、位置マーカ1301aおよび1301b、ラベル1302aおよび1302b、ならびに、方位表示1300を表示させる。 For example, if the user A ′ is in a stationary state, it is considered that attention is paid to surrounding information as compared to the case of walking, and the user A ′ needs the surrounding information. Therefore, as illustrated in the screen 13a 10, as usual, position markers 1301a and 1301b, labels 1302a and 1302b, and to display the azimuth display 1300.

ユーザA’は、歩行を開始すると、どの方向に進むべきかを決定すると共に、歩行中に周囲の情報に注意を払う必要が生じる。そのため、ユーザA’の状態が静止状態から歩行状態に遷移することが検知された場合に、静止状態において表示されていた位置マーカ1301aおよび1301b、ラベル1302aおよび1302b、ならびに、方位表示1300の表示を、徐々に透過させる。画面13a11は、画面13a10の表示に対して半透過された位置マーカ1301a’および1301b’、ラベル1302a’および1302b’、ならびに、方位表示1300’の例を示している。 When the user A ′ starts walking, the user A ′ decides which direction to proceed and needs to pay attention to surrounding information during the walking. Therefore, when it is detected that the state of the user A ′ transitions from the stationary state to the walking state, the position markers 1301a and 1301b, the labels 1302a and 1302b, and the direction display 1300 displayed in the stationary state are displayed. Permeate gradually. Screen 13a 11 shows an example of position markers 1301a ′ and 1301b ′, labels 1302a ′ and 1302b ′, and orientation display 1300 ′ that are semi-transparent to the display of screen 13a 10 .

ユーザA’の状態が歩行状態になると、さらに周囲の情報に注意を払う必要が生じる。そのため、画面13a12に例示されるように、位置マーカ1301aおよび1301b、ラベル1302aおよび1302b、ならびに、方位表示1300の表示の表示を完全に透過させ、非表示とする。これにより、ユーザA’の外界への視認性が高められ、ユーザA’が安全に歩行できるようになる。 When the state of the user A ′ becomes a walking state, it is necessary to pay more attention to surrounding information. Therefore, as illustrated in the screen 13a 12 , the display of the position markers 1301a and 1301b, the labels 1302a and 1302b, and the orientation display 1300 is completely transmitted and hidden. Thereby, the visibility of the user A ′ to the outside world is enhanced, and the user A ′ can walk safely.

ユーザA’の状態が再び静止状態になった場合は、画面13aの表示を画面13a10の状態に戻し、位置マーカ1301aおよび1301b、ラベル1302aおよび1302b、ならびに、方位表示1300を再び表示させる。これにより、ユーザA’は、どの方向に何があるかを再度確認することが可能となる。このような制御の可否は、ユーザA’により設定可能とすると好ましい。 If the state of the user A 'becomes quiescent state again, returns the display screen 13a on the state of the screen 13a 10, position markers 1301a and 1301b, labels 1302a and 1302b, and to display the azimuth display 1300 again. As a result, the user A ′ can confirm again what is in which direction. Whether or not such control is possible is preferably set by the user A ′.

図50を用いて、第4の実施形態に係る例えば端末装置10a’による歩行状態検知について説明する。端末装置10a’は、例えば頭部運動検出部207’により、9軸センサ22による加速度センサの出力を用いて、端末装置10a’を装着するユーザA’の静止状態および歩行状態を検知する。   The walking state detection by the terminal device 10a 'according to the fourth embodiment will be described with reference to FIG. The terminal device 10a 'detects, for example, the stationary state and walking state of the user A' wearing the terminal device 10a 'by using the output of the acceleration sensor by the 9-axis sensor 22 by the head movement detection unit 207'.

図50において、縦軸が鉛直方向の加速度a、横軸が時間tをそれぞれ示し、特性線1400は、9軸センサ22の出力から取得できる3軸の加速度のうち、鉛直方向の加速度(例えばy軸方向)の値を時間tに対してプロットしている。鉛直方向の加速度aの、ユーザA’の静止状態Stpおよび歩行状態Wkにおける時間tに対する変化は、歩行状態Wkが静止状態Stpに対して非常に大きくなっている。また、歩行状態Wkにおける加速度aの変化は、時間tに対して周期的に増減を繰り返すものとなる。このとき、歩行の一歩は、加速度aの変化の1周期に相当する。   In FIG. 50, the vertical axis indicates the acceleration a in the vertical direction and the horizontal axis indicates the time t, and the characteristic line 1400 indicates the acceleration in the vertical direction (for example, y) among the three-axis accelerations that can be acquired from the output of the 9-axis sensor 22. The value in the axial direction is plotted against time t. The change of the acceleration a in the vertical direction with respect to the time t in the stationary state Stp and the walking state Wk of the user A ′ is very large with respect to the stationary state Stp. Further, the change in the acceleration a in the walking state Wk repeats increase and decrease periodically with respect to the time t. At this time, one step of walking corresponds to one cycle of a change in acceleration a.

例えば端末装置10a’は、頭部運動検出部207’により、9軸センサ22の出力に基づきこの鉛直方向の加速度aを時系列に従い常時取得する。端末装置10a’は、取得した加速度aを所定の時間Δtで分割し、分割された時間Δt内での加速度aの平均値を計算するなどの方法により、現在の状態が歩行状態および静止状態の何れであるかを推定できる。端末装置10a’は、この状態推定の結果に基づき、図49を用いて説明した画面13a10〜13a12の表示制御を実行可能である。 For example, the terminal device 10a ′ constantly acquires the acceleration a in the vertical direction based on the output of the 9-axis sensor 22 according to the head movement detection unit 207 ′. The terminal device 10a ′ divides the acquired acceleration a by a predetermined time Δt, and calculates the average value of the acceleration a within the divided time Δt, so that the current state is the walking state and the stationary state. Which can be estimated. Based on the result of this state estimation, the terminal device 10a ′ can execute the display control of the screens 13a 10 to 13a 12 described with reference to FIG.

(第4の実施形態に係る司令者端末の表示例)
次に、第4の実施形態に係る司令者端末30Cにおける画面75の表示例について説明する。先ず、表1および表2を用いて、各端末装置10a’、10b’および10c’と、管理サーバ40Cとの間で送受信される情報について説明する。
(Display example of the commander terminal according to the fourth embodiment)
Next, a display example of the screen 75 in the commander terminal 30C according to the fourth embodiment will be described. First, the information transmitted / received between each terminal device 10a ′, 10b ′ and 10c ′ and the management server 40C will be described using Table 1 and Table 2.

表1は、端末装置10a’から管理サーバ40Cに送信される情報の例を示す。表1に示されるように、端末装置10a’が管理サーバ40Cに送信する情報は、「ID」、「緯度」および「経度」の各項目の情報を含む。   Table 1 shows an example of information transmitted from the terminal device 10a 'to the management server 40C. As shown in Table 1, the information transmitted to the management server 40C by the terminal device 10a 'includes information on each item of "ID", "latitude", and "longitude".

項目「ID」は、端末装置10a’を識別するID(=U001)であって、例えば管理サーバ40Cに対する初回アクセス(図41のステップS50〜ステップS52)において管理サーバ40Cから与えられる。また、項目「緯度」および「経度」の情報は、端末装置10a’の位置を示す位置情報であって、図41のステップS900において、位置情報取得部202によりGNSSを利用して取得される。   The item “ID” is an ID (= U001) for identifying the terminal device 10a ′, and is given from the management server 40C, for example, in the first access (step S50 to step S52 in FIG. 41) to the management server 40C. Further, the information on the items “latitude” and “longitude” is position information indicating the position of the terminal device 10a ′, and is acquired by the position information acquisition unit 202 using GNSS in step S900 of FIG.

この表1の情報は、図41のステップS901において、端末装置10a’から管理サーバ40Cに送信される。なお、端末装置10b’および10c’から管理サーバ40Cに、図41のステップS911、ステップS921で送信される情報も、表1と同様の項目を含むため、ここでの説明を省略する。管理サーバ40Cは、セッションを確立している各端末装置10a’、10b’および10c’から送信された表1の情報に基づき、各端末装置10a’、10b’および10c’の位置情報を管理する。   The information in Table 1 is transmitted from the terminal device 10a 'to the management server 40C in step S901 of FIG. Note that the information transmitted from the terminal devices 10b 'and 10c' to the management server 40C in step S911 and step S921 in FIG. 41 includes the same items as in Table 1, and thus the description thereof is omitted here. The management server 40C manages the location information of each terminal device 10a ′, 10b ′, and 10c ′ based on the information in Table 1 transmitted from each terminal device 10a ′, 10b ′, and 10c ′ that has established a session. .

表2は、管理サーバ40Cから端末装置10a’に送信される情報の例を示す。表2に示されるように、管理サーバ40Cから端末装置10a’に送信される情報は、「ID」、「名前」、「緯度」および「経度」の各項目の情報を含む。   Table 2 shows an example of information transmitted from the management server 40C to the terminal device 10a '. As shown in Table 2, the information transmitted from the management server 40C to the terminal device 10a 'includes information on items of "ID", "name", "latitude", and "longitude".

項目「ID」は、自装置以外の対象を識別するためのIDであって、自装置が端末装置10a’である場合には、管理サーバ40Cとセッションを確立している他の端末装置10b’および10c’のID(U002、U003)を含む。管理サーバ40Cは、これら他の端末装置10b’および10c’のIDを、他の端末装置10b’および10c’からの初回アクセスに応じて生成する(図41のステップS61、ステップS71)。   The item “ID” is an ID for identifying a target other than the own device. When the own device is the terminal device 10a ′, the other terminal device 10b ′ that has established a session with the management server 40C. And ID of 10c ′ (U002, U003). The management server 40C generates IDs of these other terminal devices 10b 'and 10c' in response to the first access from the other terminal devices 10b 'and 10c' (steps S61 and S71 in FIG. 41).

また、表2における項目「ID」は、管理サーバ40Cとの間でセッションを確立している各端末装置10a’、10b’および10c’以外の対象を識別するためのID(表2の例ではID=L001、L002)を含む。   In addition, the item “ID” in Table 2 is an ID for identifying a target other than each terminal device 10a ′, 10b ′, and 10c ′ that has established a session with the management server 40C (in the example of Table 2). ID = L001, L002).

表2において、項目「名前」は、各IDに関連付けられる名前を示す。また、項目「緯度」および「経度」は、各IDに対応する対象の位置情報を示す。   In Table 2, the item “name” indicates a name associated with each ID. The items “latitude” and “longitude” indicate target position information corresponding to each ID.

項目「名前」が示す名前のうち、各端末装置10a’、10b’および10c’を示すIDに関連付けられる名前は、例えば、後述するように、司令者端末30Cにおいて設定され、司令者端末30Cから管理サーバ40Cに送信される。これに限らず、各端末装置10a’、10b’および10c’を示すIDに関連付けられる名前は、各端末装置10a’、10b’および10c’においてそれぞれ入力されて、例えば図41のステップS50、ステップS60およびステップS70の初回アクセスの際に管理サーバ40Cに送信することもできる。   Of the names indicated by the item “name”, the names associated with the IDs indicating the terminal devices 10a ′, 10b ′, and 10c ′ are set in the commander terminal 30C, for example, as will be described later, from the commander terminal 30C. It is transmitted to the management server 40C. Not limited to this, the names associated with the IDs indicating the terminal devices 10a ′, 10b ′, and 10c ′ are respectively input in the terminal devices 10a ′, 10b ′, and 10c ′. For example, step S50 in FIG. It can also be transmitted to the management server 40C at the first access in S60 and step S70.

表2における、各端末装置10a’、10b’および10c’を示すIDに関連付けられる項目「緯度」および「経度」の情報は、例えば図41のステップS901、ステップS911およびステップS921の各端末装置10a’、10b’および10c’との通信により更新される。   The information of the items “latitude” and “longitude” associated with the IDs indicating the terminal devices 10a ′, 10b ′, and 10c ′ in Table 2 are, for example, the terminal devices 10a of step S901, step S911, and step S921 in FIG. Updated by communication with '10b' and 10c '.

表2における、各端末装置10a’、10b’および10c’以外の対象を識別するためのIDと、当該IDに関連付けられる項目「名前」、「緯度」および「経度」の情報は、例えば司令者端末30Cにおいて入力され、管理サーバ40Cに送信される。各端末装置10a’、10b’および10c’以外の対象は、例えば目的地や目印であって、項目「緯度」および「経度」の値は、一般的には、自動的な更新は行われない。   In Table 2, information for identifying objects other than the terminal devices 10a ′, 10b ′, and 10c ′ and items “name”, “latitude”, and “longitude” associated with the ID are, for example, commanders The data is input at the terminal 30C and transmitted to the management server 40C. Targets other than the terminal devices 10a ′, 10b ′, and 10c ′ are destinations and landmarks, for example. In general, the values of the items “latitude” and “longitude” are not automatically updated. .

この表2の情報は、図41のステップS902およびステップS904において、管理サーバ40Cから端末装置10b’および10c’に送信される。なお、管理サーバ40Cから端末装置10b’および10c’に、図41のステップS912およびステップS914、ならびに、ステップS922およびステップS924で送信される情報も、表2と同様の項目を含むため、ここでの説明を省略する。   The information in Table 2 is transmitted from the management server 40C to the terminal devices 10b 'and 10c' in step S902 and step S904 in FIG. Note that the information transmitted in steps S912 and S914 and steps S922 and S924 of FIG. 41 from the management server 40C to the terminal devices 10b ′ and 10c ′ includes the same items as in Table 2, The description of is omitted.

管理サーバ40Cから各端末装置10a’、10b’および10c’に対して、各端末装置10a’、10b’および10c’以外の対象の情報を送信することで、各端末装置10a’、10b’および10c’において、当該対象すなわち目的地や目印の位置を示す位置マーカを、各画面13a、13bおよび13cに表示させることができる。これにより、目的地や目印が、各端末装置10a’、10b’および10c’を装着する各ユーザA’、B’およびC’から視認できない位置にある場合であっても、各ユーザA’、B’およびC’は、これら目的地や目印がどの方角の、どの程度の距離にあるのかを、直感的に確認可能である。   By transmitting target information other than the terminal devices 10a ′, 10b ′ and 10c ′ from the management server 40C to the terminal devices 10a ′, 10b ′ and 10c ′, the terminal devices 10a ′, 10b ′ and In 10c ′, a position marker indicating the position of the target, that is, the destination or the landmark can be displayed on each of the screens 13a, 13b, and 13c. Thereby, even if the destination or landmark is in a position where it cannot be visually recognized from each user A ′, B ′ and C ′ wearing each terminal device 10a ′, 10b ′ and 10c ′, each user A ′, B ′ and C ′ can intuitively confirm in which direction and at what distance these destinations and landmarks are located.

図51は、第4の実施形態に適用可能な、司令者端末30Cの画面75における表示の例を示す。ここでは、司令者端末30CをユーザD’が利用するものとする。   FIG. 51 shows an example of display on the screen 75 of the commander terminal 30C applicable to the fourth embodiment. Here, it is assumed that the commander terminal 30C is used by the user D '.

司令者端末30Cは、例えば図41のステップS82において、画面75に地図画像750を表示させる。司令者端末30Cは、例えば所定範囲が含まれる地図画像750を予め取得し、司令者端末30Cが備えるストレージに記憶しているものとする。これに限らず、司令者端末30Cは、例えば図41のステップS82において管理サーバ40Cから地図画像750を取得してもよいし、ネットワーク50に接続される他のサーバ装置などから地図画像750を取得してもよい。司令者端末30Cは、司令者端末30Cに対するユーザ操作に応じて、地図画像750のスクロールやズームイン、ズームアウトなどを実行可能である。   The commander terminal 30C displays the map image 750 on the screen 75 in, for example, step S82 of FIG. The commander terminal 30C acquires, for example, a map image 750 including a predetermined range in advance and stores it in a storage provided in the commander terminal 30C. For example, the commander terminal 30C may acquire the map image 750 from the management server 40C in step S82 of FIG. 41, or may acquire the map image 750 from another server device connected to the network 50 or the like. May be. The commander terminal 30C can execute scrolling, zooming in, zooming out, etc. of the map image 750 in response to a user operation on the commander terminal 30C.

司令者端末30Cは、例えば図41のステップS906、ステップS916およびステップS926において管理サーバ40Cから取得した各端末装置10a’、10b’および10c’のIDおよび位置情報に従い、地図画像750上で各端末装置10a’、10b’および10c’の位置を示すマーカ753a、753bおよび753cを、それぞれ地図画像750に重畳させて表示させる。また、各マーカ753a、753bおよび753cの近傍には、対応する名前を含むラベルがそれぞれ表示される。   The commander terminal 30C, for example, displays each terminal on the map image 750 according to the ID and position information of each terminal device 10a ′, 10b ′, and 10c ′ acquired from the management server 40C in step S906, step S916, and step S926 in FIG. Markers 753a, 753b, and 753c indicating the positions of the devices 10a ′, 10b ′, and 10c ′ are displayed superimposed on the map image 750, respectively. In addition, labels including corresponding names are displayed in the vicinity of the markers 753a, 753b, and 753c, respectively.

例えば、管理サーバ40Cは、図41のステップS906、ステップS916およびステップS926において、上述した表2の情報を参照して、IDと、IDに関連付けられた位置情報および名前とを、司令者端末30Cに送信する。司令者端末30Cは、管理サーバ40Cから送信されたID、位置情報および名前に従い、各マーカ753a、753bおよび753cと、ラベルとを、地図画像750に重畳させて表示させる。   For example, in step S906, step S916, and step S926 of FIG. 41, the management server 40C refers to the information in Table 2 described above, and displays the ID, the position information and the name associated with the ID, and the commander terminal 30C. Send to. The commander terminal 30C causes the markers 753a, 753b, and 753c, and labels to be superimposed on the map image 750 and displayed according to the ID, position information, and name transmitted from the management server 40C.

司令者端末30Cは、これらマーカ753a、753bおよび753cと、各ラベルの地図画像750上での位置を、各端末装置10a’、10b’および10c’からの位置情報の送信に応じて更新する。   The commander terminal 30C updates the positions of the markers 753a, 753b, and 753c and the positions of the labels on the map image 750 in response to the transmission of the position information from the terminal devices 10a ', 10b', and 10c '.

例えば、図41のステップS901、ステップS911およびステップS921において、各端末装置10a’、10b’および10c’から管理サーバ40Cに対してIDおよび位置情報が送信される。図41のステップS906、ステップS916およびステップS926により、これら各IDおよび各位置情報が管理サーバ40Cから司令者端末30Cに送信される。司令者端末30Cは、管理サーバ40Cから受信した各IDおよび各位置情報に基づき、各マーカ753a、753bおよび753c、ならびに、各ラベルの地図画像750上での位置を更新する。   For example, in step S901, step S911, and step S921 of FIG. 41, ID and position information are transmitted from each terminal device 10a ', 10b', and 10c 'to the management server 40C. In step S906, step S916, and step S926 in FIG. 41, these IDs and position information are transmitted from the management server 40C to the commander terminal 30C. The commander terminal 30C updates the positions of the markers 753a, 753b and 753c and the labels on the map image 750 based on the IDs and the position information received from the management server 40C.

また、司令者端末30Cは、図41のステップS906、ステップS916およびステップS926において、管理サーバ40Cから、各端末装置10a’、10b’および10c’以外の対象のID、位置情報および名前を取得する。司令者端末30Cは、取得した当該対象のID、位置情報および名前に従い、地図画像750上で、各対象の位置を示すマーカ751および752と、各マーカ751および752に対応する各ラベルとを、それぞれ地図画像750に重畳させて表示させる。   In addition, the commander terminal 30C acquires the ID, position information, and name of the target other than the terminal devices 10a ′, 10b ′, and 10c ′ from the management server 40C in step S906, step S916, and step S926 in FIG. . According to the acquired ID, position information, and name of the target, the commander terminal 30C displays markers 751 and 752 indicating the positions of the targets and labels corresponding to the markers 751 and 752 on the map image 750. Each is displayed superimposed on the map image 750.

このように、司令者端末30Cの画面75に表示される地図画像750に対して、各端末装置10a’、10b’および10c’の各マーカ753a、753bおよび753c、ならびに、各ラベルを重畳して表示させる。また、司令者端末30Cは、地図画像750に対して、各端末装置10a’、10b’および10c’以外の各対象の各マーカ751および752、ならびに、各ラベルを重畳して表示させる。これにより、司令者端末30Cを利用するユーザD’は、各端末装置10a’、10b’および10c’を装着するユーザA’、B’およびC’の存在する位置および位置関係を俯瞰的に確認可能である。   In this manner, the markers 753a, 753b and 753c of the terminal devices 10a ′, 10b ′ and 10c ′ and the labels are superimposed on the map image 750 displayed on the screen 75 of the commander terminal 30C. Display. In addition, the commander terminal 30C superimposes and displays the markers 751 and 752 and the labels of the objects other than the terminal devices 10a ′, 10b ′, and 10c ′ on the map image 750. Thereby, the user D ′ using the commander terminal 30C confirms the positions and positional relationships of the users A ′, B ′, and C ′ wearing the terminal devices 10a ′, 10b ′, and 10c ′ from a bird's-eye view. Is possible.

図51において、領域760は、ID、名前、位置情報およびテキスト情報が表示される。IDのうち、各端末装置10a’、10b’および10c’を示すIDは、管理サーバ40Cから取得できる。また、IDのうち、各端末装置10a’、10b’および10c’以外の対象を示すID(図51の例ではID=L001、L002)は、司令者端末30C上で入力してもよいし、管理サーバ40Cから取得してもよい。   In FIG. 51, an area 760 displays ID, name, position information, and text information. Among the IDs, IDs indicating the terminal devices 10a ', 10b', and 10c 'can be acquired from the management server 40C. Moreover, among IDs, IDs (ID = L001, L002 in the example of FIG. 51) indicating objects other than the terminal devices 10a ′, 10b ′, and 10c ′ may be input on the commander terminal 30C. You may acquire from the management server 40C.

領域760は、司令者端末30Cに対する操作により情報の入力が可能な入力領域761、762および763を含む。入力領域761は、各IDに対応する名前が入力される。入力領域762は、各IDに対応する位置情報(緯度、経度)が入力される。入力領域762に入力される位置情報は、管理サーバ40Cから取得することもできる。   The area 760 includes input areas 761, 762, and 763 in which information can be input by an operation on the commander terminal 30C. In the input area 761, a name corresponding to each ID is input. In the input area 762, position information (latitude and longitude) corresponding to each ID is input. The position information input to the input area 762 can also be acquired from the management server 40C.

領域763は、テキスト情報が入力される。例えばユーザD’は、司令者端末30Cを操作して、入力領域763の各欄に対してID毎にテキスト情報を入力できる。テキスト情報は、対応するIDが各端末装置10a’、10b’および10c’に対応する場合には、例えば、各端末装置10a’、10b’および10c’を装着する各ユーザA’、B’およびC’に対する指令である。例えば、司令者端末30Cは、入力領域763に入力されたテキスト情報を、当該テキスト情報に関連付けられたIDに対応する端末装置に送信できる。   In a region 763, text information is input. For example, the user D ′ can input text information for each ID in each column of the input area 763 by operating the commander terminal 30 </ b> C. When the corresponding ID corresponds to each terminal device 10a ′, 10b ′, and 10c ′, the text information includes, for example, each user A ′, B ′ that wears each terminal device 10a ′, 10b ′, and 10c ′, and This is a command for C ′. For example, the commander terminal 30C can transmit the text information input in the input area 763 to the terminal device corresponding to the ID associated with the text information.

また、対応するIDが各端末装置10a’、10b’および10c’以外の対象を示す場合には、テキスト情報は、例えば当該対象の情報である。   When the corresponding ID indicates a target other than the terminal devices 10a ', 10b', and 10c ', the text information is, for example, information on the target.

司令者端末30Cは、司令者端末30Cに対する所定の操作に応じて、各入力領域761〜763に入力された各情報を管理サーバ40Cに送信することができる。   The commander terminal 30C can transmit each piece of information input to each input area 761 to 763 to the management server 40C in response to a predetermined operation on the commander terminal 30C.

次に、第4の実施形態に係る、各端末装置10a’、10b’および10c’に対して司令者端末30Cから指令情報が送信された場合の、各端末装置10a’、10b’および10c’に対する指令情報の通知方法について説明する。司令者端末30Cから送信された指令情報は、管理サーバ40Cを介して、各端末装置10a’、10b’および10c’のうち指定された端末装置に送信される。   Next, the terminal devices 10a ′, 10b ′, and 10c ′ when the command information is transmitted from the commander terminal 30C to the terminal devices 10a ′, 10b ′, and 10c ′ according to the fourth embodiment. A method of notifying command information to the will be described. The command information transmitted from the commander terminal 30C is transmitted to the designated terminal device among the terminal devices 10a ', 10b' and 10c 'via the management server 40C.

なお、ここでは、各端末装置10a’、10b’および10c’を端末装置10a’で代表させて説明を行う。また、司令者端末30Cは、例えば、図51に示した入力領域763の端末装置10a’に対応する欄にテキスト情報が入力された場合に、指令情報の宛先として当該端末装置10a’を指定し、指定された宛先に当該テキスト情報を指令情報として送信するものとする。   Here, the terminal devices 10a ', 10b', and 10c 'will be described by being represented by the terminal device 10a'. Further, for example, when the text information is input to the field corresponding to the terminal device 10a ′ in the input area 763 shown in FIG. 51, the commander terminal 30C designates the terminal device 10a ′ as the destination of the command information. The text information is transmitted to the designated destination as command information.

図52は、第4の実施形態に係る、端末装置10a’における指令情報の表示方法の例を示す。端末装置10a’の画面13aに対して指令情報のような長文のテキスト情報が突然表示されると、外界への視覚探索の妨げになるおそれがある。そのため、端末装置10a’を装着したユーザA’が静止状態にあり、且つ、周辺の安全を確認した当該ユーザA’が自ら指令情報を取得するためのアクションを起こすことで、指令情報が取得されるような制御が望ましい。   FIG. 52 shows an example of a command information display method in the terminal device 10a 'according to the fourth embodiment. If long text information such as command information is suddenly displayed on the screen 13a of the terminal device 10a ', there is a risk of hindering visual search to the outside world. Therefore, the user A ′ wearing the terminal device 10a ′ is in a stationary state, and the user A ′ who has confirmed the safety of the surroundings takes action to acquire the command information by himself, thereby acquiring the command information. Such control is desirable.

図52の例では、端末装置10a’を装着するユーザA’が、静止状態で頭部80を上下させることで、画面13aに対する指令情報の表示を制御する。   In the example of FIG. 52, the user A ′ wearing the terminal device 10a ′ controls the display of the command information on the screen 13a by moving the head 80 up and down in a stationary state.

より具体的には、端末装置10a’において、表示情報生成部204’は、9軸センサ22に含まれる加速度センサの検知結果を用いた頭部運動検出部207’の検出出力に基づき、ユーザA’が静止状態にあるか否かを判定する。表示情報生成部204’は、ユーザA’が静止状態にあると判定した場合、9軸センサ22に含まれるジャイロセンサの検知出力に基づく頭部運動検出部207’による頭部80の上下運動の検出結果に応じて、画面13aに対する指令情報の表示を制御する。   More specifically, in the terminal device 10 a ′, the display information generation unit 204 ′ is based on the detection output of the head movement detection unit 207 ′ using the detection result of the acceleration sensor included in the 9-axis sensor 22. Determine whether 'is stationary. When the display information generation unit 204 ′ determines that the user A ′ is in a stationary state, the head movement detection unit 207 ′ based on the detection output of the gyro sensor included in the 9-axis sensor 22 performs the vertical movement of the head 80. The display of the command information on the screen 13a is controlled according to the detection result.

例えば、ユーザA’の頭部80(視線方向)が水平方向を向いており、図52(a)に例示されるように、端末装置10a’の画面13aに対して他の端末装置の位置を示す位置マーカ1301と、位置マーカ1301に対応するラベル1302と、方位表示1300とが表示されているものとする。この状態で端末装置10a’が指令情報を受信した場合、指令情報の受信を示す通知アイコン1310が画面13aに表示される。通知アイコン1310は、例えば画面13aにおける位置マーカ1301、ラベル1302および方位表示1300の邪魔にならない位置、例えば画面13aの右上隅に表示される。   For example, the head 80 (line-of-sight direction) of the user A ′ is oriented in the horizontal direction, and as illustrated in FIG. 52 (a), the position of the other terminal device is set with respect to the screen 13a of the terminal device 10a ′. It is assumed that a position marker 1301 to be shown, a label 1302 corresponding to the position marker 1301, and an orientation display 1300 are displayed. When the terminal device 10a 'receives the command information in this state, a notification icon 1310 indicating reception of the command information is displayed on the screen 13a. The notification icon 1310 is displayed at a position that does not interfere with the position marker 1301, the label 1302, and the orientation display 1300 on the screen 13a, for example, at the upper right corner of the screen 13a.

ユーザA’は、画面13aに通知アイコン1310が表示されると、頭部80を上向きに傾ける。図52(b)に例示されるように、頭部80の方向(視線方向)が水平方向に対して所定角度αを超えると、端末装置10a’は、表示情報生成部204’により、画面13aにおいて位置マーカ1301、ラベル1302および方位表示1300を非表示とする。そして、表示情報生成部204’は、画面13aの中央部に照準マーカ1311を表示させ、画面13aの上端部に画面切替選択パネル1312aを表示させる。通知アイコン1310は、画面13aの右上隅に固定的に表示される。   When the notification icon 1310 is displayed on the screen 13a, the user A 'tilts the head 80 upward. As illustrated in FIG. 52B, when the direction of the head 80 (the line-of-sight direction) exceeds a predetermined angle α with respect to the horizontal direction, the terminal device 10a ′ causes the display information generation unit 204 ′ to display the screen 13a. The position marker 1301, label 1302, and orientation display 1300 are not displayed. Then, the display information generation unit 204 'displays the aiming marker 1311 at the center of the screen 13a and displays the screen switching selection panel 1312a at the upper end of the screen 13a. The notification icon 1310 is fixedly displayed in the upper right corner of the screen 13a.

ここで、照準マーカ1311は、画面13aの中央部に位置を固定されて表示される。すなわち、照準マーカ1311は、図52(b)の状態から頭部80を例えばさらに上向きに傾けても、画面13aの中央部に固定的に表示される。一方、画面切替選択パネル1312aは、頭部80の動きに応じて画面13a内での位置が移動される。   Here, the aiming marker 1311 is displayed with its position fixed at the center of the screen 13a. That is, the aiming marker 1311 is fixedly displayed at the center of the screen 13a even if the head 80 is tilted further upward, for example, from the state of FIG. On the other hand, the position of the screen switching selection panel 1312a is moved in the screen 13a according to the movement of the head 80.

ユーザA’が、図52(b)の状態から頭部80をさらに所定角度βだけ上向きに傾けると、図52(c)に例示されるように、照準マーカ1311が画面切替選択パネル1312aに重なる状態となる。表示情報生成部204’は、画面切替選択パネル1312aの画面13a内での座標情報に基づき、照準マーカ1311と画面切替選択パネル1312aとが重なっており、且つ、その状態が所定時間(例えば2秒間)維持されているか否かを判定する。   When the user A ′ further tilts the head 80 upward by a predetermined angle β from the state of FIG. 52B, the aiming marker 1311 overlaps the screen switching selection panel 1312a as illustrated in FIG. 52C. It becomes a state. Based on the coordinate information in the screen 13a of the screen switching selection panel 1312a, the display information generation unit 204 ′ overlaps the aiming marker 1311 and the screen switching selection panel 1312a, and the state is kept for a predetermined time (for example, 2 seconds). ) Determine whether it is maintained.

表示情報生成部204’は、照準マーカ1311と画面切替選択パネル1312aとが重なった状態が所定時間維持されていると判定すると、照準マーカ1311および画面切替選択パネル1312aを画面13aから削除し、司令者端末30Cから管理サーバ40Cを介して送信された指令情報を画面13aに表示させる。図52(d)は、画面13aに指令情報1320が表示された例を示す。   When the display information generation unit 204 ′ determines that the state where the aiming marker 1311 and the screen switching selection panel 1312a overlap is maintained for a predetermined time, the display information generating unit 204 ′ deletes the aiming marker 1311 and the screen switching selection panel 1312a from the screen 13a. The command information transmitted from the operator terminal 30C via the management server 40C is displayed on the screen 13a. FIG. 52D shows an example in which the command information 1320 is displayed on the screen 13a.

表示情報生成部204’は、頭部80の方向を水平方向に戻しても指令情報1320が画面13aの所定位置に固定的に表示されるように、指令情報1320の表示を制御する。また、表示情報生成部204’は、指令情報1320を画面13aに表示させると、通知アイコン1310を画面13aから削除する。   The display information generation unit 204 'controls the display of the command information 1320 so that the command information 1320 is fixedly displayed at a predetermined position on the screen 13a even if the head 80 is returned to the horizontal direction. Also, when the command information 1320 is displayed on the screen 13a, the display information generation unit 204 'deletes the notification icon 1310 from the screen 13a.

表示情報生成部204’は、指令情報1320が画面13aに表示された状態で、頭部運動検出部207’の出力に基づき頭部80の方向が水平方向に対して所定角度を超えると、図52(b)と同様にして画面13aの中央部に照準マーカ1311を表示させると共に、画面13aの上端側に画面切替選択パネル1312b(図52(e)参照)を表示させる。   When the direction of the head 80 exceeds a predetermined angle with respect to the horizontal direction based on the output of the head movement detection unit 207 ′ with the command information 1320 displayed on the screen 13a, the display information generation unit 204 ′ Similarly to 52 (b), the aiming marker 1311 is displayed at the center of the screen 13a, and the screen switching selection panel 1312b (see FIG. 52 (e)) is displayed at the upper end side of the screen 13a.

ユーザA’が頭部80をさらに所定角度だけ上向きに傾けると、図52(e)に例示されるように、照準マーカ1311が画面切替選択パネル1312bに重なる状態となる。表示情報生成部204’は、画面切替選択パネル1312bの画面13a内での座標情報に基づき、照準マーカ1311と画面切替選択パネル1312bとが重なっており、且つ、その状態が所定時間(例えば2秒間)維持されているか否かを判定する。   When the user A ′ further tilts the head 80 upward by a predetermined angle, the aiming marker 1311 is overlaid on the screen switching selection panel 1312b as illustrated in FIG. Based on the coordinate information in the screen 13a of the screen switching selection panel 1312b, the display information generation unit 204 ′ overlaps the aiming marker 1311 and the screen switching selection panel 1312b, and the state is kept for a predetermined time (for example, 2 seconds). ) Determine whether it is maintained.

表示情報生成部204’は、照準マーカ1311と画面切替選択パネル1312bとが重なった状態が所定時間維持されていると判定すると、照準マーカ1311および画面切替選択パネル1312bを画面13aから削除する。また、表示情報生成部204’は、画面13aに、他の端末装置の位置を示す位置マーカ1301と、位置マーカ1301に対応するラベル1302と、方位表示1300とを再び表示させる。   If the display information generation unit 204 ′ determines that the state where the aiming marker 1311 and the screen switching selection panel 1312 b overlap is maintained for a predetermined time, the display information generating unit 204 ′ deletes the aiming marker 1311 and the screen switching selection panel 1312 b from the screen 13 a. In addition, the display information generation unit 204 ′ displays again the position marker 1301 indicating the position of the other terminal device, the label 1302 corresponding to the position marker 1301, and the orientation display 1300 on the screen 13 a.

このとき、表示情報生成部204’は、指令情報に、他の端末装置以外の対象のID、名前および位置情報が含まれている場合、図52(f)に例示されるように、画面13aに、当該対象の位置を示す位置マーカ1304と、位置マーカ1304に対応する、対象の情報を含むラベル1303とを表示させる。   At this time, when the command information includes the ID, name, and position information of the target other than the other terminal device, the display information generation unit 204 ′ displays the screen 13a as illustrated in FIG. 52 (f). In addition, a position marker 1304 indicating the position of the target and a label 1303 corresponding to the position marker 1304 and including target information are displayed.

なお、図52(b)、図52(c)および図52(e)の状態において、頭部80を上向きに傾けた場合、鉛直方向の加速度の値が変化し、図50を用いて説明した静止状態および歩行状態の推定に影響が生じる可能性がある。そのため、表示情報生成部204’は、頭部運動検出部207’の検出結果に基づき、9軸センサ22に含まれるジャイロセンサの出力を用いて、頭部80が上向きに傾けられているか否かを推定する。表示情報生成部204’は、頭部80が上向きに傾けられていると推定された場合は、静止状態および歩行状態の推定処理の例外として制御する。   When the head 80 is tilted upward in the states of FIGS. 52 (b), 52 (c), and 52 (e), the vertical acceleration value changes, which has been described with reference to FIG. There is a possibility that the estimation of the stationary state and the walking state may be affected. Therefore, the display information generation unit 204 ′ determines whether the head 80 is tilted upward using the output of the gyro sensor included in the 9-axis sensor 22 based on the detection result of the head movement detection unit 207 ′. Is estimated. When it is estimated that the head 80 is inclined upward, the display information generation unit 204 ′ controls the display information generation unit 204 ′ as an exception to the stationary state and walking state estimation processing.

第4の実施形態に係る端末装置10a’、10b’および10c’は、眼鏡ユニット1Cを頭部80に装着して用い、ハンズフリーにて利用可能である利点がある。上述のような制御を行うことで、各ユーザA’、B’およびC’は、頭部80の運動のみで、必要な情報を取得することができる。   The terminal devices 10a ', 10b', and 10c 'according to the fourth embodiment have an advantage that they can be used hands-free by using the eyeglass unit 1C mounted on the head 80. By performing the control as described above, each user A ′, B ′, and C ′ can acquire necessary information only by movement of the head 80.

なお、上述では、第4の実施形態に係る端末装置10a’、10b’および10c’が、それぞれ、第3の実施形態に係る、調光部を設けたフロント部11Bを含む端末装置10’に対応する眼鏡型デバイスを含むように説明したが、これはこの例に限定されない。すなわち、第4の実施形態に係る端末装置10a’、10b’および10c’として、第1の実施形態に係る、調光部を含まないフロント部11Aを有する端末装置10に対応する眼鏡型デバイスを含んでいてもよい。   In the above description, the terminal devices 10a ′, 10b ′, and 10c ′ according to the fourth embodiment are respectively connected to the terminal device 10 ′ that includes the front unit 11B that is provided with the light control unit according to the third embodiment. Although described to include a corresponding glasses-type device, this is not limited to this example. That is, as the terminal devices 10a ′, 10b ′, and 10c ′ according to the fourth embodiment, glasses-type devices corresponding to the terminal device 10 according to the first embodiment having the front part 11A that does not include the dimming unit. May be included.

(他の実施形態)
なお、上述の第4の実施形態に係る情報共有システムは、管理サーバ40Cを含み、各端末装置10a’、10b’および10c’と、管理サーバ40Cとの間で通信を行い、各端末装置10a’、10b’および10c’のIDおよび位置情報の送受信を行っている。これは、この例に限らず、情報共有システムにおいて、管理サーバ40Cを含まない構成も可能である。
(Other embodiments)
Note that the information sharing system according to the fourth embodiment described above includes the management server 40C, performs communication between the terminal devices 10a ′, 10b ′, and 10c ′ and the management server 40C, and each terminal device 10a. The IDs and position information of “10b” and 10c ”are transmitted and received. This is not limited to this example, and the information sharing system may be configured not to include the management server 40C.

この場合、例えば図41のステップS81のセッション確立は、各端末装置10a’、10b’および10c’間、ならびに、各端末装置10a’、10b’および10c’と司令者端末30Cとの間で、それぞれ行われることになる。各端末装置10a’、10b’および10c’それぞれのIDは、各端末装置10a’、10b’および10c’に予め記憶しておく。   In this case, for example, the session establishment in step S81 of FIG. 41 is performed between the terminal devices 10a ′, 10b ′ and 10c ′, and between the terminal devices 10a ′, 10b ′ and 10c ′ and the commander terminal 30C. Each will be done. The IDs of the terminal devices 10a ', 10b' and 10c 'are stored in advance in the terminal devices 10a', 10b 'and 10c'.

また、例えば図41のステップS90aにおいて、端末装置10a’は、ステップS900で取得した位置情報を、端末装置10b’および10c’、ならびに、司令者端末30Cそれぞれに、直接的に送信する。これは、ステップS90bおよびステップS90cにおいても同様である。   For example, in step S90a of FIG. 41, the terminal device 10a 'directly transmits the position information acquired in step S900 to each of the terminal devices 10b' and 10c 'and the commander terminal 30C. The same applies to step S90b and step S90c.

なお、上述の各実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。   Each of the above-described embodiments is a preferred embodiment of the present invention, but is not limited thereto, and various modifications can be made without departing from the gist of the present invention.

1A,1B,1C 眼鏡ユニット
2 導光板
3 表示素子
4 光源
8 ハーフミラー
10,10’,10a,10b,10c,10a’,10b’,10c’,30 端末装置
11A,11B フロント
12 テンプル
13a,13b,13c,70,70a,70b,71,75 画面
20A,20B 情報処理ユニット
21 ケーブル
22 9軸センサ
23 カメラ
24 操作部
30B,30C 司令者端末
40A,40B,40C 管理サーバ
50 ネットワーク
101 表示制御部
102 9軸検知部
104 撮像制御部
202 位置情報取得部
203 共有情報生成部
204,204’ 表示情報生成部
205 入力処理部
207,207’ 頭部運動検出部
301,401 共有情報取得部
302,402 地図情報取得部
303 位置取得部
304,404 属性情報記憶部
403 位置算出部
500 対象
700,750 地図画像
702 自装置マーカ
703a,703b,703c,703d,705a,705b,705c,705d,
706 マーカ画像
704,730,740,741 メッセージ表示
720 対象マーカ
1010 調光フィルタ
1300 方位表示
1301,1301a,1301b 位置マーカ
1302,1302a,1302b,1302c ラベル
1310 通知アイコン
1311 照準マーカ
1312a,1312b 画面切替選択パネル
1A, 1B, 1C Glasses unit 2 Light guide plate 3 Display element 4 Light source 8 Half mirror 10, 10 ', 10a, 10b, 10c, 10a', 10b ', 10c', 30 Terminal device 11A, 11B Front 12 Temple 13a, 13b , 13c, 70, 70a, 70b, 71, 75 Screen 20A, 20B Information processing unit 21 Cable 22 9-axis sensor 23 Camera 24 Operation unit 30B, 30C Commander terminal 40A, 40B, 40C Management server 50 Network 101 Display control unit 102 9-axis detection unit 104 Imaging control unit 202 Position information acquisition unit 203 Shared information generation unit 204, 204 ′ Display information generation unit 205 Input processing unit 207, 207 ′ Head movement detection unit 301, 401 Shared information acquisition unit 302, 402 Map Information acquisition unit 303 Position acquisition unit 304, 404 Attribute information storage unit 4 3 position calculating unit 500 subject 700, 750 map image 702 own device markers 703a, 703b, 703c, 703d, 705a, 705b, 705c, 705d,
706 Marker image 704, 730, 740, 741 Message display 720 Target marker 1010 Dimming filter 1300 Direction display 1301, 1301a, 1301b Position marker 1302, 1302a, 1302b, 1302c Label 1310 Notification icon 1311 Aiming marker 1312a, 1312b Screen switching selection panel

特開2011−215676号公報JP 2011-215676 A

Claims (27)

管理装置と、複数の端末装置とを含む情報共有システムであって、
前記複数の端末装置のうち少なくとも第1の端末装置は、
前記第1の端末装置の位置を示す第1の位置情報と、対象の該第1の端末装置に対する方角を示す方角情報と、該対象までの距離を示す距離情報と、を含む共有情報を取得する取得部を備え、
前記管理装置は、
前記第1の端末装置から取得した前記共有情報に基づき前記対象の位置を示す第2の位置情報を求め、該第2の位置情報を含む対象情報を生成する生成部と、
前記対象情報を前記複数の端末装置に送信する送信部と
を備える
情報共有システム。
An information sharing system including a management device and a plurality of terminal devices,
At least a first terminal device among the plurality of terminal devices is:
Acquisition of shared information including first position information indicating a position of the first terminal device, direction information indicating a direction of a target with respect to the first terminal device, and distance information indicating a distance to the target With an acquisition unit
The management device
A generating unit that obtains second position information indicating the position of the target based on the shared information acquired from the first terminal device, and generates target information including the second position information;
An information sharing system comprising: a transmission unit that transmits the target information to the plurality of terminal devices.
前記取得部は、
前記対象の属性を示す属性情報をさらに取得し、
前記生成部は、
前記第1の端末装置から取得した前記属性情報をさらに含む前記対象情報を生成する
請求項1に記載の情報共有システム。
The acquisition unit
Further acquiring attribute information indicating the target attribute,
The generator is
The information sharing system according to claim 1, wherein the target information further including the attribute information acquired from the first terminal device is generated.
前記管理装置は、
前記属性情報とマーカ情報とを関連付けて予め記憶する属性情報記憶部をさらに備え、
前記生成部は、
前記第1の端末装置から取得した前記属性情報と関連付けられた前記マーカ情報をさらに含む前記対象情報を生成する
請求項2に記載の情報共有システム。
The management device
An attribute information storage unit that stores the attribute information and the marker information in association with each other;
The generator is
The information sharing system according to claim 2, wherein the target information further includes the marker information associated with the attribute information acquired from the first terminal device.
前記生成部は、
現在の時刻を示す時間情報をさらに含む前記対象情報を生成する
請求項1乃至請求項3の何れか1項に記載の情報共有システム。
The generator is
The information sharing system according to claim 1, wherein the target information further including time information indicating the current time is generated.
前記第1の端末装置は、
被写体を撮像して撮像画像を出力する撮像部をさらに備え、
前記共有情報は、
前記対象が撮像された前記撮像画像をさらに含む
請求項1乃至請求項4の何れか1項に記載の情報共有システム。
The first terminal device is:
An image capturing unit that captures an image of the subject and outputs a captured image;
The shared information is
The information sharing system according to any one of claims 1 to 4, further including the captured image obtained by capturing the target.
前記撮像画像は動画像である
請求項5に記載の情報共有システム。
The information sharing system according to claim 5, wherein the captured image is a moving image.
前記第1の端末装置は、
音声が入力される音声入力部をさらに備え、
前記共有情報は、
前記音声に基づく情報をさらに含む
請求項1乃至請求項6の何れか1項に記載の情報共有システム。
The first terminal device is:
A voice input unit for inputting voice;
The shared information is
The information sharing system according to claim 1, further comprising information based on the voice.
前記複数の端末装置のうち第2の端末装置は、
前記取得部と、前記生成部と、前記送信部とを備える
請求項1乃至請求項7の何れか1項に記載の情報共有システム。
The second terminal device among the plurality of terminal devices is:
The information sharing system according to any one of claims 1 to 7, comprising the acquisition unit, the generation unit, and the transmission unit.
前記複数の端末装置のうち少なくとも前記第1の端末装置は、
頭部に装着することで眼球およびその周辺に画像を映出する表示部を備える頭部装着用表示装置を含む
請求項1乃至請求項8の何れか1項に記載の情報共有システム。
At least the first terminal device of the plurality of terminal devices is
The information sharing system according to any one of claims 1 to 8, further comprising a head-mounted display device including a display unit configured to display an image on the eyeball and its periphery by being mounted on the head.
前記表示部は、
透過率を制御可能な調光素子を含む
請求項9に記載の情報共有システム。
The display unit
The information sharing system according to claim 9, further comprising a light control element capable of controlling the transmittance.
前記調光素子は、エレクトロクロミック素子である
請求項10に記載の情報共有システム。
The information sharing system according to claim 10, wherein the dimming element is an electrochromic element.
管理装置と、複数の端末装置とを含む情報共有システムにおける情報共有方法であって、
前記複数の端末装置のうち第1の端末装置の位置を示す第1の位置情報と、対象の該第1の端末装置に対する方角を示す方角情報と、該対象までの距離を示す距離情報と、を含む共有情報を取得する取得ステップと、
前記第1の端末装置から取得した前記共有情報に基づき前記対象の位置を示す第2の位置情報を求め、該第2の位置情報を含む対象情報を生成する生成ステップと、
前記対象情報を前記複数の端末装置に送信する送信ステップと
を有する情報共有方法。
An information sharing method in an information sharing system including a management device and a plurality of terminal devices,
First position information indicating a position of a first terminal device among the plurality of terminal devices, direction information indicating a direction of a target with respect to the first terminal device, distance information indicating a distance to the target, An acquisition step for acquiring shared information including:
A step of obtaining second position information indicating the position of the target based on the shared information acquired from the first terminal device, and generating target information including the second position information;
A transmission step of transmitting the target information to the plurality of terminal devices.
自装置の位置を示す第1の位置情報と、対象の該自装置に対する方角を示す方角情報と、該対象までの距離を示す距離情報と、を含む共有情報を取得する取得部と、
管理装置により前記共有情報に基づき求められた前記対象の位置を示す第2の位置情報を含む対象情報を受信する受信部と、
前記受信部により受信された前記対象情報に基づく表示が可能な表示部と
を備える端末装置。
An acquisition unit that acquires shared information including first position information indicating a position of the own device, direction information indicating a direction of a target with respect to the own device, and distance information indicating a distance to the target;
A receiving unit that receives target information including second position information indicating the position of the target obtained by the management device based on the shared information;
And a display unit capable of displaying based on the target information received by the receiving unit.
自装置の位置を示す第1の位置情報と、対象の該自装置に対する方角を示す方角情報と、該対象までの距離を示す距離情報と、を含む共有情報を取得する取得ステップと、
管理装置により前記共有情報に基づき求められた前記対象の位置を示す第2の位置情報を含む対象情報を受信する受信ステップと、
前記受信ステップにより受信された前記対象情報に基づく表示を行う表示ステップと
をコンピュータに実行させるための情報処理プログラム。
An acquisition step of acquiring shared information including first position information indicating a position of the own device, direction information indicating a direction of a target with respect to the own device, and distance information indicating a distance to the target;
A receiving step of receiving target information including second position information indicating the position of the target determined by the management device based on the shared information;
An information processing program for causing a computer to execute a display step of performing display based on the target information received in the reception step.
頭部に装着することで眼球およびその周辺に画像を映出し、外光が透過可能な表示部を備える頭部装着用表示装置を含む端末装置であって、
自装置の位置を示す第1の位置情報を取得する位置情報取得部と、
対象の位置を示す第2の位置情報を少なくとも含む対象情報を取得する対象情報取得部と、
前記第1の位置情報と前記第2の位置情報とに基づき、前記表示部の、前記第1の位置情報が示す位置を基準とした前記対象の方向に対応する位置に、前記対象を示すマーカ画像を表示させる表示制御部と、
を備える端末装置。
A terminal device including a head-mounted display device provided with a display unit capable of projecting an image on the eyeball and its periphery by being mounted on the head and transmitting external light,
A position information acquisition unit that acquires first position information indicating the position of the device;
A target information acquisition unit for acquiring target information including at least second position information indicating the position of the target;
Based on the first position information and the second position information, a marker indicating the target at a position corresponding to the direction of the target with respect to the position indicated by the first position information on the display unit A display control unit for displaying an image;
A terminal device comprising:
前記表示制御部は、
前記第1の位置情報と前記第2の位置情報とに基づき前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との距離を求め、前記マーカ画像を、該距離に応じた大きさで前記表示部に表示させる
請求項15に記載の端末装置。
The display control unit
A distance between the position indicated by the first position information and the position indicated by the second position information is obtained based on the first position information and the second position information, and the marker image is determined according to the distance. The terminal device according to claim 15, wherein the terminal device is displayed on the display unit with a predetermined size.
前記対象情報は、前記対象の属性情報をさらに含み、
前記表示制御部は、
前記対象の前記属性情報を含むラベルを、前記表示部の、前記第1の位置情報が示す位置を基準とした前記対象の方向に対応する位置にさらに表示させる
請求項15または請求項16に記載の端末装置。
The target information further includes attribute information of the target,
The display control unit
The label including the attribute information of the target is further displayed on the display unit at a position corresponding to the direction of the target with reference to the position indicated by the first position information. Terminal equipment.
前記表示制御部は、
前記第1の位置情報と前記第2の位置情報とに基づき前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との距離を求め、前記ラベルを、該ラベルに対応する前記マーカ画像に対して該距離に応じた間隔を開けて表示させる
請求項17に記載の端末装置。
The display control unit
A distance between the position indicated by the first position information and the position indicated by the second position information is obtained based on the first position information and the second position information, and the label corresponds to the label. The terminal device according to claim 17, wherein the marker image is displayed with an interval corresponding to the distance.
前記表示制御部は、
前記ラベルを、該ラベルの前記属性情報が表示される表示部分の背景を半透明として表示させる
請求項17または請求項18に記載の端末装置。
The display control unit
The terminal device according to claim 17 or 18, wherein the label is displayed as a translucent background of a display portion on which the attribute information of the label is displayed.
前記表示制御部は、
前記マーカ画像を、前記頭部の前後軸周りの傾きに応じた角度で前記表示部に表示させる
請求項15乃至請求項19の何れか1項に記載の端末装置。
The display control unit
The terminal device according to any one of claims 15 to 19, wherein the marker image is displayed on the display unit at an angle corresponding to an inclination of the head around a longitudinal axis.
前記表示制御部は、
前記マーカ画像を前記表示部に対して表示させるか否かを、所定の情報に従い制御する
請求項15乃至請求項20の何れか1項に記載の端末装置。
The display control unit
The terminal device according to claim 15, wherein whether or not to display the marker image on the display unit is controlled according to predetermined information.
前記表示制御部は、
前記頭部装着用表示装置を装着するユーザが静止状態であるか否かを推定し、該静止状態ではないと推定された場合に、前記マーカ画像を前記表示部に表示させない
請求項21に記載の端末装置。
The display control unit
The user who wears the head-mounted display device estimates whether or not the user is in a stationary state, and when it is estimated that the user is not in the stationary state, the marker image is not displayed on the display unit. Terminal equipment.
前記表示制御部は、
前記頭部装着用表示装置が装着される前記頭部が上向きに所定角度以上傾いているか否かを推定し、該頭部が該所定角度以上傾いていると推定された場合に、前記マーカ画像を前記表示部に表示させない
請求項21または請求項22に記載の端末装置。
The display control unit
It is estimated whether or not the head to which the head-mounted display device is mounted is tilted upward by a predetermined angle or more, and when it is estimated that the head is tilted by the predetermined angle or more, the marker image The terminal device according to claim 21, wherein the terminal device is not displayed on the display unit.
前記表示制御部は、
前記頭部が前記所定角度以上傾いていると推定された場合に、外部から取得した通知情報を前記表示部に表示させる
請求項23に記載の端末装置。
The display control unit
The terminal device according to claim 23, wherein notification information acquired from the outside is displayed on the display unit when the head is estimated to be inclined at the predetermined angle or more.
前記表示制御部は、
前記外部から前記通知情報が取得された場合に、該通知情報の取得を示す通知アイコンを前記表示部に表示させる
請求項24に記載の端末装置。
The display control unit
The terminal device according to claim 24, wherein a notification icon indicating acquisition of the notification information is displayed on the display unit when the notification information is acquired from the outside.
前記表示部は、透過率を制御可能な調光素子を含む
請求項15乃至請求項25の何れか1項に記載の端末装置。
The terminal device according to any one of claims 15 to 25, wherein the display unit includes a light control element capable of controlling transmittance.
複数の端末装置を含む情報共有システムであって、
前記複数の端末装置のうち少なくとも1の端末装置は、
頭部に装着することで眼球およびその周辺に画像を映出し、外光が透過可能な表示部を含む頭部装着用表示装置と、
自装置の位置を示す第1の位置情報を取得する位置情報取得部と、
前記第1の位置情報を送信する送信部と、
対象の位置を示す第2の位置情報を少なくとも含む対象情報を取得する対象情報取得部と、
前記第1の位置情報と前記第2の位置情報とに基づき、前記表示部の、前記第1の位置情報が示す位置を基準とした前記対象の方向に対応する位置に、前記対象を示すマーカ画像を表示させる表示制御部と、
を備える情報共有システム。
An information sharing system including a plurality of terminal devices,
At least one terminal device among the plurality of terminal devices is:
A head-mounted display device that includes a display unit that projects an image on the eyeball and its surroundings by being mounted on the head and is capable of transmitting external light;
A position information acquisition unit that acquires first position information indicating the position of the device;
A transmitter for transmitting the first position information;
A target information acquisition unit for acquiring target information including at least second position information indicating the position of the target;
Based on the first position information and the second position information, a marker indicating the target at a position corresponding to the direction of the target with respect to the position indicated by the first position information on the display unit A display control unit for displaying an image;
An information sharing system comprising:
JP2017038814A 2016-05-11 2017-03-01 Information sharing system, information sharing method, terminal device and information processing program Active JP6953744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/586,810 US10670421B2 (en) 2016-05-11 2017-05-04 Apparatus, system, and method of information sharing, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016095622 2016-05-11
JP2016095622 2016-05-11

Publications (2)

Publication Number Publication Date
JP2017208070A true JP2017208070A (en) 2017-11-24
JP6953744B2 JP6953744B2 (en) 2021-10-27

Family

ID=60415538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017038814A Active JP6953744B2 (en) 2016-05-11 2017-03-01 Information sharing system, information sharing method, terminal device and information processing program

Country Status (1)

Country Link
JP (1) JP6953744B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11143870B2 (en) 2017-02-17 2021-10-12 Ricoh Company, Ltd. Display apparatus and display method
CN115115393A (en) * 2022-05-26 2022-09-27 北京五八信息技术有限公司 User positioning sharing method, system, electronic equipment and storage medium
WO2024067786A1 (en) * 2022-09-29 2024-04-04 歌尔科技有限公司 Control method and apparatus for head-mounted display device, and electronic device and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118685A (en) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd Display device, image information management device, terminal unit and system, image search method, database constructing method, and photographing device
JP2006276380A (en) * 2005-03-29 2006-10-12 Hitachi Ltd Group member position information sharing system, server device and portable terminal thereof
JP2014164673A (en) * 2013-02-27 2014-09-08 Imagenics Co Ltd Information processing terminal, information processing method and information processing program
JP2016039599A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Head-mounted display device, information system, head-mounted display device control method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118685A (en) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd Display device, image information management device, terminal unit and system, image search method, database constructing method, and photographing device
JP2006276380A (en) * 2005-03-29 2006-10-12 Hitachi Ltd Group member position information sharing system, server device and portable terminal thereof
JP2014164673A (en) * 2013-02-27 2014-09-08 Imagenics Co Ltd Information processing terminal, information processing method and information processing program
JP2016039599A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Head-mounted display device, information system, head-mounted display device control method, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11143870B2 (en) 2017-02-17 2021-10-12 Ricoh Company, Ltd. Display apparatus and display method
CN115115393A (en) * 2022-05-26 2022-09-27 北京五八信息技术有限公司 User positioning sharing method, system, electronic equipment and storage medium
WO2024067786A1 (en) * 2022-09-29 2024-04-04 歌尔科技有限公司 Control method and apparatus for head-mounted display device, and electronic device and storage medium

Also Published As

Publication number Publication date
JP6953744B2 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
US10670421B2 (en) Apparatus, system, and method of information sharing, and recording medium
US11231897B2 (en) Display system, display device, information display method, and program
US11558711B2 (en) Precision 6-DoF tracking for wearable devices
JP6476643B2 (en) Head-mounted display device, information system, head-mounted display device control method, and computer program
KR20180099484A (en) Display device and control method thereof
CN110060614B (en) Head-mounted display device, control method thereof, and display system
US20150193977A1 (en) Self-Describing Three-Dimensional (3D) Object Recognition and Control Descriptors for Augmented Reality Interfaces
JP6590050B2 (en) Display device, display system, display device control method, and program
EP4244703B1 (en) IDENTIFICATION OF THE POSITION OF A CONTROLLERABLE DEVICE USING A WEARABLE DEVICE
US20160070101A1 (en) Head mounted display device, control method for head mounted display device, information system, and computer program
US20250191123A1 (en) Eyewear synchronized with uav image capturing system
US20260024291A1 (en) Contextual visual and voice search from electronic eyewear device
JP2016130985A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP6953744B2 (en) Information sharing system, information sharing method, terminal device and information processing program
CN119923614A (en) AR glasses as IOT remote control
US20220373796A1 (en) Extended field-of-view capture of augmented reality experiences
CN120569697A (en) AR glasses as IOT devices for enhanced screen experience
US20240397033A1 (en) Hyper-connected and synchronized ar glasses
US12205594B2 (en) Voice-controlled settings and navigation
JP2017062650A (en) Display system, display unit, information display method, and program
CN119790373A (en) Extending the user interface of mobile applications to AR glasses
JP6828235B2 (en) Head-mounted display device, how to share the display of the head-mounted display device, computer program
US12314465B2 (en) Eyewear controlling an UAV
WO2024057783A1 (en) Information processing device provided with 360-degree image viewpoint position identification unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R151 Written notification of patent or utility model registration

Ref document number: 6953744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151