JP2008076734A - Glasses device and image generation method - Google Patents
Glasses device and image generation method Download PDFInfo
- Publication number
- JP2008076734A JP2008076734A JP2006255625A JP2006255625A JP2008076734A JP 2008076734 A JP2008076734 A JP 2008076734A JP 2006255625 A JP2006255625 A JP 2006255625A JP 2006255625 A JP2006255625 A JP 2006255625A JP 2008076734 A JP2008076734 A JP 2008076734A
- Authority
- JP
- Japan
- Prior art keywords
- eyeglass device
- unit
- visual field
- display unit
- angular velocity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 28
- 239000011521 glass Substances 0.000 title 1
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 230000000007 visual effect Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 31
- 238000005259 measurement Methods 0.000 claims description 12
- 239000000872 buffer Substances 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Telescopes (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、視野内にある観察対象物を拡大して見ることができる眼鏡装置及び当該眼鏡
装置における画像生成方法に関する。
The present invention relates to a spectacle device capable of magnifying an observation object in a visual field and an image generation method in the spectacle device.
特許文献1には、観察対象物と、地図情報と、を見ることのできる双眼鏡等の特殊眼鏡
に関する技術が記載されている。
特許文献1に記載されている技術は、眼鏡視野内において、観察対象物に平面状の地図
情報を切り替えて、または、重ね合わせて表示するようにしている。
In the technique described in
従来の技術では、眼鏡視野内において、観察対象物に平面状の地図情報を切り替えて、
または、重ね合わせて表示しているだけなので、観察対象物と地図情報との対応が不明確
で、眼鏡装置で見えている観察対象物に関する情報を正確に認識することができない。
In the conventional technique, in the spectacle field of view, switching the planar map information to the observation object,
Or, since they are only displayed in a superimposed manner, the correspondence between the observation object and the map information is unclear, and information relating to the observation object that is visible with the eyeglass device cannot be accurately recognized.
そこで、本発明は、眼鏡装置を介して見えている観察対象物に関する情報を正確に認識
することができるようにすることを目的とする。
Therefore, an object of the present invention is to make it possible to accurately recognize information related to an observation object that is visible through an eyeglass device.
以上の課題を解決するため、本発明は、視野内にある観察対象物を拡大して見ることが
できる眼鏡装置であって、少なくとも前記視野を含む領域を撮像する撮像部と、角速度を
計測するジャイロセンサと、位置を計測する位置計測部と、対象物の位置を特定する情報
を記憶する記憶部と、表示部と、前記位置計測部で計測された現在の位置と、前記ジャイ
ロセンサにより取得される角速度と、を用いて視野範囲を特定する処理、および、前記視
野範囲に位置する前記対象物に関連する関連情報を前記撮像部で撮像された画像に付加し
て前記表示部に表示する処理、を行う処理部と、を備えること、を特徴とする眼鏡装置を
提供する。
In order to solve the above problems, the present invention is an eyeglass device capable of magnifying an observation object in a visual field, and measures an angular velocity and an imaging unit that captures an area including at least the visual field Acquired by the gyro sensor, a position measurement unit for measuring the position, a storage unit for storing information for specifying the position of the object, a display unit, a current position measured by the position measurement unit, and the gyro sensor Processing to specify the visual field range using the angular velocity to be used, and related information related to the object located in the visual field range is added to the image captured by the imaging unit and displayed on the display unit And a processing unit for performing the processing.
ここで、前記処理部は、前記位置計測部で計測された現在の位置、および、前記角速度
センサにより取得される角速度、から視野方向を特定し、前記視野方向における視野の到
達範囲により前記視野範囲を特定するようにすることも可能である。
Here, the processing unit specifies a visual field direction from the current position measured by the position measurement unit and the angular velocity acquired by the angular velocity sensor, and the visual field range is determined based on a visual field arrival range in the visual field direction. It is also possible to specify.
また、前記処理部は、前記視野範囲内に位置する前記対象物のうち、他の対象物により
遮蔽されるものに関連する関連情報は前記表示部に表示しないようにすることも可能であ
る。
Further, the processing unit may be configured not to display related information related to an object shielded by another object among the objects located within the visual field range on the display unit.
また、前記記憶部には、前記対象物の高さを特定する情報が記憶されており、前記処理
部は、前記視野範囲内に位置する一の対象物が、他の対象物の後方において予め定めた範
囲にあり、かつ、前記位置計測部で計測された現在の位置から、前記一の対象物の位置へ
の鉛直角が、前記他の対象物の位置への鉛直角よりも小さい場合には、遮蔽されるものと
判断するようにすることも可能である。
In addition, the storage unit stores information for specifying the height of the object, and the processing unit is configured so that one object located within the field of view is in advance behind another object. When the vertical angle from the current position measured by the position measurement unit to the position of the one object is smaller than the vertical angle to the position of the other object It is also possible to determine that it is shielded.
また、前記表示部は、前記眼鏡装置の設けられているレンズとは別個に設けられている
ようにすることも可能である。
Further, the display unit may be provided separately from the lens provided with the spectacle device.
また、前記表示部は、前記眼鏡装置に設けられているレンズを介してみることができる
ようにすることも可能である。
The display unit can be viewed through a lens provided in the eyeglass device.
また、本発明は、対象物の位置を特定する情報を記憶する記憶部と、表示部と、を備え
、視野内にある観察対象物を拡大して見ることができる眼鏡装置において前記表示部で表
示する表示画像を生成する画像生成方法であって、少なくとも前記視野を含む領域を撮像
する撮像過程と、角速度を計測する角速度計測過程と、位置を計測する位置計測過程と、
前記位置計測過程で計測された現在の位置と、前記角速度計測過程により取得される角速
度と、を用いて視野範囲を特定する視野範囲特定過程と、前記視野範囲に位置する前記対
象物に関連する関連情報を前記記憶部から抽出し、前記撮像部で撮像された画像に付加す
ることで前記表示部に表示する画像を生成する画像生成過程と、を備えること、を特徴と
する画像生成方法を提供する。
In addition, the present invention provides a storage unit that stores information for specifying the position of an object and a display unit, and the display unit uses the display unit in an eyeglass device capable of magnifying an observation object in a field of view. An image generation method for generating a display image to be displayed, the imaging process for imaging an area including at least the visual field, an angular velocity measurement process for measuring an angular velocity, a position measurement process for measuring a position,
A visual field range identifying process for identifying a visual field range using a current position measured in the position measuring process and an angular velocity acquired by the angular velocity measuring process, and the object located in the visual field range. An image generation method comprising: generating an image to be displayed on the display unit by extracting related information from the storage unit and adding the extracted information to the image captured by the imaging unit. provide.
以上のように、本発明によれば、眼鏡装置を介して見えている観察対象物に関する情報
を正確に認識することができる。
As described above, according to the present invention, it is possible to accurately recognize information related to an observation object that is visible through the eyeglass device.
図1は、本発明の第一の実施形態である眼鏡装置100の斜視図である。
FIG. 1 is a perspective view of a
図示するように、眼鏡装置100は、筐体101に、対物レンズ102と、接眼レンズ
(筐体101の背面にあるため図示せず)103と、表示部105と、が設けられている
。
As shown in the figure, the
また、図2(眼鏡装置100の概略図)に示されているように、筐体101の内部には
、プリズム104と、ハーフミラー106と、ジャイロセンサ107と、GPS(Global
Positioning System)ユニット108と、アンテナ109と、処理部110と、が設け
られている。
As shown in FIG. 2 (schematic diagram of the eyeglass device 100), the
Positioning System)
筐体101の一方に取り付けている対物レンズ102と、他方に取り付けられている接
眼レンズ103と、プリズム104により、対物レンズ102の遠方にある観察対象物を
接眼レンズ103側から所定の倍率で観察することができるようにされている。
An object to be observed far from the
ここで、本実施形態においては、対物レンズ102と、接眼レンズ103と、の間に、
ハーフミラー106が設けられており、対物レンズ102を介して筐体101内に入り込
んできた光の一部を処理部110の撮像部111に入力することができるようにしている
。
Here, in the present embodiment, between the
A
そして、表示部105は、処理部110から出力される画像データの表示を行う。ここ
で、表示部105としては、液晶ディスプレイ等を用いればよい。
The
ジャイロセンサ107は、三軸における角速度を検出して処理部110に出力する。例
えば、ジャイロセンサ107として、三軸の振動型マイクロジャイロセンサを使用すれば
よい。
The
GPSユニット108は、GPS衛星からの電波の到達時間を計測することで、緯度、
経度、および、高度を算出する。なお、これらの算出方法については公知の技術であるの
で、詳細な説明を省略する。
The
Calculate longitude and altitude. Since these calculation methods are known techniques, detailed description thereof is omitted.
そして、GPSユニット108は、算出した緯度、経度、および、高度を処理部110
に出力する。
Then, the
Output to.
処理部110は、図2に示されているように、撮像部111と、A/D変換部112と
、画像処理部113と、バッファ114と、記憶部115と、CPU(Central Processi
ng Unit)116と、入力部117と、を備えている。
As shown in FIG. 2, the processing unit 110 includes an
ng Unit) 116 and an
撮像部111は、ハーフミラー106を介して入力される光の明暗を電気信号に変換す
るもので、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Compl
ementary Metal Oxide Semiconductor)センサを使用する。
The
ementary Metal Oxide Semiconductor) sensor.
A/D変換部112は、撮像部111の出力であるアナログ画像信号をサンプリングし
てデジタル画像信号に変換する。
The A /
画像処理部113は、A/D変換部112から得られるデジタル画像信号に、CPUか
らの指令に応じて、指令に含まれる表示位置に所定の関連情報を付加した表示画像信号を
生成する。
In response to a command from the CPU, the
また、画像処理部113では、その他に、A/D変換部112から得られるデジタル画
像信号のノイズ除去などの各種補正処理も行う。
In addition, the
バッファ114は、画像処理部113で処理されたデジタル画像信号を一時的に記憶し
、所定のタイミングで表示部105に出力する。
The
記憶部115には、表示部105に関連情報を表示する対象物に関する情報が記憶され
る。
The
例えば、記憶部115には、図3(対象物テーブル115aの概略図)に示すような対
象物テーブル115aが記憶される。
For example, the
対象物テーブル115aは、図示するように、ID欄115bと、緯度欄115cと、
経度欄115dと、高度欄115eと、属性欄115fと、関連情報欄115gと、が設
けられている。
The object table 115a includes an
A
ID欄115bには、表示部105に関連情報を表示する対象物を識別するための識別
情報が格納される。
In the
緯度欄115cには、ID欄115bで識別される対象物の緯度を特定する情報が記憶
される。
In the
ここで、この経度欄115cには、対象物に含まれる任意の一点の緯度を格納しておけ
ばよい。例えば、対象物が山であれば、その山の頂点(頂上)位置の緯度を格納しておけ
ばよく、また、対象物が建物であれば、その建物の屋上の中心位置の緯度を格納しておけ
ばよく、さらに、対象物が湖沼であれば、その湖沼の中心位置の緯度を格納しておけばよ
い。
Here, the
経度欄115dと、ID欄115bで識別される対象物の経度を特定する情報が記憶さ
れる。
Information specifying the longitude of the object identified in the
ここで、この経度欄115dには、対象物に含まれる任意の一点の経度を格納しておけ
ばよい。例えば、対象物が山であれば、その山の頂点(頂上)位置の経度を格納しておけ
ばよく、また、対象物が建物であれば、その建物の屋上の中心位置の経度を格納しておけ
ばよく、さらに、対象物が湖沼であれば、その湖沼の中心位置の経度を格納しておけばよ
い。
Here, the
高度欄115eには、ID欄115bで識別される対象物の高度を特定する情報が記憶
される。
In the
ここで、この高度欄115dには、対象物に含まれる任意の一点の高度を格納しておけ
ばよい。例えば、対象物が山であれば、その山の頂点(頂上)位置の高度を格納しておけ
ばよく、また、対象物が建物であれば、その建物の屋上の中心位置の高度を格納しておけ
ばよく、さらに、対象物が湖沼であれば、その湖沼の中心位置の高度を格納しておけばよ
い。
Here, the
属性情報欄115fには、ID欄115bで識別される対象物の属性を特定する情報が
格納される。例えば、本実施形態においては、このような属性として、山、建物及び湖沼
を識別するための属性IDが格納される。
The
関連情報欄115gには、表示部105に表示する対象物の関連情報が格納される。例
えば、対象物の名称や高さ等に関する情報が格納される。
In the
CPU116は、GPSユニット108から得られる眼鏡装置100の位置情報と、ジ
ャイロセンサ107から得られる角速度情報と、から眼鏡装置100の視野範囲を特定し
、特定した視野範囲に含まれる対象物を記憶部115に記憶されている対象物テーブル1
15aから特定して、特定した対象物の関連情報を画像処理部113に送る。
The
The related information of the specified object is sent to the
具体的には、CPU116は、GPSユニット108から得られる眼鏡装置100の緯
度、経度及び高度から、眼鏡装置100の位置を特定する。
Specifically, the
そして、CPU116は、ジャイロセンサ107から得られる角速度情報を積分して、
変位角を算出して、眼鏡装置100の傾きを算出する。このようにして算出された傾きか
ら眼鏡装置100の光軸の延長方向(視野方向)を特定する。そして、このような延長方
向(視野方向)、眼鏡装置100の倍率及び視野から、CPU116は、緯度、経度及び
高度からなる三次元の視野範囲を特定する。
Then, the
The displacement angle is calculated, and the inclination of the
次に、CPU116は、対象物テーブル115aに格納されている経度、緯度及び高度
がこの視野範囲に含まれる対象物を特定する。
Next, the
そして、CPU116は、特定した一の対象物が、特定した他の対象物によって遮蔽さ
れるか否かを検出する。
Then, the
例えば、特定した一の対象物よりも眼鏡装置100に近い位置に存在する他の対象物を
抽出し、その抽出した他の対象物の属性が「山」及び「建物」の場合には、その山又は建
物の後方の予め定められた範囲に特定した一の対象物があり、かつ、眼鏡装置100の位
置から当該一の対象物の位置への鉛直角が、当該他の対象物の鉛直角よりも大きい場合に
は、当該一の対象物は遮蔽されないものとして、表示対象とする。
For example, when another object existing at a position closer to the
このようにして表示対象とした対象物の緯度、経度及び高度から、CPU116は、表
示部105に表示する画像における対象物の表示位置を算出し、当該表示位置と関連情報
とを画像処理部113に出力する。
The
なお、対象物の表示位置については、対象物の緯度及び経度から、表示部105に表示
する画像における対象物の水平方向の位置とし、対象物の高度よりも予め定められた距離
だけ上方に離れた位置を垂直方向の位置とすることが望ましい。
Note that the display position of the object is the position in the horizontal direction of the object in the image displayed on the
そして、画像処理部113は、CPU116から出力された表示位置に関連情報を組み
込むことで、表示画像信号を生成して、バッファ114に出力する。
Then, the
バッファ114に出力された表示画像信号は、所定のタイミングで表示部105に出力
され、表示部105において表示画像信号に基づいて画像が表示される。例えば、表示部
105では、図4(表示部105での表示例を示す概略図)に示すように、撮像部111
で撮像された撮像画像に関連情報を付加した表示画像を表示する。ここで、図4では、山
の名称と高さ及び湖の名称が所定の位置に表示されている。
The display image signal output to the
A display image in which related information is added to the captured image captured in step (b) is displayed. Here, in FIG. 4, the name and height of the mountain and the name of the lake are displayed at predetermined positions.
入力部117は、ユーザから表示部106の電源のオン又はオフを入力するためのユー
ザインタフェースである。
The
以上のように構成される本実施形態における眼鏡装置100の処理フローを図5に示す
フローチャートを用いて説明する。
A processing flow of the
まず、CPU116は、GPSユニット108から得られる眼鏡装置100の緯度、経
度及び高度から、眼鏡装置100の位置を検出する(S10)。
First, the
次に、CPU116は、ジャイロセンサ107から得られる角速度情報を積分して、変
位角を算出して、眼鏡装置100の傾きを算出することで、眼鏡装置100の視野方向を
検出する(S11)。
Next, the
次に、CPU116は、ステップS10で検出した眼鏡装置100の位置と、ステップ
S11で検出した眼鏡装置100の視野方向と、眼鏡装置100の倍率及び視野と、から
、眼鏡装置100の視野範囲を特定する(S12)。
Next, the
例えば、CPU116は、図6(視野範囲T1を説明するための斜視図)に示されてい
るように、ステップS10で検出した眼鏡装置100の位置P1、ステップS11で検出
した眼鏡装置100の視野方向D1と、眼鏡装置100の倍率及び視野と、から、眼鏡装
置100で視認することができる限界位置である到達範囲S1を眼鏡装置100の位置P
1から等距離である緯度、経度及び高度で算出し、眼鏡装置100の位置P1から到達範
囲S1までの立体的な領域T1を視野範囲とする。
For example, as shown in FIG. 6 (perspective view for explaining the visual field range T1), the
The three-dimensional area T1 from the position P1 of the
なお、到達範囲S1については、眼鏡装置100の性能(倍率及び視野)に応じて、眼
鏡装置100の位置P1からの距離及び範囲を予め適宜定めておけばよい。
For the reach range S1, the distance and range from the position P1 of the
次に、CPU116は、記憶部115の対象物テーブル115aに格納されている経度
、緯度及び高度がステップS12で特定した視野範囲T1に含まれる対象物を特定する(
S13)。
Next, the
S13).
そして、CPU116は、ステップS13で特定した対象物であって、未確認のものを
一つ抽出し(S14)、ステップS14で抽出した対象物が、他の対象物で遮蔽されるか
否かを判断する(S15)。
The
例えば、遮蔽されるか否かは、ステップS12で特定した視野範囲において、ステップ
S13で特定した対象物よりも眼鏡装置100に近い位置にある他の対象物であって、当
該他の対象物の属性が「山」及び「建物」であり、かつ、ステップS13で特定した対象
物が当該他の対象物の後方において予め定めた範囲内にあり、さらに、眼鏡装置100の
位置から当該一の対象物の位置への鉛直角が、当該他の対象物の位置への鉛直角よりも小
さい場合には、遮蔽されるものと判断する。
For example, whether or not it is shielded is another object in a position closer to the
そして、ステップS15において、遮断されないと判断された場合には、ステップS1
6に進み、遮蔽されると判断された場合には、ステップS18に進む。
In step S15, if it is determined that it is not blocked, step S1
If it is determined to be shielded, the process proceeds to step S18.
ステップS16では、CPU116は、表示部105に表示する画像における対象物の
表示位置を算出する。
In step S <b> 16, the
この表示位置については、対象物の緯度及び経度から、表示部105に表示する画像に
おける対象物の水平方向の表示位置とし、また、対象物の高度よりも予め定められた距離
だけ上方に離れた位置を垂直方向の表示位置とする。
The display position is the horizontal display position of the object in the image displayed on the
そして、CPU116は、記憶部115の対象物テーブル115aから、ステップS1
5で遮蔽されないと判断された対象物の関連情報を取得し(S17)、ステップS18に
進む。
Then, the
The related information of the object determined not to be shielded at 5 is acquired (S17), and the process proceeds to step S18.
そして、ステップS18では、CPU116は、ステップS13で特定した対象物に未
確認のものがあるか否かを確認し、未確認のものがある場合には、ステップS14に戻っ
て処理を繰り返す。
In step S18, the
一方、ステップS18において、未確認のものがない場合には、CPU116は、ステ
ップS16で算出した表示位置にステップS17で取得した関連情報を表示するよう画像
処理部113に指令を出し、画像処理部113では、A/D変換部112から出力された
画像データの表示位置に関連情報を組み込むことで、表示画像信号を生成して、バッファ
114に出力して、表示部105で表示する(S19)。
On the other hand, if there is no unconfirmed item in step S18, the
本実施形態を以上のように構成したので、例えば、眼鏡装置100において、接眼レン
ズ103で見た景色と同様の景色を表示部105において見ることができ、また、表示部
105には、対象物の名前等の関連情報が表示されるため、明確に対象物を把握すること
ができる。
Since the present embodiment is configured as described above, for example, in the
以上に記載した実施形態においては、対物レンズ102から導入した光をハーフミラー
106で撮像部111に入射するようにしているがこのような態様に限定されるわけでは
なく、例えば、図7(眼鏡装置100の変形例を示す概略図)に示されているように、撮
像レンズ120を別に設けて、撮像レンズ120を介して撮像部111に光を入射するこ
とも可能である。
In the embodiment described above, the light introduced from the
以上に記載した実施形態においては、表示部105を筐体101に固定的に設けている
が、このような態様に限定されず、例えば、筐体101に対してヒンジを介して回動自在
に連結することも可能である。
In the embodiment described above, the
図8は、本発明の第二の実施形態である眼鏡装置200の斜視図である。
FIG. 8 is a perspective view of the
第一の実施形態においては、接眼レンズ103を介して視認した対象物の関連情報を表
示部105で確認することができるようにしているが、本実施形態においては、表示部2
05に表示された画像を拡大レンズ221を介して見ることができるようにしている点で
異なっている。以下、詳述する。
In the first embodiment, related information of an object viewed through the
The difference is that the image displayed in 05 can be viewed through the magnifying
図示するように、眼鏡装置200は、筐体101に、撮像レンズ220と、拡大レンズ
(筐体101の背面にあるため図示せず)221と、が設けられており、第一の実施形態
と比較すると、二つの対物レンズ102の代わりに一つの撮像レンズ220が設けられて
おり、また、接眼レンズ103の代わりに拡大レンズ221が設けられており、さらに、
筐体101の外側には表示部105が設けられていない点で異なっている。
As shown in the figure, the
The difference is that the
なお、後述のように、本実施形態では、表示部205は、筐体101の内側に設けられ
ている。
As will be described later, in this embodiment, the
また、本実施形態では、拡大レンズ221において、表示部205に表示される画像を
見るようにしているため、対物レンズ及び接眼レンズは必要なく、また、撮像部111は
、撮像レンズ220から光を受光するようにしている。
In the present embodiment, since the magnifying
図9(眼鏡装置200の概略図)に示されているように、筐体101の内部には、拡大
レンズ221側に配置されたミラー222と、ジャイロセンサ107と、GPSユニット
108と、アンテナ109と、処理部110と、表示部205と、が設けられている。
As shown in FIG. 9 (schematic diagram of the eyeglass device 200), inside the
ここで、第一の実施形態と比較すると、拡大レンズ221側に配置されたミラー222
、および、表示部205、が異なっているため、以下、これらに関連する事項について説
明する。
Here, compared with the first embodiment, the
Since the
本実施形態における表示部205は、筐体101の内部に収納されている。ここで、表
示部205自体は、第一の実施形態と同様に、液晶ディスプレイ等により構成することが
できるが、本実施形態では拡大レンズ221で拡大して視認することができるため、より
小型のものを使用することができる。
The
ミラー222は、拡大レンズ221側に配置されており、表示部205に表示されてい
る画像を拡大レンズ221の方向に反射させるものである。
The
以上のように本実施形態に係る眼鏡装置200を構成したので、眼鏡装置200のユー
ザは、拡大レンズ221から眼鏡装置200の内部を覗くことにより、所定の関連情報が
付加された画像を見ることができるため、対象物を正確に把握することが可能である。
Since the
また、双眼鏡で眺めているのと同様の使用方法で関連情報を確認することができ、使用
感に優れる。
In addition, related information can be confirmed using the same method of use as when viewing with binoculars, and the feeling of use is excellent.
なお、本実施形態においては、一つの撮像部111で受光した画像データを二つの拡大
レンズ221を介して見ることができるようにしているが、より使用感を向上させるため
、図10(眼鏡装置200の変形例を示す概略図)に示されているように、撮像レンズ2
20,撮像部111、A/D変換部112、画像処理部113、バッファ114及び表示
部205をそれぞれ二つずつ設けておき、左右それぞれの拡大レンズ221で左右それぞ
れの画像を見ることができるようにすることも可能である。
In this embodiment, the image data received by one
20, two
また、以上に記載した実施形態では、双眼鏡型の眼鏡装置200としているが、このよ
うな態様に限定されずに、例えば、図11(眼鏡装置200の変形例を示す概略図)に示
されているように、一つの拡大レンズ221で表示部205に表示された画像を見る単眼
鏡型にすることも可能である。
In the embodiment described above, the
100、200 眼鏡装置
101 筐体
102 対物レンズ
103 接眼レンズ
104 プリズム
105、205 表示部
106 ハーフミラー
107 ジャイロセンサ
108 GPSユニット
109 アンテナ
110 処理部
111 光源変換部
112 A/D変換部
113 画像処理部
114 バッファ
115 記憶部
116 CPU
117 入力部
120、220 撮像レンズ
221 拡大レンズ
222 ミラー
100, 200
117
Claims (7)
少なくとも前記視野を含む領域を撮像する撮像部と、
角速度を計測するジャイロセンサと、
位置を計測する位置計測部と、
対象物の位置を特定する情報を記憶する記憶部と、
表示部と、
前記位置計測部で計測された現在の位置と、前記ジャイロセンサにより取得される角速
度と、を用いて視野範囲を特定する処理、および、前記視野範囲に位置する前記対象物に
関連する関連情報を前記撮像部で撮像された画像に付加して前記表示部に表示する処理、
を行う処理部と、を備えること、
を特徴とする眼鏡装置。 An eyeglass device capable of magnifying an observation object in a field of view,
An imaging unit for imaging an area including at least the visual field;
A gyro sensor that measures angular velocity;
A position measurement unit for measuring the position;
A storage unit for storing information for specifying the position of the object;
A display unit;
Processing for specifying a visual field range using the current position measured by the position measurement unit and the angular velocity acquired by the gyro sensor, and related information related to the object located in the visual field range Processing for adding to the image captured by the imaging unit and displaying the image on the display unit;
A processing unit for performing
An eyeglass device characterized by the above.
前記処理部は、前記位置計測部で計測された現在の位置、および、前記角速度センサに
より取得される角速度、から視野方向を特定し、前記視野方向における視野の到達範囲に
より前記視野範囲を特定すること、
を特徴とする眼鏡装置。 The eyeglass device according to claim 1,
The processing unit identifies a visual field direction from the current position measured by the position measurement unit and the angular velocity acquired by the angular velocity sensor, and identifies the visual field range according to a visual field arrival range in the visual field direction. thing,
An eyeglass device characterized by the above.
前記処理部は、
前記視野範囲内に位置する前記対象物のうち、他の対象物により遮蔽されるものに関連
する関連情報は前記表示部に表示しないこと、
を特徴とする眼鏡装置。 The eyeglass device according to claim 1 or 2,
The processor is
Relevant information related to what is shielded by other objects among the objects located within the visual field range is not displayed on the display unit,
An eyeglass device characterized by the above.
前記記憶部には、前記対象物の高さを特定する情報が記憶されており、
前記処理部は、
前記視野範囲内に位置する一の対象物が、他の対象物の後方において予め定めた範囲に
あり、かつ、前記位置計測部で計測された現在の位置から、前記一の対象物の位置への鉛
直角が、前記他の対象物の位置への鉛直角よりも小さい場合には、遮蔽されるものと判断
すること、
を特徴とする眼鏡装置。 The eyeglass device according to claim 3,
Information for specifying the height of the object is stored in the storage unit,
The processor is
One object located within the field of view is in a predetermined range behind the other object, and the current position measured by the position measurement unit is changed to the position of the one object. If the vertical angle is smaller than the vertical angle to the position of the other object, it is determined to be shielded;
An eyeglass device characterized by the above.
前記表示部は、前記眼鏡装置の設けられているレンズとは別個に設けられていること、
を特徴とする眼鏡装置。 The eyeglass device according to any one of claims 1 to 4,
The display unit is provided separately from a lens provided with the eyeglass device;
An eyeglass device characterized by the above.
前記表示部は、前記眼鏡装置に設けられているレンズを介してみることができるように
されていること、
を特徴とする眼鏡装置。 The eyeglass device according to any one of claims 1 to 4,
The display unit can be viewed through a lens provided in the eyeglass device;
An eyeglass device characterized by the above.
察対象物を拡大して見ることができる眼鏡装置において前記表示部で表示する表示画像を
生成する画像生成方法であって、
少なくとも前記視野を含む領域を撮像する撮像過程と、
角速度を計測する角速度計測過程と、
位置を計測する位置計測過程と、
前記位置計測過程で計測された現在の位置と、前記角速度計測過程により取得される角
速度と、を用いて視野範囲を特定する視野範囲特定過程と、
前記視野範囲に位置する前記対象物に関連する関連情報を前記記憶部から抽出し、前記
撮像部で撮像された画像に付加することで前記表示部に表示する画像を生成する画像生成
過程と、を備えること、
を特徴とする画像生成方法。 A storage unit that stores information for specifying the position of an object and a display unit, and generates a display image to be displayed on the display unit in an eyeglass device that can enlarge and view an observation object in the field of view An image generation method for
An imaging process for imaging an area including at least the visual field;
Angular velocity measurement process for measuring angular velocity,
A position measurement process for measuring the position;
A visual field range specifying process for specifying a visual field range using the current position measured in the position measuring process and the angular velocity acquired by the angular velocity measuring process;
An image generation process for generating an image to be displayed on the display unit by extracting related information related to the object located in the visual field range from the storage unit and adding the extracted information to the image captured by the imaging unit; Providing
An image generation method characterized by the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006255625A JP2008076734A (en) | 2006-09-21 | 2006-09-21 | Glasses device and image generation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006255625A JP2008076734A (en) | 2006-09-21 | 2006-09-21 | Glasses device and image generation method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008076734A true JP2008076734A (en) | 2008-04-03 |
Family
ID=39348854
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006255625A Withdrawn JP2008076734A (en) | 2006-09-21 | 2006-09-21 | Glasses device and image generation method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008076734A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011096561A1 (en) * | 2010-02-08 | 2011-08-11 | 株式会社ニコン | Imaging device, information acquisition system, and program |
| JP2012080236A (en) * | 2010-09-30 | 2012-04-19 | Hitachi Solutions Ltd | Electronic device, and method and program for displaying captured image area with information |
| JP2012222698A (en) * | 2011-04-12 | 2012-11-12 | Sharp Corp | Visual recognition switching glasses, display control device, control program and computer-readable recording medium |
| CN113534715A (en) * | 2021-07-21 | 2021-10-22 | 歌尔科技有限公司 | Intelligent wearable device, and control method and system of target device |
-
2006
- 2006-09-21 JP JP2006255625A patent/JP2008076734A/en not_active Withdrawn
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017200208A (en) * | 2010-02-08 | 2017-11-02 | 株式会社ニコン | Imaging apparatus, information acquisition system, and program |
| US10452914B2 (en) | 2010-02-08 | 2019-10-22 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| US12125276B2 (en) | 2010-02-08 | 2024-10-22 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| JPWO2011096561A1 (en) * | 2010-02-08 | 2013-06-13 | 株式会社ニコン | Imaging apparatus, information acquisition system, and program |
| EP2536124A4 (en) * | 2010-02-08 | 2015-01-14 | Nikon Corp | IMAGING DEVICE, INFORMATION ACQUIRING SYSTEM, AND PROGRAM |
| US9420251B2 (en) | 2010-02-08 | 2016-08-16 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| JP2016192767A (en) * | 2010-02-08 | 2016-11-10 | 株式会社ニコン | Imaging apparatus, information acquisition system, and program |
| US9756253B2 (en) | 2010-02-08 | 2017-09-05 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| US11741706B2 (en) | 2010-02-08 | 2023-08-29 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| CN112565552A (en) * | 2010-02-08 | 2021-03-26 | 株式会社尼康 | Imaging device, information acquisition system, and program |
| WO2011096561A1 (en) * | 2010-02-08 | 2011-08-11 | 株式会社ニコン | Imaging device, information acquisition system, and program |
| US11048941B2 (en) | 2010-02-08 | 2021-06-29 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| US11455798B2 (en) | 2010-02-08 | 2022-09-27 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
| JP2012080236A (en) * | 2010-09-30 | 2012-04-19 | Hitachi Solutions Ltd | Electronic device, and method and program for displaying captured image area with information |
| JP2012222698A (en) * | 2011-04-12 | 2012-11-12 | Sharp Corp | Visual recognition switching glasses, display control device, control program and computer-readable recording medium |
| CN113534715A (en) * | 2021-07-21 | 2021-10-22 | 歌尔科技有限公司 | Intelligent wearable device, and control method and system of target device |
| CN113534715B (en) * | 2021-07-21 | 2023-01-24 | 歌尔科技有限公司 | Intelligent wearable device, and control method and system of target device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN104765445B (en) | Eye vergence detection on a display | |
| CN104848863B (en) | Generate an augmented view of the location of interest | |
| EP3407302B1 (en) | Information processing device, information processing method, and recording medium | |
| EP3149698B1 (en) | Method and system for image georegistration | |
| US9401050B2 (en) | Recalibration of a flexible mixed reality device | |
| JPH09210686A (en) | Observation device | |
| WO2005124594A1 (en) | Automatic, real-time, superimposed labeling of points and objects of interest within a view | |
| JP7507522B2 (en) | Apparatus and method for augmented reality - Patents.com | |
| WO2019087491A1 (en) | Information processing apparatus, information processing method, and program | |
| JP2005351850A (en) | Surveying instrument | |
| US12075168B2 (en) | Portable device | |
| CN103312958A (en) | Client terminal, server, and program | |
| JPH11211993A (en) | Information display device | |
| US11921286B2 (en) | Lens array for shifting perspective of an imaging system | |
| JP6444981B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2008076734A (en) | Glasses device and image generation method | |
| WO2016157923A1 (en) | Information processing device and information processing method | |
| JP5649842B2 (en) | Information providing apparatus, information providing method, and program | |
| JPH09113815A (en) | Special spectacles | |
| JPH11331731A (en) | Head mounted image display device and image display method thereof | |
| JP2011123152A (en) | Telescope and telescope system | |
| JP2011227759A (en) | Image display device and program | |
| JP2004356769A (en) | Scenery display apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20091201 |