[go: up one dir, main page]

JP2008076734A - Glasses device and image generation method - Google Patents

Glasses device and image generation method Download PDF

Info

Publication number
JP2008076734A
JP2008076734A JP2006255625A JP2006255625A JP2008076734A JP 2008076734 A JP2008076734 A JP 2008076734A JP 2006255625 A JP2006255625 A JP 2006255625A JP 2006255625 A JP2006255625 A JP 2006255625A JP 2008076734 A JP2008076734 A JP 2008076734A
Authority
JP
Japan
Prior art keywords
eyeglass device
unit
visual field
display unit
angular velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006255625A
Other languages
Japanese (ja)
Inventor
Takeshi Ishikawa
武 石川
Michio Kobayashi
道夫 小林
Nobuyuki Imai
信行 今井
Yoshiyuki Koike
佳之 小池
Chihiro Asao
千広 浅尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006255625A priority Critical patent/JP2008076734A/en
Publication of JP2008076734A publication Critical patent/JP2008076734A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Telescopes (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correctly recognize the information of an object visible through an eyeglass device. <P>SOLUTION: The direction of the viewing field of an eyeglass device is specified from the current location measured in a GPS unit 108 and the angular velocity measured by a gyro sensor 107. The information relevant to an object in the direction of the viewing field is extracted from the memory unit and is added to the image obtained in the imaging section 111 and displayed on the display 105. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、視野内にある観察対象物を拡大して見ることができる眼鏡装置及び当該眼鏡
装置における画像生成方法に関する。
The present invention relates to a spectacle device capable of magnifying an observation object in a visual field and an image generation method in the spectacle device.

特許文献1には、観察対象物と、地図情報と、を見ることのできる双眼鏡等の特殊眼鏡
に関する技術が記載されている。
Patent Document 1 describes a technique related to special spectacles such as binoculars capable of viewing an observation object and map information.

特許文献1に記載されている技術は、眼鏡視野内において、観察対象物に平面状の地図
情報を切り替えて、または、重ね合わせて表示するようにしている。
In the technique described in Patent Document 1, planar map information is switched or superimposed on an observation target in a spectacle field of view.

特開平9−113815号公報Japanese Patent Laid-Open No. 9-11815

従来の技術では、眼鏡視野内において、観察対象物に平面状の地図情報を切り替えて、
または、重ね合わせて表示しているだけなので、観察対象物と地図情報との対応が不明確
で、眼鏡装置で見えている観察対象物に関する情報を正確に認識することができない。
In the conventional technique, in the spectacle field of view, switching the planar map information to the observation object,
Or, since they are only displayed in a superimposed manner, the correspondence between the observation object and the map information is unclear, and information relating to the observation object that is visible with the eyeglass device cannot be accurately recognized.

そこで、本発明は、眼鏡装置を介して見えている観察対象物に関する情報を正確に認識
することができるようにすることを目的とする。
Therefore, an object of the present invention is to make it possible to accurately recognize information related to an observation object that is visible through an eyeglass device.

以上の課題を解決するため、本発明は、視野内にある観察対象物を拡大して見ることが
できる眼鏡装置であって、少なくとも前記視野を含む領域を撮像する撮像部と、角速度を
計測するジャイロセンサと、位置を計測する位置計測部と、対象物の位置を特定する情報
を記憶する記憶部と、表示部と、前記位置計測部で計測された現在の位置と、前記ジャイ
ロセンサにより取得される角速度と、を用いて視野範囲を特定する処理、および、前記視
野範囲に位置する前記対象物に関連する関連情報を前記撮像部で撮像された画像に付加し
て前記表示部に表示する処理、を行う処理部と、を備えること、を特徴とする眼鏡装置を
提供する。
In order to solve the above problems, the present invention is an eyeglass device capable of magnifying an observation object in a visual field, and measures an angular velocity and an imaging unit that captures an area including at least the visual field Acquired by the gyro sensor, a position measurement unit for measuring the position, a storage unit for storing information for specifying the position of the object, a display unit, a current position measured by the position measurement unit, and the gyro sensor Processing to specify the visual field range using the angular velocity to be used, and related information related to the object located in the visual field range is added to the image captured by the imaging unit and displayed on the display unit And a processing unit for performing the processing.

ここで、前記処理部は、前記位置計測部で計測された現在の位置、および、前記角速度
センサにより取得される角速度、から視野方向を特定し、前記視野方向における視野の到
達範囲により前記視野範囲を特定するようにすることも可能である。
Here, the processing unit specifies a visual field direction from the current position measured by the position measurement unit and the angular velocity acquired by the angular velocity sensor, and the visual field range is determined based on a visual field arrival range in the visual field direction. It is also possible to specify.

また、前記処理部は、前記視野範囲内に位置する前記対象物のうち、他の対象物により
遮蔽されるものに関連する関連情報は前記表示部に表示しないようにすることも可能であ
る。
Further, the processing unit may be configured not to display related information related to an object shielded by another object among the objects located within the visual field range on the display unit.

また、前記記憶部には、前記対象物の高さを特定する情報が記憶されており、前記処理
部は、前記視野範囲内に位置する一の対象物が、他の対象物の後方において予め定めた範
囲にあり、かつ、前記位置計測部で計測された現在の位置から、前記一の対象物の位置へ
の鉛直角が、前記他の対象物の位置への鉛直角よりも小さい場合には、遮蔽されるものと
判断するようにすることも可能である。
In addition, the storage unit stores information for specifying the height of the object, and the processing unit is configured so that one object located within the field of view is in advance behind another object. When the vertical angle from the current position measured by the position measurement unit to the position of the one object is smaller than the vertical angle to the position of the other object It is also possible to determine that it is shielded.

また、前記表示部は、前記眼鏡装置の設けられているレンズとは別個に設けられている
ようにすることも可能である。
Further, the display unit may be provided separately from the lens provided with the spectacle device.

また、前記表示部は、前記眼鏡装置に設けられているレンズを介してみることができる
ようにすることも可能である。
The display unit can be viewed through a lens provided in the eyeglass device.

また、本発明は、対象物の位置を特定する情報を記憶する記憶部と、表示部と、を備え
、視野内にある観察対象物を拡大して見ることができる眼鏡装置において前記表示部で表
示する表示画像を生成する画像生成方法であって、少なくとも前記視野を含む領域を撮像
する撮像過程と、角速度を計測する角速度計測過程と、位置を計測する位置計測過程と、
前記位置計測過程で計測された現在の位置と、前記角速度計測過程により取得される角速
度と、を用いて視野範囲を特定する視野範囲特定過程と、前記視野範囲に位置する前記対
象物に関連する関連情報を前記記憶部から抽出し、前記撮像部で撮像された画像に付加す
ることで前記表示部に表示する画像を生成する画像生成過程と、を備えること、を特徴と
する画像生成方法を提供する。
In addition, the present invention provides a storage unit that stores information for specifying the position of an object and a display unit, and the display unit uses the display unit in an eyeglass device capable of magnifying an observation object in a field of view. An image generation method for generating a display image to be displayed, the imaging process for imaging an area including at least the visual field, an angular velocity measurement process for measuring an angular velocity, a position measurement process for measuring a position,
A visual field range identifying process for identifying a visual field range using a current position measured in the position measuring process and an angular velocity acquired by the angular velocity measuring process, and the object located in the visual field range. An image generation method comprising: generating an image to be displayed on the display unit by extracting related information from the storage unit and adding the extracted information to the image captured by the imaging unit. provide.

以上のように、本発明によれば、眼鏡装置を介して見えている観察対象物に関する情報
を正確に認識することができる。
As described above, according to the present invention, it is possible to accurately recognize information related to an observation object that is visible through the eyeglass device.

図1は、本発明の第一の実施形態である眼鏡装置100の斜視図である。   FIG. 1 is a perspective view of a spectacle device 100 according to a first embodiment of the present invention.

図示するように、眼鏡装置100は、筐体101に、対物レンズ102と、接眼レンズ
(筐体101の背面にあるため図示せず)103と、表示部105と、が設けられている
As shown in the figure, the eyeglass device 100 is provided with an objective lens 102, an eyepiece lens (not shown because it is on the back surface of the casing 101) 103, and a display unit 105.

また、図2(眼鏡装置100の概略図)に示されているように、筐体101の内部には
、プリズム104と、ハーフミラー106と、ジャイロセンサ107と、GPS(Global
Positioning System)ユニット108と、アンテナ109と、処理部110と、が設け
られている。
As shown in FIG. 2 (schematic diagram of the eyeglass device 100), the housing 101 includes a prism 104, a half mirror 106, a gyro sensor 107, and a GPS (Global
Positioning System) unit 108, antenna 109, and processing unit 110 are provided.

筐体101の一方に取り付けている対物レンズ102と、他方に取り付けられている接
眼レンズ103と、プリズム104により、対物レンズ102の遠方にある観察対象物を
接眼レンズ103側から所定の倍率で観察することができるようにされている。
An object to be observed far from the objective lens 102 is observed from the eyepiece lens 103 side at a predetermined magnification by the objective lens 102 attached to one side of the housing 101, the eyepiece lens 103 attached to the other side, and the prism 104. Have been able to.

ここで、本実施形態においては、対物レンズ102と、接眼レンズ103と、の間に、
ハーフミラー106が設けられており、対物レンズ102を介して筐体101内に入り込
んできた光の一部を処理部110の撮像部111に入力することができるようにしている
Here, in the present embodiment, between the objective lens 102 and the eyepiece lens 103,
A half mirror 106 is provided so that a part of the light that has entered the housing 101 via the objective lens 102 can be input to the imaging unit 111 of the processing unit 110.

そして、表示部105は、処理部110から出力される画像データの表示を行う。ここ
で、表示部105としては、液晶ディスプレイ等を用いればよい。
The display unit 105 displays the image data output from the processing unit 110. Here, a liquid crystal display or the like may be used as the display unit 105.

ジャイロセンサ107は、三軸における角速度を検出して処理部110に出力する。例
えば、ジャイロセンサ107として、三軸の振動型マイクロジャイロセンサを使用すれば
よい。
The gyro sensor 107 detects the angular velocity in the three axes and outputs it to the processing unit 110. For example, a triaxial vibration type micro gyro sensor may be used as the gyro sensor 107.

GPSユニット108は、GPS衛星からの電波の到達時間を計測することで、緯度、
経度、および、高度を算出する。なお、これらの算出方法については公知の技術であるの
で、詳細な説明を省略する。
The GPS unit 108 measures the arrival time of the radio wave from the GPS satellite, so that the latitude,
Calculate longitude and altitude. Since these calculation methods are known techniques, detailed description thereof is omitted.

そして、GPSユニット108は、算出した緯度、経度、および、高度を処理部110
に出力する。
Then, the GPS unit 108 displays the calculated latitude, longitude, and altitude as the processing unit 110.
Output to.

処理部110は、図2に示されているように、撮像部111と、A/D変換部112と
、画像処理部113と、バッファ114と、記憶部115と、CPU(Central Processi
ng Unit)116と、入力部117と、を備えている。
As shown in FIG. 2, the processing unit 110 includes an imaging unit 111, an A / D conversion unit 112, an image processing unit 113, a buffer 114, a storage unit 115, and a CPU (Central Processi
ng Unit) 116 and an input unit 117.

撮像部111は、ハーフミラー106を介して入力される光の明暗を電気信号に変換す
るもので、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Compl
ementary Metal Oxide Semiconductor)センサを使用する。
The imaging unit 111 converts light intensity input through the half mirror 106 into an electrical signal. For example, a CCD (Charge Coupled Device) image sensor or a CMOS (Compl.
ementary Metal Oxide Semiconductor) sensor.

A/D変換部112は、撮像部111の出力であるアナログ画像信号をサンプリングし
てデジタル画像信号に変換する。
The A / D converter 112 samples the analog image signal that is the output of the imaging unit 111 and converts it to a digital image signal.

画像処理部113は、A/D変換部112から得られるデジタル画像信号に、CPUか
らの指令に応じて、指令に含まれる表示位置に所定の関連情報を付加した表示画像信号を
生成する。
In response to a command from the CPU, the image processing unit 113 generates a display image signal in which predetermined related information is added to a display position included in the command in response to a command from the CPU.

また、画像処理部113では、その他に、A/D変換部112から得られるデジタル画
像信号のノイズ除去などの各種補正処理も行う。
In addition, the image processing unit 113 also performs various correction processes such as noise removal of the digital image signal obtained from the A / D conversion unit 112.

バッファ114は、画像処理部113で処理されたデジタル画像信号を一時的に記憶し
、所定のタイミングで表示部105に出力する。
The buffer 114 temporarily stores the digital image signal processed by the image processing unit 113 and outputs the digital image signal to the display unit 105 at a predetermined timing.

記憶部115には、表示部105に関連情報を表示する対象物に関する情報が記憶され
る。
The storage unit 115 stores information related to an object for displaying related information on the display unit 105.

例えば、記憶部115には、図3(対象物テーブル115aの概略図)に示すような対
象物テーブル115aが記憶される。
For example, the storage unit 115 stores an object table 115a as shown in FIG. 3 (schematic diagram of the object table 115a).

対象物テーブル115aは、図示するように、ID欄115bと、緯度欄115cと、
経度欄115dと、高度欄115eと、属性欄115fと、関連情報欄115gと、が設
けられている。
The object table 115a includes an ID column 115b, a latitude column 115c,
A longitude column 115d, an altitude column 115e, an attribute column 115f, and a related information column 115g are provided.

ID欄115bには、表示部105に関連情報を表示する対象物を識別するための識別
情報が格納される。
In the ID column 115b, identification information for identifying an object whose related information is displayed on the display unit 105 is stored.

緯度欄115cには、ID欄115bで識別される対象物の緯度を特定する情報が記憶
される。
In the latitude column 115c, information for specifying the latitude of the object identified in the ID column 115b is stored.

ここで、この経度欄115cには、対象物に含まれる任意の一点の緯度を格納しておけ
ばよい。例えば、対象物が山であれば、その山の頂点(頂上)位置の緯度を格納しておけ
ばよく、また、対象物が建物であれば、その建物の屋上の中心位置の緯度を格納しておけ
ばよく、さらに、対象物が湖沼であれば、その湖沼の中心位置の緯度を格納しておけばよ
い。
Here, the longitude column 115c may store the latitude of an arbitrary point included in the object. For example, if the object is a mountain, the latitude of the peak (top) position of the mountain may be stored. If the object is a building, the latitude of the center position of the roof of the building is stored. Further, if the object is a lake, the latitude of the center position of the lake may be stored.

経度欄115dと、ID欄115bで識別される対象物の経度を特定する情報が記憶さ
れる。
Information specifying the longitude of the object identified in the longitude field 115d and the ID field 115b is stored.

ここで、この経度欄115dには、対象物に含まれる任意の一点の経度を格納しておけ
ばよい。例えば、対象物が山であれば、その山の頂点(頂上)位置の経度を格納しておけ
ばよく、また、対象物が建物であれば、その建物の屋上の中心位置の経度を格納しておけ
ばよく、さらに、対象物が湖沼であれば、その湖沼の中心位置の経度を格納しておけばよ
い。
Here, the longitude column 115d may store the longitude of an arbitrary point included in the object. For example, if the object is a mountain, the longitude of the peak (top) position of the mountain may be stored. If the object is a building, the longitude of the center position on the roof of the building is stored. Further, if the object is a lake, the longitude of the center position of the lake may be stored.

高度欄115eには、ID欄115bで識別される対象物の高度を特定する情報が記憶
される。
In the altitude column 115e, information for specifying the altitude of the object identified in the ID column 115b is stored.

ここで、この高度欄115dには、対象物に含まれる任意の一点の高度を格納しておけ
ばよい。例えば、対象物が山であれば、その山の頂点(頂上)位置の高度を格納しておけ
ばよく、また、対象物が建物であれば、その建物の屋上の中心位置の高度を格納しておけ
ばよく、さらに、対象物が湖沼であれば、その湖沼の中心位置の高度を格納しておけばよ
い。
Here, the altitude column 115d may store any one altitude included in the object. For example, if the object is a mountain, the altitude at the top (top) position of the mountain may be stored. If the object is a building, the altitude at the center position on the roof of the building is stored. Further, if the object is a lake, the altitude at the center position of the lake may be stored.

属性情報欄115fには、ID欄115bで識別される対象物の属性を特定する情報が
格納される。例えば、本実施形態においては、このような属性として、山、建物及び湖沼
を識別するための属性IDが格納される。
The attribute information column 115f stores information for specifying the attribute of the object identified in the ID column 115b. For example, in this embodiment, an attribute ID for identifying a mountain, a building, and a lake is stored as such an attribute.

関連情報欄115gには、表示部105に表示する対象物の関連情報が格納される。例
えば、対象物の名称や高さ等に関する情報が格納される。
In the related information column 115g, related information of the object to be displayed on the display unit 105 is stored. For example, information about the name and height of the object is stored.

CPU116は、GPSユニット108から得られる眼鏡装置100の位置情報と、ジ
ャイロセンサ107から得られる角速度情報と、から眼鏡装置100の視野範囲を特定し
、特定した視野範囲に含まれる対象物を記憶部115に記憶されている対象物テーブル1
15aから特定して、特定した対象物の関連情報を画像処理部113に送る。
The CPU 116 specifies the visual field range of the spectacle device 100 from the position information of the spectacle device 100 obtained from the GPS unit 108 and the angular velocity information obtained from the gyro sensor 107, and stores an object included in the specified visual field range. Object table 1 stored in 115
The related information of the specified object is sent to the image processing unit 113, specified from 15a.

具体的には、CPU116は、GPSユニット108から得られる眼鏡装置100の緯
度、経度及び高度から、眼鏡装置100の位置を特定する。
Specifically, the CPU 116 specifies the position of the eyeglass device 100 from the latitude, longitude, and altitude of the eyeglass device 100 obtained from the GPS unit 108.

そして、CPU116は、ジャイロセンサ107から得られる角速度情報を積分して、
変位角を算出して、眼鏡装置100の傾きを算出する。このようにして算出された傾きか
ら眼鏡装置100の光軸の延長方向(視野方向)を特定する。そして、このような延長方
向(視野方向)、眼鏡装置100の倍率及び視野から、CPU116は、緯度、経度及び
高度からなる三次元の視野範囲を特定する。
Then, the CPU 116 integrates angular velocity information obtained from the gyro sensor 107, and
The displacement angle is calculated, and the inclination of the eyeglass device 100 is calculated. The extension direction (viewing direction) of the optical axis of the eyeglass device 100 is specified from the inclination calculated in this way. Then, from such an extension direction (viewing direction), the magnification and the field of view of the eyeglass device 100, the CPU 116 specifies a three-dimensional field of view range including latitude, longitude, and altitude.

次に、CPU116は、対象物テーブル115aに格納されている経度、緯度及び高度
がこの視野範囲に含まれる対象物を特定する。
Next, the CPU 116 identifies an object whose longitude, latitude, and altitude stored in the object table 115a are included in this visual field range.

そして、CPU116は、特定した一の対象物が、特定した他の対象物によって遮蔽さ
れるか否かを検出する。
Then, the CPU 116 detects whether or not the specified one object is shielded by the other specified object.

例えば、特定した一の対象物よりも眼鏡装置100に近い位置に存在する他の対象物を
抽出し、その抽出した他の対象物の属性が「山」及び「建物」の場合には、その山又は建
物の後方の予め定められた範囲に特定した一の対象物があり、かつ、眼鏡装置100の位
置から当該一の対象物の位置への鉛直角が、当該他の対象物の鉛直角よりも大きい場合に
は、当該一の対象物は遮蔽されないものとして、表示対象とする。
For example, when another object existing at a position closer to the eyeglass device 100 than the specified one object is extracted, and the attributes of the extracted other object are “mountain” and “building”, There is one object specified in a predetermined range behind the mountain or building, and the vertical angle from the position of the eyeglass device 100 to the position of the one object is the vertical angle of the other object If it is larger than that, the one target object is assumed to be unshielded and set as a display target.

このようにして表示対象とした対象物の緯度、経度及び高度から、CPU116は、表
示部105に表示する画像における対象物の表示位置を算出し、当該表示位置と関連情報
とを画像処理部113に出力する。
The CPU 116 calculates the display position of the object in the image displayed on the display unit 105 from the latitude, longitude, and altitude of the target object to be displayed in this way, and the image processing unit 113 displays the display position and related information. Output to.

なお、対象物の表示位置については、対象物の緯度及び経度から、表示部105に表示
する画像における対象物の水平方向の位置とし、対象物の高度よりも予め定められた距離
だけ上方に離れた位置を垂直方向の位置とすることが望ましい。
Note that the display position of the object is the position in the horizontal direction of the object in the image displayed on the display unit 105 from the latitude and longitude of the object, and is separated upward by a predetermined distance from the altitude of the object. It is desirable to set the vertical position as the vertical position.

そして、画像処理部113は、CPU116から出力された表示位置に関連情報を組み
込むことで、表示画像信号を生成して、バッファ114に出力する。
Then, the image processing unit 113 generates a display image signal by incorporating related information into the display position output from the CPU 116, and outputs the display image signal to the buffer 114.

バッファ114に出力された表示画像信号は、所定のタイミングで表示部105に出力
され、表示部105において表示画像信号に基づいて画像が表示される。例えば、表示部
105では、図4(表示部105での表示例を示す概略図)に示すように、撮像部111
で撮像された撮像画像に関連情報を付加した表示画像を表示する。ここで、図4では、山
の名称と高さ及び湖の名称が所定の位置に表示されている。
The display image signal output to the buffer 114 is output to the display unit 105 at a predetermined timing, and an image is displayed on the display unit 105 based on the display image signal. For example, in the display unit 105, as illustrated in FIG.
A display image in which related information is added to the captured image captured in step (b) is displayed. Here, in FIG. 4, the name and height of the mountain and the name of the lake are displayed at predetermined positions.

入力部117は、ユーザから表示部106の電源のオン又はオフを入力するためのユー
ザインタフェースである。
The input unit 117 is a user interface for inputting power on / off of the display unit 106 from the user.

以上のように構成される本実施形態における眼鏡装置100の処理フローを図5に示す
フローチャートを用いて説明する。
A processing flow of the eyeglass device 100 according to this embodiment configured as described above will be described with reference to a flowchart shown in FIG.

まず、CPU116は、GPSユニット108から得られる眼鏡装置100の緯度、経
度及び高度から、眼鏡装置100の位置を検出する(S10)。
First, the CPU 116 detects the position of the eyeglass device 100 from the latitude, longitude, and altitude of the eyeglass device 100 obtained from the GPS unit 108 (S10).

次に、CPU116は、ジャイロセンサ107から得られる角速度情報を積分して、変
位角を算出して、眼鏡装置100の傾きを算出することで、眼鏡装置100の視野方向を
検出する(S11)。
Next, the CPU 116 integrates the angular velocity information obtained from the gyro sensor 107, calculates the displacement angle, and calculates the tilt of the spectacle device 100, thereby detecting the viewing direction of the spectacle device 100 (S11).

次に、CPU116は、ステップS10で検出した眼鏡装置100の位置と、ステップ
S11で検出した眼鏡装置100の視野方向と、眼鏡装置100の倍率及び視野と、から
、眼鏡装置100の視野範囲を特定する(S12)。
Next, the CPU 116 specifies the visual field range of the spectacle device 100 from the position of the spectacle device 100 detected in step S10, the visual field direction of the spectacle device 100 detected in step S11, and the magnification and the visual field of the spectacle device 100. (S12).

例えば、CPU116は、図6(視野範囲T1を説明するための斜視図)に示されてい
るように、ステップS10で検出した眼鏡装置100の位置P1、ステップS11で検出
した眼鏡装置100の視野方向D1と、眼鏡装置100の倍率及び視野と、から、眼鏡装
置100で視認することができる限界位置である到達範囲S1を眼鏡装置100の位置P
1から等距離である緯度、経度及び高度で算出し、眼鏡装置100の位置P1から到達範
囲S1までの立体的な領域T1を視野範囲とする。
For example, as shown in FIG. 6 (perspective view for explaining the visual field range T1), the CPU 116 detects the position P1 of the spectacle device 100 detected in step S10 and the visual field direction of the spectacle device 100 detected in step S11. Based on D1 and the magnification and field of view of the spectacle device 100, the reach range S1 that is the limit position that can be visually recognized by the spectacle device 100 is determined as the position P of the spectacle device 100.
The three-dimensional area T1 from the position P1 of the eyeglass device 100 to the reach range S1 is set as the visual field range.

なお、到達範囲S1については、眼鏡装置100の性能(倍率及び視野)に応じて、眼
鏡装置100の位置P1からの距離及び範囲を予め適宜定めておけばよい。
For the reach range S1, the distance and range from the position P1 of the spectacle device 100 may be appropriately determined in advance according to the performance (magnification and field of view) of the spectacle device 100.

次に、CPU116は、記憶部115の対象物テーブル115aに格納されている経度
、緯度及び高度がステップS12で特定した視野範囲T1に含まれる対象物を特定する(
S13)。
Next, the CPU 116 identifies objects included in the visual field range T1 whose longitude, latitude, and altitude stored in the object table 115a of the storage unit 115 are identified in Step S12 (
S13).

そして、CPU116は、ステップS13で特定した対象物であって、未確認のものを
一つ抽出し(S14)、ステップS14で抽出した対象物が、他の対象物で遮蔽されるか
否かを判断する(S15)。
The CPU 116 extracts one unidentified object identified in step S13 (S14), and determines whether the object extracted in step S14 is shielded by another object. (S15).

例えば、遮蔽されるか否かは、ステップS12で特定した視野範囲において、ステップ
S13で特定した対象物よりも眼鏡装置100に近い位置にある他の対象物であって、当
該他の対象物の属性が「山」及び「建物」であり、かつ、ステップS13で特定した対象
物が当該他の対象物の後方において予め定めた範囲内にあり、さらに、眼鏡装置100の
位置から当該一の対象物の位置への鉛直角が、当該他の対象物の位置への鉛直角よりも小
さい場合には、遮蔽されるものと判断する。
For example, whether or not it is shielded is another object in a position closer to the eyeglass device 100 than the object specified in step S13 in the visual field range specified in step S12. The attributes are “mountain” and “building”, the object specified in step S13 is within a predetermined range behind the other object, and the one object is further determined from the position of the eyeglass device 100. When the vertical angle to the position of the object is smaller than the vertical angle to the position of the other object, it is determined that the object is shielded.

そして、ステップS15において、遮断されないと判断された場合には、ステップS1
6に進み、遮蔽されると判断された場合には、ステップS18に進む。
In step S15, if it is determined that it is not blocked, step S1
If it is determined to be shielded, the process proceeds to step S18.

ステップS16では、CPU116は、表示部105に表示する画像における対象物の
表示位置を算出する。
In step S <b> 16, the CPU 116 calculates the display position of the object in the image displayed on the display unit 105.

この表示位置については、対象物の緯度及び経度から、表示部105に表示する画像に
おける対象物の水平方向の表示位置とし、また、対象物の高度よりも予め定められた距離
だけ上方に離れた位置を垂直方向の表示位置とする。
The display position is the horizontal display position of the object in the image displayed on the display unit 105 from the latitude and longitude of the object, and is further away from the altitude of the object by a predetermined distance. Let the position be the vertical display position.

そして、CPU116は、記憶部115の対象物テーブル115aから、ステップS1
5で遮蔽されないと判断された対象物の関連情報を取得し(S17)、ステップS18に
進む。
Then, the CPU 116 performs step S1 from the object table 115a of the storage unit 115.
The related information of the object determined not to be shielded at 5 is acquired (S17), and the process proceeds to step S18.

そして、ステップS18では、CPU116は、ステップS13で特定した対象物に未
確認のものがあるか否かを確認し、未確認のものがある場合には、ステップS14に戻っ
て処理を繰り返す。
In step S18, the CPU 116 checks whether there is an unconfirmed object identified in step S13. If there is an unconfirmed object, the process returns to step S14 and repeats the process.

一方、ステップS18において、未確認のものがない場合には、CPU116は、ステ
ップS16で算出した表示位置にステップS17で取得した関連情報を表示するよう画像
処理部113に指令を出し、画像処理部113では、A/D変換部112から出力された
画像データの表示位置に関連情報を組み込むことで、表示画像信号を生成して、バッファ
114に出力して、表示部105で表示する(S19)。
On the other hand, if there is no unconfirmed item in step S18, the CPU 116 instructs the image processing unit 113 to display the related information acquired in step S17 at the display position calculated in step S16, and the image processing unit 113. Then, by incorporating the relevant information into the display position of the image data output from the A / D conversion unit 112, a display image signal is generated, output to the buffer 114, and displayed on the display unit 105 (S19).

本実施形態を以上のように構成したので、例えば、眼鏡装置100において、接眼レン
ズ103で見た景色と同様の景色を表示部105において見ることができ、また、表示部
105には、対象物の名前等の関連情報が表示されるため、明確に対象物を把握すること
ができる。
Since the present embodiment is configured as described above, for example, in the eyeglass device 100, a scene similar to the scene seen with the eyepiece 103 can be viewed on the display unit 105. Since the related information such as the name of the object is displayed, the object can be clearly grasped.

以上に記載した実施形態においては、対物レンズ102から導入した光をハーフミラー
106で撮像部111に入射するようにしているがこのような態様に限定されるわけでは
なく、例えば、図7(眼鏡装置100の変形例を示す概略図)に示されているように、撮
像レンズ120を別に設けて、撮像レンズ120を介して撮像部111に光を入射するこ
とも可能である。
In the embodiment described above, the light introduced from the objective lens 102 is incident on the imaging unit 111 by the half mirror 106. However, the present invention is not limited to this mode. For example, FIG. As shown in a schematic diagram illustrating a modification of the apparatus 100, it is also possible to provide an imaging lens 120 separately and allow light to enter the imaging unit 111 via the imaging lens 120.

以上に記載した実施形態においては、表示部105を筐体101に固定的に設けている
が、このような態様に限定されず、例えば、筐体101に対してヒンジを介して回動自在
に連結することも可能である。
In the embodiment described above, the display unit 105 is fixedly provided on the housing 101. However, the display unit 105 is not limited to such a mode. For example, the display unit 105 is rotatable with respect to the housing 101 via a hinge. It is also possible to connect.

図8は、本発明の第二の実施形態である眼鏡装置200の斜視図である。   FIG. 8 is a perspective view of the eyeglass device 200 according to the second embodiment of the present invention.

第一の実施形態においては、接眼レンズ103を介して視認した対象物の関連情報を表
示部105で確認することができるようにしているが、本実施形態においては、表示部2
05に表示された画像を拡大レンズ221を介して見ることができるようにしている点で
異なっている。以下、詳述する。
In the first embodiment, related information of an object viewed through the eyepiece lens 103 can be confirmed on the display unit 105. In the present embodiment, the display unit 2
The difference is that the image displayed in 05 can be viewed through the magnifying lens 221. Details will be described below.

図示するように、眼鏡装置200は、筐体101に、撮像レンズ220と、拡大レンズ
(筐体101の背面にあるため図示せず)221と、が設けられており、第一の実施形態
と比較すると、二つの対物レンズ102の代わりに一つの撮像レンズ220が設けられて
おり、また、接眼レンズ103の代わりに拡大レンズ221が設けられており、さらに、
筐体101の外側には表示部105が設けられていない点で異なっている。
As shown in the figure, the eyeglass device 200 is provided with an imaging lens 220 and a magnifying lens (not shown because it is on the back surface of the housing 101) 221 in the housing 101, which is the same as in the first embodiment. In comparison, one imaging lens 220 is provided in place of the two objective lenses 102, and a magnifying lens 221 is provided in place of the eyepiece lens 103.
The difference is that the display unit 105 is not provided outside the housing 101.

なお、後述のように、本実施形態では、表示部205は、筐体101の内側に設けられ
ている。
As will be described later, in this embodiment, the display unit 205 is provided inside the housing 101.

また、本実施形態では、拡大レンズ221において、表示部205に表示される画像を
見るようにしているため、対物レンズ及び接眼レンズは必要なく、また、撮像部111は
、撮像レンズ220から光を受光するようにしている。
In the present embodiment, since the magnifying lens 221 is configured to view the image displayed on the display unit 205, the objective lens and the eyepiece lens are not necessary, and the imaging unit 111 receives light from the imaging lens 220. It is designed to receive light.

図9(眼鏡装置200の概略図)に示されているように、筐体101の内部には、拡大
レンズ221側に配置されたミラー222と、ジャイロセンサ107と、GPSユニット
108と、アンテナ109と、処理部110と、表示部205と、が設けられている。
As shown in FIG. 9 (schematic diagram of the eyeglass device 200), inside the housing 101, there are a mirror 222, a gyro sensor 107, a GPS unit 108, and an antenna 109 arranged on the magnifying lens 221 side. In addition, a processing unit 110 and a display unit 205 are provided.

ここで、第一の実施形態と比較すると、拡大レンズ221側に配置されたミラー222
、および、表示部205、が異なっているため、以下、これらに関連する事項について説
明する。
Here, compared with the first embodiment, the mirror 222 disposed on the magnifying lens 221 side.
Since the display unit 205 is different, items related to these will be described below.

本実施形態における表示部205は、筐体101の内部に収納されている。ここで、表
示部205自体は、第一の実施形態と同様に、液晶ディスプレイ等により構成することが
できるが、本実施形態では拡大レンズ221で拡大して視認することができるため、より
小型のものを使用することができる。
The display unit 205 in this embodiment is housed inside the housing 101. Here, the display unit 205 itself can be configured by a liquid crystal display or the like as in the first embodiment. However, in this embodiment, the display unit 205 can be enlarged and visually recognized by the magnifying lens 221, so that the display unit 205 is smaller. Things can be used.

ミラー222は、拡大レンズ221側に配置されており、表示部205に表示されてい
る画像を拡大レンズ221の方向に反射させるものである。
The mirror 222 is arranged on the magnifying lens 221 side, and reflects the image displayed on the display unit 205 in the direction of the magnifying lens 221.

以上のように本実施形態に係る眼鏡装置200を構成したので、眼鏡装置200のユー
ザは、拡大レンズ221から眼鏡装置200の内部を覗くことにより、所定の関連情報が
付加された画像を見ることができるため、対象物を正確に把握することが可能である。
Since the spectacle device 200 according to the present embodiment is configured as described above, the user of the spectacle device 200 looks at the image to which the predetermined related information is added by looking inside the spectacle device 200 from the magnifying lens 221. Therefore, it is possible to accurately grasp the object.

また、双眼鏡で眺めているのと同様の使用方法で関連情報を確認することができ、使用
感に優れる。
In addition, related information can be confirmed using the same method of use as when viewing with binoculars, and the feeling of use is excellent.

なお、本実施形態においては、一つの撮像部111で受光した画像データを二つの拡大
レンズ221を介して見ることができるようにしているが、より使用感を向上させるため
、図10(眼鏡装置200の変形例を示す概略図)に示されているように、撮像レンズ2
20,撮像部111、A/D変換部112、画像処理部113、バッファ114及び表示
部205をそれぞれ二つずつ設けておき、左右それぞれの拡大レンズ221で左右それぞ
れの画像を見ることができるようにすることも可能である。
In this embodiment, the image data received by one imaging unit 111 can be viewed through the two magnifying lenses 221. However, in order to further improve the usability, FIG. 200 is a schematic diagram illustrating a modification example of the image pickup lens 2.
20, two imaging units 111, A / D conversion units 112, image processing units 113, buffers 114, and two display units 205 are provided so that the left and right magnifying lenses 221 can view the left and right images, respectively. It is also possible to make it.

また、以上に記載した実施形態では、双眼鏡型の眼鏡装置200としているが、このよ
うな態様に限定されずに、例えば、図11(眼鏡装置200の変形例を示す概略図)に示
されているように、一つの拡大レンズ221で表示部205に表示された画像を見る単眼
鏡型にすることも可能である。
In the embodiment described above, the binocular spectacle device 200 is used. However, the present invention is not limited to such a mode, and for example, shown in FIG. 11 (a schematic diagram showing a modification of the spectacle device 200). As shown in the figure, it is also possible to use a monocular type in which an image displayed on the display unit 205 is viewed with a single magnifying lens 221.

第一の実施形態である眼鏡装置の斜視図。The perspective view of the spectacles apparatus which is 1st embodiment. 眼鏡装置の概略図。FIG. 対象物テーブルの概略図。Schematic of an object table. 表示部での表示例を示す概略図。Schematic which shows the example of a display in a display part. 眼鏡装置の処理フローを示すフローチャート。The flowchart which shows the processing flow of an eyeglass device. 視野範囲を説明するための斜視図。The perspective view for demonstrating a visual field range. 眼鏡装置の変形例を示す概略図。Schematic which shows the modification of spectacles apparatus. 第二の実施形態である眼鏡装置の斜視図。The perspective view of the spectacles apparatus which is 2nd embodiment. 眼鏡装置の概略図。FIG. 眼鏡装置200の変形例を示す概略図。Schematic which shows the modification of the spectacles apparatus 200. FIG. 眼鏡装置200の変形例を示す概略図。Schematic which shows the modification of the spectacles apparatus 200. FIG.

符号の説明Explanation of symbols

100、200 眼鏡装置
101 筐体
102 対物レンズ
103 接眼レンズ
104 プリズム
105、205 表示部
106 ハーフミラー
107 ジャイロセンサ
108 GPSユニット
109 アンテナ
110 処理部
111 光源変換部
112 A/D変換部
113 画像処理部
114 バッファ
115 記憶部
116 CPU
117 入力部
120、220 撮像レンズ
221 拡大レンズ
222 ミラー
100, 200 Eyeglass device 101 Case 102 Objective lens 103 Eyepiece 104 Prism 105, 205 Display unit 106 Half mirror 107 Gyro sensor 108 GPS unit 109 Antenna 110 Processing unit 111 Light source conversion unit 112 A / D conversion unit 113 Image processing unit 114 Buffer 115 Storage unit 116 CPU
117 Input unit 120, 220 Imaging lens 221 Magnifying lens 222 Mirror

Claims (7)

視野内にある観察対象物を拡大して見ることができる眼鏡装置であって、
少なくとも前記視野を含む領域を撮像する撮像部と、
角速度を計測するジャイロセンサと、
位置を計測する位置計測部と、
対象物の位置を特定する情報を記憶する記憶部と、
表示部と、
前記位置計測部で計測された現在の位置と、前記ジャイロセンサにより取得される角速
度と、を用いて視野範囲を特定する処理、および、前記視野範囲に位置する前記対象物に
関連する関連情報を前記撮像部で撮像された画像に付加して前記表示部に表示する処理、
を行う処理部と、を備えること、
を特徴とする眼鏡装置。
An eyeglass device capable of magnifying an observation object in a field of view,
An imaging unit for imaging an area including at least the visual field;
A gyro sensor that measures angular velocity;
A position measurement unit for measuring the position;
A storage unit for storing information for specifying the position of the object;
A display unit;
Processing for specifying a visual field range using the current position measured by the position measurement unit and the angular velocity acquired by the gyro sensor, and related information related to the object located in the visual field range Processing for adding to the image captured by the imaging unit and displaying the image on the display unit;
A processing unit for performing
An eyeglass device characterized by the above.
請求項1に記載の眼鏡装置であって、
前記処理部は、前記位置計測部で計測された現在の位置、および、前記角速度センサに
より取得される角速度、から視野方向を特定し、前記視野方向における視野の到達範囲に
より前記視野範囲を特定すること、
を特徴とする眼鏡装置。
The eyeglass device according to claim 1,
The processing unit identifies a visual field direction from the current position measured by the position measurement unit and the angular velocity acquired by the angular velocity sensor, and identifies the visual field range according to a visual field arrival range in the visual field direction. thing,
An eyeglass device characterized by the above.
請求項1又は2に記載の眼鏡装置であって、
前記処理部は、
前記視野範囲内に位置する前記対象物のうち、他の対象物により遮蔽されるものに関連
する関連情報は前記表示部に表示しないこと、
を特徴とする眼鏡装置。
The eyeglass device according to claim 1 or 2,
The processor is
Relevant information related to what is shielded by other objects among the objects located within the visual field range is not displayed on the display unit,
An eyeglass device characterized by the above.
請求項3に記載の眼鏡装置であって、
前記記憶部には、前記対象物の高さを特定する情報が記憶されており、
前記処理部は、
前記視野範囲内に位置する一の対象物が、他の対象物の後方において予め定めた範囲に
あり、かつ、前記位置計測部で計測された現在の位置から、前記一の対象物の位置への鉛
直角が、前記他の対象物の位置への鉛直角よりも小さい場合には、遮蔽されるものと判断
すること、
を特徴とする眼鏡装置。
The eyeglass device according to claim 3,
Information for specifying the height of the object is stored in the storage unit,
The processor is
One object located within the field of view is in a predetermined range behind the other object, and the current position measured by the position measurement unit is changed to the position of the one object. If the vertical angle is smaller than the vertical angle to the position of the other object, it is determined to be shielded;
An eyeglass device characterized by the above.
請求項1乃至4の何れか一項に記載の眼鏡装置であって、
前記表示部は、前記眼鏡装置の設けられているレンズとは別個に設けられていること、
を特徴とする眼鏡装置。
The eyeglass device according to any one of claims 1 to 4,
The display unit is provided separately from a lens provided with the eyeglass device;
An eyeglass device characterized by the above.
請求項1乃至4の何れか一項に記載の眼鏡装置であって、
前記表示部は、前記眼鏡装置に設けられているレンズを介してみることができるように
されていること、
を特徴とする眼鏡装置。
The eyeglass device according to any one of claims 1 to 4,
The display unit can be viewed through a lens provided in the eyeglass device;
An eyeglass device characterized by the above.
対象物の位置を特定する情報を記憶する記憶部と、表示部と、を備え、視野内にある観
察対象物を拡大して見ることができる眼鏡装置において前記表示部で表示する表示画像を
生成する画像生成方法であって、
少なくとも前記視野を含む領域を撮像する撮像過程と、
角速度を計測する角速度計測過程と、
位置を計測する位置計測過程と、
前記位置計測過程で計測された現在の位置と、前記角速度計測過程により取得される角
速度と、を用いて視野範囲を特定する視野範囲特定過程と、
前記視野範囲に位置する前記対象物に関連する関連情報を前記記憶部から抽出し、前記
撮像部で撮像された画像に付加することで前記表示部に表示する画像を生成する画像生成
過程と、を備えること、
を特徴とする画像生成方法。
A storage unit that stores information for specifying the position of an object and a display unit, and generates a display image to be displayed on the display unit in an eyeglass device that can enlarge and view an observation object in the field of view An image generation method for
An imaging process for imaging an area including at least the visual field;
Angular velocity measurement process for measuring angular velocity,
A position measurement process for measuring the position;
A visual field range specifying process for specifying a visual field range using the current position measured in the position measuring process and the angular velocity acquired by the angular velocity measuring process;
An image generation process for generating an image to be displayed on the display unit by extracting related information related to the object located in the visual field range from the storage unit and adding the extracted information to the image captured by the imaging unit; Providing
An image generation method characterized by the above.
JP2006255625A 2006-09-21 2006-09-21 Glasses device and image generation method Withdrawn JP2008076734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006255625A JP2008076734A (en) 2006-09-21 2006-09-21 Glasses device and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006255625A JP2008076734A (en) 2006-09-21 2006-09-21 Glasses device and image generation method

Publications (1)

Publication Number Publication Date
JP2008076734A true JP2008076734A (en) 2008-04-03

Family

ID=39348854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006255625A Withdrawn JP2008076734A (en) 2006-09-21 2006-09-21 Glasses device and image generation method

Country Status (1)

Country Link
JP (1) JP2008076734A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011096561A1 (en) * 2010-02-08 2011-08-11 株式会社ニコン Imaging device, information acquisition system, and program
JP2012080236A (en) * 2010-09-30 2012-04-19 Hitachi Solutions Ltd Electronic device, and method and program for displaying captured image area with information
JP2012222698A (en) * 2011-04-12 2012-11-12 Sharp Corp Visual recognition switching glasses, display control device, control program and computer-readable recording medium
CN113534715A (en) * 2021-07-21 2021-10-22 歌尔科技有限公司 Intelligent wearable device, and control method and system of target device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200208A (en) * 2010-02-08 2017-11-02 株式会社ニコン Imaging apparatus, information acquisition system, and program
US10452914B2 (en) 2010-02-08 2019-10-22 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US12125276B2 (en) 2010-02-08 2024-10-22 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
JPWO2011096561A1 (en) * 2010-02-08 2013-06-13 株式会社ニコン Imaging apparatus, information acquisition system, and program
EP2536124A4 (en) * 2010-02-08 2015-01-14 Nikon Corp IMAGING DEVICE, INFORMATION ACQUIRING SYSTEM, AND PROGRAM
US9420251B2 (en) 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
JP2016192767A (en) * 2010-02-08 2016-11-10 株式会社ニコン Imaging apparatus, information acquisition system, and program
US9756253B2 (en) 2010-02-08 2017-09-05 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US11741706B2 (en) 2010-02-08 2023-08-29 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
CN112565552A (en) * 2010-02-08 2021-03-26 株式会社尼康 Imaging device, information acquisition system, and program
WO2011096561A1 (en) * 2010-02-08 2011-08-11 株式会社ニコン Imaging device, information acquisition system, and program
US11048941B2 (en) 2010-02-08 2021-06-29 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US11455798B2 (en) 2010-02-08 2022-09-27 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
JP2012080236A (en) * 2010-09-30 2012-04-19 Hitachi Solutions Ltd Electronic device, and method and program for displaying captured image area with information
JP2012222698A (en) * 2011-04-12 2012-11-12 Sharp Corp Visual recognition switching glasses, display control device, control program and computer-readable recording medium
CN113534715A (en) * 2021-07-21 2021-10-22 歌尔科技有限公司 Intelligent wearable device, and control method and system of target device
CN113534715B (en) * 2021-07-21 2023-01-24 歌尔科技有限公司 Intelligent wearable device, and control method and system of target device

Similar Documents

Publication Publication Date Title
CN104765445B (en) Eye vergence detection on a display
CN104848863B (en) Generate an augmented view of the location of interest
EP3407302B1 (en) Information processing device, information processing method, and recording medium
EP3149698B1 (en) Method and system for image georegistration
US9401050B2 (en) Recalibration of a flexible mixed reality device
JPH09210686A (en) Observation device
WO2005124594A1 (en) Automatic, real-time, superimposed labeling of points and objects of interest within a view
JP7507522B2 (en) Apparatus and method for augmented reality - Patents.com
WO2019087491A1 (en) Information processing apparatus, information processing method, and program
JP2005351850A (en) Surveying instrument
US12075168B2 (en) Portable device
CN103312958A (en) Client terminal, server, and program
JPH11211993A (en) Information display device
US11921286B2 (en) Lens array for shifting perspective of an imaging system
JP6444981B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008076734A (en) Glasses device and image generation method
WO2016157923A1 (en) Information processing device and information processing method
JP5649842B2 (en) Information providing apparatus, information providing method, and program
JPH09113815A (en) Special spectacles
JPH11331731A (en) Head mounted image display device and image display method thereof
JP2011123152A (en) Telescope and telescope system
JP2011227759A (en) Image display device and program
JP2004356769A (en) Scenery display apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091201