JP2017111034A - Terminal having camera, navigation information providing system, and navigation information display method - Google Patents
Terminal having camera, navigation information providing system, and navigation information display method Download PDFInfo
- Publication number
- JP2017111034A JP2017111034A JP2015246348A JP2015246348A JP2017111034A JP 2017111034 A JP2017111034 A JP 2017111034A JP 2015246348 A JP2015246348 A JP 2015246348A JP 2015246348 A JP2015246348 A JP 2015246348A JP 2017111034 A JP2017111034 A JP 2017111034A
- Authority
- JP
- Japan
- Prior art keywords
- navigation information
- camera
- marker
- angle
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
Abstract
【課題】GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートするための技術を提供する。【解決手段】本実施形態のナビゲーション情報表示では、カメラとマーカー間の3次元相対位置は利用されない。カメラとマーカー間の相対角度は、画像上に投影されるマーカー位置と事前に校正して得た光軸位置から、カメラモデルにおけるカメラ光軸ベクトルとマーカーへのベクトル間の角度として得る。得た相対角度を基に、画面上に撮影した画像とナビゲーションのための矢印・案内を、より適切な角度で重畳表示し、利用者を目的地までナビゲーションする。【選択図】図6Provided is a technique for accurately navigating a user in an environment where sufficient accuracy cannot be expected from a GPS or a gyro sensor. In the navigation information display of this embodiment, the three-dimensional relative position between the camera and the marker is not used. The relative angle between the camera and the marker is obtained as the angle between the camera optical axis vector in the camera model and the vector to the marker from the marker position projected on the image and the optical axis position obtained by calibrating in advance. Based on the obtained relative angle, the image taken on the screen and the navigation arrows and guidance are superimposed and displayed at a more appropriate angle to navigate the user to the destination. [Selection] Figure 6
Description
本発明は、カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法に関する。 The present invention relates to a camera-equipped terminal, a navigation information providing system, and a navigation information display method.
従来、GPSを利用し、地図上に自身の位置と方向、目的地までをナビゲーション技術と製品がある。近年、カメラとGPS、ジャイロセンサ、加速度センサ、磁気センサを搭載するスマートフォンが普及し、カメラで撮影した画像にリアルタイムにナビゲーション情報を重畳表示するAR技術も数多く発表されている。 Conventionally, there are navigation techniques and products that use GPS to reach a location and direction on the map. In recent years, smartphones equipped with a camera, GPS, gyro sensor, acceleration sensor, and magnetic sensor have become widespread, and many AR technologies for displaying navigation information superimposed on an image taken with a camera in real time have been announced.
一方、GPSはGPS衛星を補足できない地下や屋内では利用できない。また、屋外のような広い空間でのナビゲーションについてはセンサの位置・姿勢誤差は許容されるが、屋内の狭い空間では屋外と比較して、センサの位置・姿勢誤差は許容されない状況が発生する。GPSが存在しない環境下、例えば屋内において目的地へ到達するためには、全体案内図や矢印の付いた道標に頼ることになる。 On the other hand, GPS cannot be used underground or indoors where GPS satellites cannot be supplemented. Further, for navigation in a wide space such as outdoors, the sensor position / posture error is allowed, but in a narrow indoor space, the sensor position / posture error is not allowed as compared to the outdoors. In order to reach the destination indoors, for example indoors, in which GPS is not present, the user must rely on a whole guide map and a signpost with arrows.
しかし、一般的に全体案内図は施設出入口や各フロアのエレベータホールにしかなく、必要なときに参照できない。また、矢印付きの案内は利用頻度の高い代表的な目的地は表記されることが多いが、利用頻度の低い目的地に関して表記されることは期待できない。 However, the general guide map is generally only at the entrance / exit of the facility and the elevator hall of each floor and cannot be referred to when necessary. In addition, in the guidance with arrows, representative destinations with high use frequency are often written, but it is not expected to be written about destinations with low use frequency.
この課題に対処するため、例えば、特許文献1のように、GPSやジャイロセンサ等を利用せず、カメラに映ったマーカーを認識し、さらにマーカーとの位置関係を求める方法がある。
In order to cope with this problem, for example, as disclosed in
特許文献1は、白黒で印刷された2次元バーコードを利用して、情報の読み取りと同時に、2次元バーコード平面の法線方向とカメラ光軸方向の相対角度と2次元バーコードとカメラの3次元相対位置を特定している。
しかしながら、現実的には、2次元バーコード以外が画像上に映る場合が多く、このような状況では相対角度と相対位置の特定は難しい。また、角度のある2次元バーコード画像を正対するように歪みを補正し、2次元バーコードの情報を読み取りやすくするだけであり、正確なナビゲーション情報を利用者に提供するものではない。 However, in reality, there are many cases where an image other than the two-dimensional barcode is displayed on the image, and in such a situation, it is difficult to specify the relative angle and the relative position. In addition, the distortion is corrected so as to face the two-dimensional barcode image with an angle, and the information of the two-dimensional barcode is merely read, and accurate navigation information is not provided to the user.
本発明はこのような状況に鑑みてなされたものであり、GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートするための技術を提供するものである。 The present invention has been made in view of such a situation, and provides a technique for accurately navigating a user in an environment where sufficient accuracy cannot be expected from a GPS or a gyro sensor.
上記の目的を達成するために、本発明は、カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するカメラ付き端末を提供する。当該カメラ付き端末は、カメラデバイスの光軸と前記マーカーとの角度を算出し、ナビゲーション情報の投影面上で、ナビゲーション情報を算出した角度分回転させてカメラデバイスで撮影して得られた画像に重畳表示する。 In order to achieve the above object, the present invention provides a camera-equipped terminal that reads a marker with a camera and displays navigation information based on the marker on a screen. The camera-equipped terminal calculates an angle between the optical axis of the camera device and the marker, rotates the navigation information on the projection plane of the navigation information by the calculated angle, and captures the image obtained by the camera device. Superimposed display.
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本発明の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される特許請求の範囲の様態により達成され実現される。 Further features related to the present invention will become apparent from the description of the present specification and the accompanying drawings. The embodiments of the present invention can be achieved and realized by elements and combinations of various elements and the following detailed description and appended claims.
本明細書の記述は典型的な例示に過ぎず、本発明の特許請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。 It should be understood that the description herein is merely exemplary and is not intended to limit the scope of the claims or the application of the invention in any way.
本発明によれば、GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートすることができるようになる。 According to the present invention, a user can be accurately navigated in an environment where sufficient accuracy cannot be expected from a GPS or a gyro sensor.
本発明の実施形態は、表示装置を搭載し、カメラを利用する固定型、あるいは、移動型の端末装置に対して、撮影した画像中に検出されたマーカーの座標と埋め込まれた情報を読み取り、撮影した画像とナビゲーション情報を利用者の直感に合致した態様で重畳表示するものである。 Embodiments of the present invention are equipped with a display device and read the coordinates of markers and embedded information detected in a captured image for a fixed or mobile terminal device using a camera, The captured image and navigation information are superimposed and displayed in a manner that matches the user's intuition.
本実施形態によるナビゲーション情報表示では、カメラとマーカー間の3次元相対位置を利用しない。カメラとマーカー間の相対角度は、画像上に投影されるマーカー位置と事前に校正して得た光軸位置から、カメラモデルにおけるカメラ光軸ベクトルとマーカーへのベクトル間の角度として得る。得た相対角度を基に、画面上に撮影した画像とナビゲーションのための矢印・案内を、より適切な角度で重畳表示し、利用者を目的地までナビゲーションする。 In the navigation information display according to the present embodiment, the three-dimensional relative position between the camera and the marker is not used. The relative angle between the camera and the marker is obtained as the angle between the camera optical axis vector in the camera model and the vector to the marker from the marker position projected on the image and the optical axis position obtained by calibrating in advance. Based on the obtained relative angle, the image taken on the screen and the navigation arrows and guidance are superimposed and displayed at a more appropriate angle to navigate the user to the destination.
以下、添付図面を参照して本発明の実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, functionally identical elements may be denoted by the same numbers. The attached drawings show specific embodiments and implementation examples based on the principle of the present invention, but these are for understanding the present invention and are not intended to limit the present invention. Not used.
本実施形態では、当業者が本発明を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本発明の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。 This embodiment has been described in sufficient detail for those skilled in the art to practice the present invention, but other implementations and configurations are possible without departing from the scope and spirit of the technical idea of the present invention. It is necessary to understand that the configuration and structure can be changed and various elements can be replaced. Therefore, the following description should not be interpreted as being limited to this.
更に、本発明の実施形態は、後述されるように、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。 Furthermore, as will be described later, the embodiment of the present invention may be implemented by software running on a general-purpose computer, or may be implemented by dedicated hardware or a combination of software and hardware.
なお、以後の説明では「テーブル」形式によって本実施形態の各情報について説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくても良く、リスト、DB、キュー等のデータ構造やそれ以外で表現されていても良い。そのため、データ構造に依存しないことを示すために「テーブル」、「リスト」、「DB」、「キュー」等について単に「情報」と呼ぶことがある。 In the following description, each information of the present embodiment will be described in the “table” format. However, the information does not necessarily have to be represented by a data structure using a table. It may be expressed in other than. Therefore, “table”, “list”, “DB”, “queue”, etc. may be simply referred to as “information” to indicate that they do not depend on the data structure.
また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。 In addition, when explaining the contents of each information, the expressions “identification information”, “identifier”, “name”, “name”, “ID” can be used, and these can be replaced with each other. It is.
以下では各処理部(画像解析部、情報取得部、表示部など)を主語(動作主体)として本発明の実施形態における各処理について説明を行うが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。 In the following, each processing in the embodiment of the present invention will be described with each processing unit (image analysis unit, information acquisition unit, display unit, etc.) as a subject (operation subject). Since the processing is performed using the memory and the communication port (communication control device), the description may be made with the processor as the subject. Part or all of the program may be realized by dedicated hardware, or may be modularized. Various programs may be installed in each computer by a program distribution server or a storage medium.
<システム機能構成>
図1は、本発明の実施形態によるナビゲーション情報提供システム(地図関連情報配信システムとも称することが可能)の概略機能構成例を示す図である。
<System function configuration>
FIG. 1 is a diagram illustrating a schematic functional configuration example of a navigation information providing system (also referred to as a map-related information distribution system) according to an embodiment of the present invention.
ナビゲーション情報提供システム0100は、カメラ付き端末0101と、ナビゲーション情報配信サーバ0102と、ナビゲーションデータベース(DB)0103と、を有する。例えば、カメラ付き端末0101と、ナビゲーション情報配信サーバ0102とは通信網(ネットワーク)0111を介して通信し、情報の配信・取得が可能となっている。また、ナビゲーション情報配信サーバ0102とナビゲーションDB0103は有線で直接的に繋がれていても良いし、別のネットワークでつながれていても良い。
The navigation
カメラ付き端末0101は、撮影部0104と、画像解析部0105と、情報取得部0106と、表示部0110と、を有している。
The camera-equipped
ナビゲーション情報配信サーバ0102は、配信リクエスト受信部0107と、情報取得部0108と、情報配信部0109と、を有している。
The navigation
カメラ付き端末0101において、撮影部0104は、カメラを含んでいる。利用者が、撮影部0104に付属されたカメラを用いて撮影し、対象物の画像を取得する。画像解析部0105は、撮影して得た画像から、2次元バーコードを認識し、2次元バーコードに含まれる情報を取り出す。それと同時に、画像解析部0105は、画像座標系における2次元バーコードの中心座標と光軸座標を計算し、さらに、カメラの投影モデルからナビゲーション情報の補正角度を計算する。情報取得部0106は、画像解析部0105によって得られた2次元バーコード情報を条件として、ナビゲーション情報配信サーバ0102に当該2次元バーコード情報に対応する情報について問い合わせる。
In the camera-equipped
ナビゲーション情報配信サーバ0102の配信リクエスト受信部0107は、カメラ付き端末0101の情報取得部0106からの問合せを受け付ける。情報取得部0108は、2次元バーコード情報に対応するナビゲーション情報を取得し、情報配信部0109に受け渡す。情報配信部0109は、問合せ元のカメラ付き端末0101に情報取得部0108から取得したナビゲーション情報を提供する。
The distribution
2次元バーコード情報に対応するナビゲーション情報を取得したカメラ付き端末0101は、表示部0110を用いて、撮影部0104で撮影した画像とナビゲーション情報を重畳表示する。このとき重畳するナビゲーション情報のラベル、または、矢印をナビゲーション情報補正角度ほど回転させる。
The camera-equipped terminal 0101 that has acquired the navigation information corresponding to the two-dimensional barcode information uses the
尚、通信網を介さずカメラ付き端末0101内にナビゲーション情報配信サーバ0102、ナビゲーションDB0103を配置した構成も実現可能である。また、カメラ付き端末0101に、撮影部0104、情報取得部0106、及び表示部0110のみを持たせ、画像解析部0105が実行する処理を全てナビゲーション情報配信サーバ0102側で実行するようにしても良い。
A configuration in which the navigation
<システムハードウェア構成>
図9は、本発明の実施形態によるナビゲーション情報提供システムの概略ハードウェア構成例を示す図である。
<System hardware configuration>
FIG. 9 is a diagram showing a schematic hardware configuration example of the navigation information providing system according to the embodiment of the present invention.
図9に示されるように、カメラ付き端末0101及びナビゲーション情報配信サーバ0102は、例えば、一般的なコンピュータによって構成することができる。
As shown in FIG. 9, the camera-equipped
カメラ付き端末0101は、例えば、各種プログラムを実行するCPU(単にプロセッサと称することもできる)0901と、カメラデバイス0902と、利用者が指示や情報を入力するための入力デバイス0903と、CPUによる処理結果を出力するための出力デバイス0904と、各種プログラムや処理結果を格納したり、処理途中の情報を一時的に格納したりする記憶デバイス0905と、ナビゲーション情報配信サーバ0102等と通信するための通信デバイス0906と、を有している。
The camera-equipped
ナビゲーション情報配信サーバ0102は、例えば、各種プログラムを実行するCPU(単にプロセッサと称することもできる)0911と、サーバ管理者が指示や情報を入力するための入力デバイス0912と、CPUによる処理結果を出力するための出力デバイス0913と、各種プログラムや処理結果を格納したり、処理途中の情報を一時的に格納したりする記憶デバイス0914と、カメラ付き端末0101等と通信するための通信デバイス0915と、を有している。
The navigation
入力デバイス0903及び0912は、例えば、各種ボタン、キーボード、タッチパネル、マイク等によって構成される。出力デバイス0904及び0913は、例えば、画像や文字列を表示するディスプレイや音声を出力するスピーカ等によって構成される。記憶デバイス0905及び0914は、例えばROMやRAMなどによって構成される。
The
カメラ付き端末0101のCPU0901は、カメラデバイスによる撮像処理を制御するためのプログラムである撮影部09011と、撮影部09011によって処理された画像データや情報を解析するためのプログラムである画像解析部09012と、ナビゲーション情報配信サーバ0102から情報(ナビゲーション情報)を取得するためのプログラムである情報取得部09013と、画像データとナビゲーション情報を出力デバイス0904に重畳表示するためのプログラムである表示部09014と、を実行する。
The
ナビゲーション情報配信サーバ0102のCPU0911は、カメラ付き端末0101からのナビゲーション情報配信リクエストを受信処理するためのプログラムである配信リクエスト受信部09111と、受信したナビゲーション情報配信リクエストに含まれる2次元バーコードID(CodeID:図3参照)に対応するナビゲーション情報をナビゲーションDB0103から取得するためのプログラムである情報取得部09112と、得られたナビゲーション情報をカメラ付き端末0101に送信処理するためのプログラムである情報配信部09113と、を実行する。
The
なお、図9では、各種プログラムがCPUの内蔵メモリに展開されている状態が示されている。実行前においては、各種プログラムは、例えば、記憶デバイス0905或いは0914に格納されており、実行時にCPU0901或いは0911によって読み込まれ、実行されることとなる。
FIG. 9 shows a state in which various programs are expanded in the internal memory of the CPU. Before execution, various programs are stored in, for example, the
<利用場面>
図2は、本発明の実施形態によるナビゲーション情報提供システム0100によってナビゲーション情報が提供される場面例(屋内環境)を示す図である。
<Use scene>
FIG. 2 is a diagram illustrating a scene example (indoor environment) where navigation information is provided by the navigation
当該ナビゲーション情報は、例えば、壁正面0201、壁左面0202、壁右面0203で構成される空間で提供される。そして、当該空間の中心に利用者0204が配置されるような場面を想定する。各壁の間には通路がある。各通路は、会議室A,執務室D0205、会議室B0206、及び出入口C0207にそれぞれ通じている。
The navigation information is provided in a space configured by, for example, a
利用者は、例えば、会議室Aの通路の先にある執務室Dを目的地としているものとする。壁正面0201には、利用者の目線と同程度の高さに2次元バーコード0208が配置されている。そして、利用者は、当該2次元バーコード0208を撮像し、それによって取得した2次元バーコード情報に基づいてナビゲーション情報がカメラ付き端末0101の画面上に重畳表示されることとなる。
It is assumed that the user is destined for the office room D at the end of the passage of the conference room A, for example. On the
<ナビゲーション情報のデータ構造例>
図3は、本発明の実施形態における、ナビゲーション情報0300のデータ構造例を示す図である。ナビゲーション情報0300は、テーブル構造をとっており、ナビゲーション情報を一意に特定・認識するためのNavigationID0301と、2次元バーコードを一意に特定・認識するためのCodeID0302(2次元コードから読み取られる情報である)と、撮影画像上に重畳される文字列を示すLabel0303と、カメラが2次元バーコードに正対したときに撮影画像上に重畳される矢印の角度(Label0303で示される場所の方向)を示すAngle0304と、を構成項目として含んでいる。
<Example data structure of navigation information>
FIG. 3 is a diagram showing a data structure example of the
ナビゲーション情報配信サーバ0102の情報取得部0108は、CodeID0302をキーとして、ナビゲーションDB0103から対応するナビゲーション情報を取得する。つまり、CodeID0302を含むNavigationID0301に対応するLabel0303及びAngle0304の情報が取得される。なお、図3の例では、CodeID「1」の2次元バーコードは3つのナビゲーション情報に対応していることが示されている。
The
<カメラ付き端末が撮影する環境>
図4は、カメラ付き端末0101が撮影する環境を表す図である。カメラ付き端末0101は、例えば、表示画面とは反対面(背面)にカメラを有しており、撮影中の画像をプレビューとして画面に表示することができるように構成されている。
<Environment where the camera-equipped device shoots>
FIG. 4 is a diagram illustrating an environment in which the camera-equipped terminal 0101 shoots. The camera-equipped
カメラ付き端末0101を使用する場合、撮影部0104に含まれるカメラは、壁面(壁正面)0401と2次元バーコード0402を撮影する。そして、カメラ付き端末0101は、表示部0110の画面上に撮影範囲0403を表示する。なお、図4において、座標0404は、予めカメラキャリブレーションして得たカメラ光軸を示している。
When using the camera-equipped
なお、図4は、カメラの光軸と撮影される壁面0401からの法線ベクトルは一致せず、ある一定の角度をなす場面を例示している。
FIG. 4 illustrates a scene in which the optical axis of the camera and the normal vector from the
<被写体と投影される画像との関係>
図5は、カメラが撮影する環境下における、被写体と投影される画像との関係を表すモデル図(上面)である。
<Relationship between subject and projected image>
FIG. 5 is a model diagram (upper surface) showing a relationship between a subject and a projected image under an environment where the camera captures an image.
カメラ0501があり、カメラ0501から光軸0502が伸びている。画像の投影面0503の範囲0506は、カメラレンズの画角0504とレンズの焦点距離0505から決まる。
There is a
また、2次元バーコード0507とカメラの光軸0502の相対角度0509は、2次元バーコード0507を投影面0503上に投影した座標0510と光軸との距離0508、及び焦点距離0505から得られる。当該相対角度0509は、光軸0502方向を0°とし、上面から見て右回りに表現する。
The
<被写体及び投影される画像と重畳するナビゲーション情報との関係>
図6は、カメラが撮影する環境下における、被写体及び投影される画像と重畳されるナビゲーション情報との関係を表すモデル図である。図6は、図5のモデルに対応するものである。
<Relationship between subject and projected image and superimposed navigation information>
FIG. 6 is a model diagram showing a relationship between a subject, a projected image, and navigation information to be superimposed under an environment where the camera captures an image. FIG. 6 corresponds to the model of FIG.
カメラ0601があり、カメラ0601から光軸0602が伸びている。図6のモデルが示す状態では、カメラ0601から2次元バーコード0603に向かうベクトル0604と光軸0602との間には角度0605が形成されている。
There is a
図6では、撮影画像の投影面0606と、ベクトル0604を法線ベクトルとするナビゲーション情報0607を投影する投影面0608とが、定義されている。つまり、投影面0608は、2次元バーコード0603が配置される壁面を示しているのではなく、ラベルと矢印から構成されるナビゲーション情報0607を投影する仮想的な面を示している。
In FIG. 6, a
投影面0608が投影面0606と光軸0602の交点0610を通るとすると、投影面0606と投影面0608との角度0609は、角度0605と等しい。即ち、投影面0606と投影面0608の上面から見た幾何学的関係は既知である。尚、側面についても図6と同様の幾何学的関係を記述できる。
If the
<ナビゲーション情報の重畳表示例>
図7は、カメラで撮影した画像とナビゲーション情報との重畳表示例を示す図である。図7に示されるように、利用者は、撮影部0104に含まれるカメラで壁正面0701と2次元バーコード0702を撮影している。そのとき、カメラ付き端末0101は、表示部0110の画面上に撮影範囲0703を表示している。座標0704は、予めカメラキャリブレーションして得たカメラ光軸を示している。
<Example of superimposed display of navigation information>
FIG. 7 is a diagram illustrating a superimposed display example of an image captured by a camera and navigation information. As shown in FIG. 7, the user is photographing the
ナビゲーション情報0705は、ラベルと矢印から構成され、画面上に対で表示される。矢印の方向は上方向を0°とし、右回りとする。2次元バーコードをキーとして得られたナビゲーション情報が、例えば、ラベルとして“会議室A”、角度(方向)として90°となっている場合、投影面0608と平面0606(図6参照)との角度0609が反映される前のナビゲーション情報は矢印0706で示される。この矢印0706の方向に対して、さらに投影面0608と平面0606との角度0609が加算され、当該角度が反映されたナビゲーション情報0705が表示される。尚、当該例では、投影面0608と平面0606との角度は左回りであるため、減算することになる。
The
なお、この画面の重畳結果は、画像は水平方向を撮影した画像となるが、ナビゲーション情報は垂直方向を表現することになる。このため、ナビゲーション情報の表示として、説明上は違和感があるかもしれないが、利用者にとっては直感的に理解しやすいものとなっている。 As a result of superimposing the screen, the image is an image obtained by photographing the horizontal direction, but the navigation information represents the vertical direction. For this reason, the display of the navigation information may be uncomfortable for explanation, but it is easy for the user to understand intuitively.
<ナビゲーション情報表示処理の内容>
図8は、本発明の実施形態のナビゲーション情報提供システム0100におけるナビゲーション情報表示処理(ナビゲーション情報取得から表示までの処理)を説明するためのフローチャートである。
<Contents of navigation information display processing>
FIG. 8 is a flowchart for explaining navigation information display processing (processing from acquisition of navigation information to display) in the navigation
(i)ステップ0801
まず、利用者が壁面を撮影することにより、カメラ付き端末0101の撮影部0104は画像iを取得する。
(I) Step 0801
First, when a user photographs a wall surface, the photographing
(ii)ステップ0802
画像解析部0105は、画像iから2次元バーコードを検出する。このとき複数の2次元バーコードを検出することを前提とする。また、利用する2次元バーコードは、数メートル離れた状況で、複数撮影・認識が可能であるカラーコードを想定しており、既存の検出方式を採用することによって検出することができる。
(Ii) Step 0802
The
(iii)ステップ0803
画像解析部0105は、ステップ0802の処理結果に基づいて、画像i上に2次元バーコードが含まれるか判定する。画像iに2次元バーコードが含まれていない場合(ステップ0803でNoの場合)、処理はステップ0804に移行する。画像iに2次元バーコードが含まれている場合(ステップ0803でYesの場合)、処理はステップ0805に移行する。
(Iii) Step 0803
The
(iv)ステップ0804
表示部0110は、画像iのみを画面上に表示してナビゲーション情報表示処理を終了する。
(Iv) Step 0804
The
(v)ステップ0805
画像解析部0105は、複数検出された2次元バーコードの中で面積が最も大きなものを処理対象とする。なお、どの2次元バーコードが最大面積を有するかは、既存の検出方式であるカラーコードを用いた検出方式やライブラリ方式によって得られる四隅の座標を用いて各2次元バーコードのそれぞれ面積を算出し、比較することによって判定することができる。
(V) Step 0805
The
(vi)ステップ0806
画像解析部0105は、処理対象2次元バーコードを読み取り、2次元バーコード情報であるID(CodeID)を抽出する。それと同時に、画像解析部0105は、処理対象の2次元バーコードの四隅の座標から中心座標を算出する。
(Vi) Step 0806
The
(vii)ステップ0807
画像解析部0105は、図5や図6に示される幾何学的関係に基づいて、カメラ光軸と処理対象2次元バーコード間の角度を算出する。
(Vii) Step 0807
The
(viii)ステップ0808
情報取得部0106は、画像解析部0105から処理対象2次元バーコードのID(CodeID)を取得し、それをキーとし、ナビゲーション情報配信サーバ0102に対応するナビゲーション情報を問い合せ(ナビゲーション情報配信リクエスト)する。ナビゲーション情報配信サーバ0102の情報取得部0108は、配信リクエスト受信部0107を介してナビゲーション情報配信リクエスト(CodeIDを含む)を取得し、ナビゲーションDB0103から対応するナビゲーション情報(図3参照)の有無を確認し、存在する場合にはそれを取得する。そして、ナビゲーション情報配信サーバ0102の情報配信部0109は、処理対象2次元バーコードに対応するナビゲーション情報をカメラ付き端末0101に送信する。対応するナビゲーション情報が無い場合にはカメラ付き端末0101にはその旨が通知される。
(Viii) Step 0808
The
(ix)ステップ0809
カメラ付き端末0101の情報取得部0106は、ナビゲーション情報配信サーバ0102から受信した情報に基づいて、取得したナビゲーション情報の数を確認する。ナビゲーション情報数が0の場合(ステップ0809でNoの場合)、処理はステップ0804に移行する。ナビゲーション情報数が1以上の場合(ステップ0809でYesの場合)、処理はステップ0810に移行する。
(Ix) Step 0809
The
(x)ステップ0810
表示部0110は、図7のように、カメラで撮影した画像iとナビゲーション情報とを重畳表示する。
(X) Step 0810
As shown in FIG. 7, the
<まとめ>
(i)本実施形態では、ナビゲーション情報を撮影画像に重畳表示する際に、カメラデバイスの光軸とマーカー(例えば、2次元バーコード)との角度を算出し、ナビゲーション情報の投影面上でナビゲーション情報を当該角度分回転させる。このようにすることにより、マーカー(2次元バーコード)の情報を読み取るだけで、利用者に違和感を与えない直感的な方向についての示唆を与えることができる。
<Summary>
(I) In this embodiment, when the navigation information is superimposed on the captured image, the angle between the optical axis of the camera device and a marker (for example, a two-dimensional barcode) is calculated, and navigation is performed on the projection plane of the navigation information. The information is rotated by the angle. By doing so, it is possible to give an intuitive direction suggestion that does not give the user a sense of incongruity simply by reading the information of the marker (two-dimensional barcode).
より具体的には、カメラ付き端末は、マーカーからマーカー識別情報を取得し、当該マーカー識別情報をナビゲーション情報配信サーバに送信し、当該サーバからマーカー識別情報に対応するナビゲーション情報を取得する。このようにすることにより、マーカーに多くの情報を持たせる必要がなく、かつカメラ付き端末にナビゲーション情報のデータベースを備える必要ないので、処理を迅速に行うことができるようになる。ただし、これは、カメラ付き端末にナビゲーション情報を持たせることを否定するものではない。処理能力があり、記憶デバイスの容量が大きいカメラ付き端末であれば、ナビゲーションDBを持たせるようにしても利用者に不便はない。 More specifically, the camera-equipped terminal acquires marker identification information from the marker, transmits the marker identification information to the navigation information distribution server, and acquires navigation information corresponding to the marker identification information from the server. By doing in this way, it is not necessary to give much information to the marker, and it is not necessary to provide a database of navigation information in the camera-equipped terminal, so that the processing can be performed quickly. However, this does not deny that the camera-equipped terminal has navigation information. If it is a camera-equipped terminal having a processing capacity and a large storage device capacity, there is no inconvenience for the user even if the navigation DB is provided.
また、角度を算出する場合、マーカーの中心座標とカメラデバイスの間のベクトルとカメラデバイスの光軸との角度が算出される。このようにすることにより、幾何学的関係を用いて容易に角度を知ることができる。この角度は、カメラデバイスで撮影して得られた画像の投影面とナビゲーション情報の投影面との角度に相当するものとなっている。 When calculating the angle, the angle between the center coordinate of the marker and the vector between the camera device and the optical axis of the camera device is calculated. By doing in this way, an angle can be easily known using a geometric relationship. This angle corresponds to the angle between the projection plane of the image obtained by photographing with the camera device and the projection plane of the navigation information.
本実施形態では、撮影画像には複数のマーカーが含まれることが許容される。この場合、画像から面積が最大となるマーカーが処理対象のマーカーとして抽出される。このようにすることにより、複数のマーカーが検出されても容易に重畳表示すべきナビゲーション情報を取得することができるようになる。尚、本実施形態とは異なるが、撮影された複数のマーカーの近傍に、相互に重畳しないように全てのナビゲーション情報を表示してもよい。このとき、対応するマーカーの面積比を利用し、ナビゲーション情報に対して透過度やラベルサイズを重み付けして表示してもよい。 In the present embodiment, the captured image is allowed to include a plurality of markers. In this case, the marker having the maximum area is extracted from the image as the marker to be processed. By doing in this way, even if a some marker is detected, the navigation information which should be superimposed-displayed easily can be acquired now. Although different from the present embodiment, all navigation information may be displayed in the vicinity of a plurality of photographed markers so as not to overlap each other. At this time, using the area ratio of the corresponding marker, the navigation information may be displayed by weighting the transparency and the label size.
(ii)本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 (Ii) The present invention can also be realized by software program codes that implement the functions of the embodiments. In this case, a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention. As a storage medium for supplying such program code, for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. are used.
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。 Also, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. May be. Further, after the program code read from the storage medium is written in the memory on the computer, the computer CPU or the like performs part or all of the actual processing based on the instruction of the program code. Thus, the functions of the above-described embodiments may be realized.
さらに、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。 Further, by distributing the program code of the software that realizes the functions of the embodiment via a network, it is stored in a storage means such as a hard disk or memory of a system or apparatus, or a storage medium such as a CD-RW or CD-R And the computer (or CPU or MPU) of the system or apparatus may read and execute the program code stored in the storage means or the storage medium when used.
最後に、ここで述べたプロセス及び技術は本質的に如何なる特定の装置に関連することはなく、コンポーネントの如何なる相応しい組み合わせによってでも実装できることを理解する必要がある。更に、汎用目的の多様なタイプのデバイスがここで記述した教授に従って使用可能である。ここで述べた方法のステップを実行するのに、専用の装置を構築するのが有益であることが判るかもしれない。また、実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。本発明は、具体例に関連して記述したが、これらは、すべての観点に於いて限定の為ではなく説明の為である。本分野にスキルのある者には、本発明を実施するのに相応しいハードウェア、ソフトウェア、及びファームウエアの多数の組み合わせがあることが解るであろう。例えば、記述したソフトウェアは、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 Finally, it should be understood that the processes and techniques described herein are not inherently related to any particular apparatus, and can be implemented by any suitable combination of components. In addition, various types of devices for general purpose can be used in accordance with the teachings described herein. It may prove useful to build a dedicated device to perform the method steps described herein. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Although the present invention has been described with reference to specific examples, these are in all respects illustrative rather than restrictive. Those skilled in the art will appreciate that there are numerous combinations of hardware, software, and firmware that are suitable for implementing the present invention. For example, the described software can be implemented in a wide range of programs or script languages such as assembler, C / C ++, perl, shell, PHP, Java (registered trademark).
さらに、上述の実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていても良い。 Furthermore, in the above-described embodiment, control lines and information lines are those that are considered necessary for explanation, and not all control lines and information lines on the product are necessarily shown. All the components may be connected to each other.
加えて、本技術分野の通常の知識を有する者には、本発明のその他の実装がここに開示された本発明の明細書及び実施形態の考察から明らかになる。明細書と具体例は典型的なものに過ぎず、本発明の範囲と精神は後続する請求範囲で示される。 In addition, other implementations of the invention will be apparent to those skilled in the art from consideration of the specification and embodiments of the invention disclosed herein. The specification and specific examples are merely exemplary, and the scope and spirit of the invention are indicated in the following claims.
0101 カメラ付き端末、0102 ナビゲーション情報配信サーバ、0103 ナビゲーションDB、0104 撮影部、0105 画像解析部、0106 情報取得部、0107 配信リクエスト受信部、0108 情報取得部、0109 情報配信部、0110 表示部、0201 壁正面、0202 壁左面、0203 壁右面、0204 利用者、0205 ナビゲーション情報右、0206 ナビゲーション情報左、0207 ナビゲーション情報背面、0208 2次元バーコード、0300 ナビゲーション情報、0301 ナビゲーションID、0302 2次元バーコードID、0303 ナビゲーションラベル、0304 ナビゲーション角度、0401 壁正面、0402 2次元バーコード、0403 撮影範囲、0404 座標(光軸位置)、0501 カメラ、0502 光軸(ベクトル)、0503 平面(投影面)、0504 画角、0505 焦点距離、0506 光軸から撮影境界までの距離(範囲)、0507 2次元バーコード、0508 光軸から投影された2次元バーコードまでの距離、0509 相対角度(光軸から2次元バーコードまでの角度)、0601 カメラ、0602 光軸(ベクトル)、0603 2次元バーコード、0604 カメラから2次元バーコードへのベクトル、0605 光軸ベクトルと2次元バーコードへのベクトル間の角度、0606 平面(撮影画像の投影面)、0607 ナビゲーション情報、0608 投影面(ナビゲーション情報投影基準面)、0609 投影面とナビゲーション情報投影基準面間角度、0701 壁正面、0702 2次元バーコード、0703 撮影範囲、0704 座標(光軸位置)、0705 ナビゲーション情報(ナビゲーションラベルと矢印) 0101 Terminal with camera, 0102 Navigation information distribution server, 0103 Navigation DB, 0104 Imaging section, 0105 Image analysis section, 0106 Information acquisition section, 0107 Distribution request reception section, 0108 Information acquisition section, 0109 Information distribution section, 0110 Display section, 0201 Wall Front, 0202 Wall Left, 0203 Wall Right, 0204 User, 0205 Navigation Information Right, 0206 Navigation Information Left, 0207 Navigation Information Back, 0208 2D Barcode, 0300 Navigation Information, 0301 Navigation ID, 0302 2D Barcode ID , 0303 Navigation label, 0304 Navigation angle, 0401 Front of wall, 0402 Two-dimensional barcode, 0403 Shooting range, 0404 coordinates (Optical axis position), 0501 camera, 0502 optical axis (vector), 0503 plane (projection plane), 0504 angle of view, 0505 focal length, 0506 distance from optical axis to shooting boundary (range), 0507 2D barcode, 0508 Distance from optical axis to projected 2D barcode, 0509 relative angle (angle from optical axis to 2D barcode), 0601 camera, 0602 optical axis (vector), 0603 2D barcode, 0604 2 from camera Vector to dimensional barcode, 0605 Angle between optical axis vector and vector to two-dimensional barcode, 0606 plane (projection plane of captured image), 0607 navigation information, 0608 projection plane (navigation information projection reference plane), 0609 projection Angle between plane and navigation information projection reference plane, 0701 Surface, 0702 2D barcode, 0703 shooting range, 0704 coordinates (optical axis position), 0705 navigation information (navigation label and arrow)
Claims (10)
カメラデバイスと、
各種プログラムを格納する記憶デバイスと、
前記記憶デバイスから前記各種プログラムを読み込み、当該各種プログラムに基づいて、前記カメラデバイスで撮影して得られた画像に、前記マーカーに基づく前記ナビゲーション情報を前記画面上に重畳表示するための処理を実行するプロセッサと、を有し、
前記プロセッサは、
前記カメラデバイスの光軸と前記マーカーとの角度を算出する処理と、
前記ナビゲーション情報の投影面上で前記ナビゲーション情報を前記算出した角度分回転させて前記カメラデバイスで撮影して得られた画像に重畳表示する処理と、
を実行する、カメラ付き端末。 A camera-equipped terminal that reads a marker with a camera and displays navigation information based on the marker on a screen,
A camera device,
A storage device for storing various programs;
The various programs are read from the storage device, and processing for displaying the navigation information based on the marker on the screen is superimposed on an image obtained by photographing with the camera device based on the various programs. And a processor to
The processor is
A process of calculating an angle between the optical axis of the camera device and the marker;
Processing for rotating the navigation information on the projection surface of the navigation information by the calculated angle and displaying it superimposed on an image obtained by photographing with the camera device;
Run the camera terminal.
前記プロセッサは、さらに、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を外部のサーバに送信し、当該外部のサーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する処理を実行する、カメラ付き端末。 In claim 1,
The processor further executes processing for acquiring marker identification information from the marker, transmitting the marker identification information to an external server, and acquiring the navigation information corresponding to the marker identification information from the external server. , A camera-equipped device.
前記角度を算出する処理において、前記プロセッサは、前記マーカーの中心座標とカメラデバイスの間のベクトルと前記カメラデバイスの光軸とを用いて前記角度を算出する、カメラ付き端末。 In claim 1,
In the process of calculating the angle, the processor is a camera-equipped terminal that calculates the angle using a center coordinate of the marker, a vector between the camera devices, and an optical axis of the camera device.
前記カメラデバイスで撮影した画像の投影面と前記ナビゲーション情報の投影面とは前記算出された角度をなす、カメラ付き端末。 In claim 3,
A camera-equipped terminal, wherein a projection plane of an image photographed by the camera device and a projection plane of the navigation information form the calculated angle.
ナビゲーション情報配信サーバと、を有し、
前記カメラ付き端末は、さらに、通信デバイスを有し、
前記カメラ付き端末の前記プロセッサは、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を前記ナビゲーション情報配信サーバに送信し、当該ナビゲーション情報配信サーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する処理を実行し、
前記ナビゲーション情報配信サーバのプロセッサは、
前記マーカー識別情報に対応する前記ナビゲーション情報をナビゲーションデータベースから取得する処理と、
前記取得した前記ナビゲーション情報を前記カメラ付き端末に送信する処理と、
を実行する、ナビゲーション情報提供システム。 A camera-equipped terminal according to claim 1;
A navigation information distribution server,
The camera-equipped terminal further includes a communication device,
The processor of the camera-equipped terminal acquires marker identification information from the marker, transmits the marker identification information to the navigation information distribution server, and transmits the navigation information corresponding to the marker identification information from the navigation information distribution server. Execute the process to get,
The navigation information delivery server processor comprises:
Processing for obtaining the navigation information corresponding to the marker identification information from a navigation database;
Processing for transmitting the acquired navigation information to the camera-equipped terminal;
A navigation information provision system that executes
カメラ付き端末のプロセッサが、カメラデバイスで撮影して得られた画像からマーカーを抽出することと、
前記プロセッサが、前記カメラデバイスの光軸と前記マーカーとの角度を算出することと、
前記プロセッサが、前記マーカーに関連付けられた前記ナビゲーション情報を取得することと、
前記プロセッサが、前記ナビゲーション情報の投影面上で前記ナビゲーション情報を前記算出した角度分回転させて前記カメラデバイスで撮影して得られた画像に重畳表示することと、
を含む、ナビゲーション情報表示方法。 A navigation information display method for reading a marker with a camera and displaying navigation information based on the marker on a screen,
The processor of the camera-equipped terminal extracts the marker from the image captured by the camera device;
The processor calculates an angle between the optical axis of the camera device and the marker;
The processor obtains the navigation information associated with the marker;
The processor rotates the navigation information on the projection surface of the navigation information by the calculated angle and superimposes it on an image obtained by photographing with the camera device;
Including navigation information display method.
前記マーカーを抽出することにおいて、前記プロセッサは、前記画像から面積が最大となるマーカーを処理対象のマーカーとして抽出する、ナビゲーション情報表示方法。 In claim 6,
In extracting the marker, the processor extracts a marker having the maximum area from the image as a marker to be processed, and displays the navigation information.
前記ナビゲーション情報を取得することにおいて、前記プロセッサは、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を外部のサーバに送信し、当該外部のサーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する、ナビゲーション情報表示方法。 In claim 6,
In acquiring the navigation information, the processor acquires marker identification information from the marker, transmits the marker identification information to an external server, and the navigation information corresponding to the marker identification information from the external server. To get the navigation information display method.
前記角度を算出することにおいて、前記プロセッサは、前記マーカーの中心座標とカメラデバイスの間のベクトルと前記カメラデバイスの光軸とを用いて前記角度を算出する、ナビゲーション情報表示方法。 In claim 6,
The navigation information display method, wherein in calculating the angle, the processor calculates the angle using a center coordinate of the marker, a vector between the camera devices, and an optical axis of the camera device.
前記カメラデバイスで撮影した画像の投影面と前記ナビゲーション情報の投影面とは前記算出された角度をなす、ナビゲーション情報表示方法。 In claim 9,
A navigation information display method, wherein a projection plane of an image photographed by the camera device and a projection plane of the navigation information form the calculated angle.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015246348A JP2017111034A (en) | 2015-12-17 | 2015-12-17 | Terminal having camera, navigation information providing system, and navigation information display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015246348A JP2017111034A (en) | 2015-12-17 | 2015-12-17 | Terminal having camera, navigation information providing system, and navigation information display method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017111034A true JP2017111034A (en) | 2017-06-22 |
Family
ID=59080074
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015246348A Pending JP2017111034A (en) | 2015-12-17 | 2015-12-17 | Terminal having camera, navigation information providing system, and navigation information display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017111034A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7642755B2 (en) | 2019-06-06 | 2025-03-10 | マクセル株式会社 | Route guidance system and mobile information terminal used therein |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004048674A (en) * | 2002-05-24 | 2004-02-12 | Olympus Corp | Information presentation system of visual field agreement type, portable information terminal, and server |
| JP2005182350A (en) * | 2003-12-18 | 2005-07-07 | Olympus Corp | Information presenting system, information presenting device and server |
| JP2005257738A (en) * | 2004-03-09 | 2005-09-22 | Navitime Japan Co Ltd | Mobile terminal having map display function, map display system, information distribution server, and program |
| JP2005275447A (en) * | 2004-03-22 | 2005-10-06 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and program |
| JP2006101013A (en) * | 2004-09-28 | 2006-04-13 | Hitachi Ltd | Guidance information display device |
| JP2006344226A (en) * | 2002-05-24 | 2006-12-21 | Olympus Corp | Information presentation system of visual field agreement type, and portable information terminal for use in it |
| US20080055655A1 (en) * | 2006-08-31 | 2008-03-06 | Fujitsu Limited | Data input device, data input system, data input method, printing device, and printed matter |
| JP2009031892A (en) * | 2007-07-25 | 2009-02-12 | Dainippon Printing Co Ltd | Information reading system and program |
| JP2012216935A (en) * | 2011-03-31 | 2012-11-08 | Jvc Kenwood Corp | Information processing system, search device and program |
| JP2015129696A (en) * | 2014-01-08 | 2015-07-16 | Kddi株式会社 | Route guidance system, method, program, and data structure therefor |
-
2015
- 2015-12-17 JP JP2015246348A patent/JP2017111034A/en active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004048674A (en) * | 2002-05-24 | 2004-02-12 | Olympus Corp | Information presentation system of visual field agreement type, portable information terminal, and server |
| JP2006344226A (en) * | 2002-05-24 | 2006-12-21 | Olympus Corp | Information presentation system of visual field agreement type, and portable information terminal for use in it |
| JP2005182350A (en) * | 2003-12-18 | 2005-07-07 | Olympus Corp | Information presenting system, information presenting device and server |
| JP2005257738A (en) * | 2004-03-09 | 2005-09-22 | Navitime Japan Co Ltd | Mobile terminal having map display function, map display system, information distribution server, and program |
| JP2005275447A (en) * | 2004-03-22 | 2005-10-06 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and program |
| JP2006101013A (en) * | 2004-09-28 | 2006-04-13 | Hitachi Ltd | Guidance information display device |
| US20080055655A1 (en) * | 2006-08-31 | 2008-03-06 | Fujitsu Limited | Data input device, data input system, data input method, printing device, and printed matter |
| JP2009031892A (en) * | 2007-07-25 | 2009-02-12 | Dainippon Printing Co Ltd | Information reading system and program |
| JP2012216935A (en) * | 2011-03-31 | 2012-11-08 | Jvc Kenwood Corp | Information processing system, search device and program |
| JP2015129696A (en) * | 2014-01-08 | 2015-07-16 | Kddi株式会社 | Route guidance system, method, program, and data structure therefor |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7642755B2 (en) | 2019-06-06 | 2025-03-10 | マクセル株式会社 | Route guidance system and mobile information terminal used therein |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| TWI649675B (en) | Display device | |
| US10242456B2 (en) | Digitally encoded marker-based augmented reality (AR) | |
| JP5740884B2 (en) | AR navigation for repeated shooting and system, method and program for difference extraction | |
| KR101330805B1 (en) | Apparatus and Method for Providing Augmented Reality | |
| US20160327946A1 (en) | Information processing device, information processing method, terminal device, and setting method | |
| KR20150082358A (en) | Reference coordinate system determination | |
| CN110703805B (en) | Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium | |
| US20130176337A1 (en) | Device and Method For Information Processing | |
| TW201715476A (en) | Navigation system based on augmented reality technique analyzes direction of users' moving by analyzing optical flow through the planar images captured by the image unit | |
| CN102893129A (en) | Terminal location specifying system, mobile terminal and terminal location specifying method | |
| JP7107166B2 (en) | Floor detection program, floor detection method, and terminal device | |
| WO2019029156A1 (en) | Method and apparatus for navigating indoor target position, electronic device, and medium | |
| CN113474819A (en) | Information processing apparatus, information processing method, and program | |
| JP2020008917A (en) | Augmented reality display system, augmented reality display method, and computer program for augmented reality display | |
| KR101253644B1 (en) | Apparatus and method for displaying augmented reality content using geographic information | |
| JP6304815B2 (en) | Image processing apparatus and image feature detection method, program and apparatus thereof | |
| KR101914660B1 (en) | Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor | |
| WO2023090213A1 (en) | Information processing device, information processing method, and program | |
| TW201621273A (en) | Mobile positioning apparatus and positioning method thereof | |
| JP2017111034A (en) | Terminal having camera, navigation information providing system, and navigation information display method | |
| EP4475547A1 (en) | Program, information processing device, and information processing method | |
| JP2018032991A (en) | Image display unit, image display method and computer program for image display | |
| US12073515B2 (en) | Information processing apparatus, display system, display method, and non-transitory computer readable medium storing program | |
| JP2017162192A (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
| JP7570711B2 (en) | Method for providing virtual indoor space content and server therefor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180117 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181031 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190117 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190702 |