[go: up one dir, main page]

JP2017111034A - Terminal having camera, navigation information providing system, and navigation information display method - Google Patents

Terminal having camera, navigation information providing system, and navigation information display method Download PDF

Info

Publication number
JP2017111034A
JP2017111034A JP2015246348A JP2015246348A JP2017111034A JP 2017111034 A JP2017111034 A JP 2017111034A JP 2015246348 A JP2015246348 A JP 2015246348A JP 2015246348 A JP2015246348 A JP 2015246348A JP 2017111034 A JP2017111034 A JP 2017111034A
Authority
JP
Japan
Prior art keywords
navigation information
camera
marker
angle
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015246348A
Other languages
Japanese (ja)
Inventor
明 黒澤
Akira Kurosawa
明 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2015246348A priority Critical patent/JP2017111034A/en
Publication of JP2017111034A publication Critical patent/JP2017111034A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

【課題】GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートするための技術を提供する。【解決手段】本実施形態のナビゲーション情報表示では、カメラとマーカー間の3次元相対位置は利用されない。カメラとマーカー間の相対角度は、画像上に投影されるマーカー位置と事前に校正して得た光軸位置から、カメラモデルにおけるカメラ光軸ベクトルとマーカーへのベクトル間の角度として得る。得た相対角度を基に、画面上に撮影した画像とナビゲーションのための矢印・案内を、より適切な角度で重畳表示し、利用者を目的地までナビゲーションする。【選択図】図6Provided is a technique for accurately navigating a user in an environment where sufficient accuracy cannot be expected from a GPS or a gyro sensor. In the navigation information display of this embodiment, the three-dimensional relative position between the camera and the marker is not used. The relative angle between the camera and the marker is obtained as the angle between the camera optical axis vector in the camera model and the vector to the marker from the marker position projected on the image and the optical axis position obtained by calibrating in advance. Based on the obtained relative angle, the image taken on the screen and the navigation arrows and guidance are superimposed and displayed at a more appropriate angle to navigate the user to the destination. [Selection] Figure 6

Description

本発明は、カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法に関する。   The present invention relates to a camera-equipped terminal, a navigation information providing system, and a navigation information display method.

従来、GPSを利用し、地図上に自身の位置と方向、目的地までをナビゲーション技術と製品がある。近年、カメラとGPS、ジャイロセンサ、加速度センサ、磁気センサを搭載するスマートフォンが普及し、カメラで撮影した画像にリアルタイムにナビゲーション情報を重畳表示するAR技術も数多く発表されている。   Conventionally, there are navigation techniques and products that use GPS to reach a location and direction on the map. In recent years, smartphones equipped with a camera, GPS, gyro sensor, acceleration sensor, and magnetic sensor have become widespread, and many AR technologies for displaying navigation information superimposed on an image taken with a camera in real time have been announced.

一方、GPSはGPS衛星を補足できない地下や屋内では利用できない。また、屋外のような広い空間でのナビゲーションについてはセンサの位置・姿勢誤差は許容されるが、屋内の狭い空間では屋外と比較して、センサの位置・姿勢誤差は許容されない状況が発生する。GPSが存在しない環境下、例えば屋内において目的地へ到達するためには、全体案内図や矢印の付いた道標に頼ることになる。   On the other hand, GPS cannot be used underground or indoors where GPS satellites cannot be supplemented. Further, for navigation in a wide space such as outdoors, the sensor position / posture error is allowed, but in a narrow indoor space, the sensor position / posture error is not allowed as compared to the outdoors. In order to reach the destination indoors, for example indoors, in which GPS is not present, the user must rely on a whole guide map and a signpost with arrows.

しかし、一般的に全体案内図は施設出入口や各フロアのエレベータホールにしかなく、必要なときに参照できない。また、矢印付きの案内は利用頻度の高い代表的な目的地は表記されることが多いが、利用頻度の低い目的地に関して表記されることは期待できない。   However, the general guide map is generally only at the entrance / exit of the facility and the elevator hall of each floor and cannot be referred to when necessary. In addition, in the guidance with arrows, representative destinations with high use frequency are often written, but it is not expected to be written about destinations with low use frequency.

この課題に対処するため、例えば、特許文献1のように、GPSやジャイロセンサ等を利用せず、カメラに映ったマーカーを認識し、さらにマーカーとの位置関係を求める方法がある。   In order to cope with this problem, for example, as disclosed in Patent Document 1, there is a method of recognizing a marker reflected on a camera and obtaining a positional relationship with the marker without using a GPS or a gyro sensor.

特開2005−115500号公報JP 2005-115500 A

特許文献1は、白黒で印刷された2次元バーコードを利用して、情報の読み取りと同時に、2次元バーコード平面の法線方向とカメラ光軸方向の相対角度と2次元バーコードとカメラの3次元相対位置を特定している。   Patent Document 1 uses a two-dimensional barcode printed in black and white, and simultaneously with reading information, the normal direction of the two-dimensional barcode plane, the relative angle in the camera optical axis direction, the two-dimensional barcode, and the camera The three-dimensional relative position is specified.

しかしながら、現実的には、2次元バーコード以外が画像上に映る場合が多く、このような状況では相対角度と相対位置の特定は難しい。また、角度のある2次元バーコード画像を正対するように歪みを補正し、2次元バーコードの情報を読み取りやすくするだけであり、正確なナビゲーション情報を利用者に提供するものではない。   However, in reality, there are many cases where an image other than the two-dimensional barcode is displayed on the image, and in such a situation, it is difficult to specify the relative angle and the relative position. In addition, the distortion is corrected so as to face the two-dimensional barcode image with an angle, and the information of the two-dimensional barcode is merely read, and accurate navigation information is not provided to the user.

本発明はこのような状況に鑑みてなされたものであり、GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートするための技術を提供するものである。   The present invention has been made in view of such a situation, and provides a technique for accurately navigating a user in an environment where sufficient accuracy cannot be expected from a GPS or a gyro sensor.

上記の目的を達成するために、本発明は、カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するカメラ付き端末を提供する。当該カメラ付き端末は、カメラデバイスの光軸と前記マーカーとの角度を算出し、ナビゲーション情報の投影面上で、ナビゲーション情報を算出した角度分回転させてカメラデバイスで撮影して得られた画像に重畳表示する。   In order to achieve the above object, the present invention provides a camera-equipped terminal that reads a marker with a camera and displays navigation information based on the marker on a screen. The camera-equipped terminal calculates an angle between the optical axis of the camera device and the marker, rotates the navigation information on the projection plane of the navigation information by the calculated angle, and captures the image obtained by the camera device. Superimposed display.

本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本発明の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される特許請求の範囲の様態により達成され実現される。   Further features related to the present invention will become apparent from the description of the present specification and the accompanying drawings. The embodiments of the present invention can be achieved and realized by elements and combinations of various elements and the following detailed description and appended claims.

本明細書の記述は典型的な例示に過ぎず、本発明の特許請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。   It should be understood that the description herein is merely exemplary and is not intended to limit the scope of the claims or the application of the invention in any way.

本発明によれば、GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートすることができるようになる。   According to the present invention, a user can be accurately navigated in an environment where sufficient accuracy cannot be expected from a GPS or a gyro sensor.

本発明の実施形態によるナビゲーション情報提供システム(地図関連情報配信システムとも称することが可能)の概略機能構成例を示す図である。It is a figure which shows the example of a rough function structure of the navigation information provision system (it can also be called a map relevant-information delivery system) by embodiment of this invention. 本発明を利用する一例となる屋内環境の見取り図である。It is a sketch of an indoor environment as an example using the present invention. ナビゲーション情報0300のデータ構造例を示す図である。It is a figure which shows the data structure example of the navigation information 0300. カメラ付き端末0101が撮影する環境を表す図である。It is a figure showing the environment which the terminal 0101 with a camera image | photographs. カメラが撮影する環境下における、被写体と投影される画像との関係を表すモデル図(上面)である。It is a model figure (upper surface) showing the relationship between a to-be-photographed object and the image projected in the environment which a camera image | photographs. カメラが撮影する環境下における、被写体及び投影される画像と重畳するナビゲーション情報との関係を表すモデル図である。It is a model figure showing the relationship between the to-be-photographed image with the to-be-photographed object and the projection information in the environment which a camera image | photographs. カメラで撮影した画像とナビゲーション情報との重畳表示例を示す図である。It is a figure which shows the example of a superimposed display of the image image | photographed with the camera, and navigation information. 本発明の実施形態のナビゲーション情報提供システム0100におけるナビゲーション情報表示処理(ナビゲーション情報取得から表示までの処理)を説明するためのフローチャートである。It is a flowchart for demonstrating the navigation information display process (process from a navigation information acquisition to a display) in the navigation information provision system 0100 of embodiment of this invention. 本発明の実施形態によるナビゲーション情報提供システムの概略ハードウェア構成例を示す図である。It is a figure which shows the schematic hardware structural example of the navigation information provision system by embodiment of this invention.

本発明の実施形態は、表示装置を搭載し、カメラを利用する固定型、あるいは、移動型の端末装置に対して、撮影した画像中に検出されたマーカーの座標と埋め込まれた情報を読み取り、撮影した画像とナビゲーション情報を利用者の直感に合致した態様で重畳表示するものである。   Embodiments of the present invention are equipped with a display device and read the coordinates of markers and embedded information detected in a captured image for a fixed or mobile terminal device using a camera, The captured image and navigation information are superimposed and displayed in a manner that matches the user's intuition.

本実施形態によるナビゲーション情報表示では、カメラとマーカー間の3次元相対位置を利用しない。カメラとマーカー間の相対角度は、画像上に投影されるマーカー位置と事前に校正して得た光軸位置から、カメラモデルにおけるカメラ光軸ベクトルとマーカーへのベクトル間の角度として得る。得た相対角度を基に、画面上に撮影した画像とナビゲーションのための矢印・案内を、より適切な角度で重畳表示し、利用者を目的地までナビゲーションする。   In the navigation information display according to the present embodiment, the three-dimensional relative position between the camera and the marker is not used. The relative angle between the camera and the marker is obtained as the angle between the camera optical axis vector in the camera model and the vector to the marker from the marker position projected on the image and the optical axis position obtained by calibrating in advance. Based on the obtained relative angle, the image taken on the screen and the navigation arrows and guidance are superimposed and displayed at a more appropriate angle to navigate the user to the destination.

以下、添付図面を参照して本発明の実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, functionally identical elements may be denoted by the same numbers. The attached drawings show specific embodiments and implementation examples based on the principle of the present invention, but these are for understanding the present invention and are not intended to limit the present invention. Not used.

本実施形態では、当業者が本発明を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本発明の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。   This embodiment has been described in sufficient detail for those skilled in the art to practice the present invention, but other implementations and configurations are possible without departing from the scope and spirit of the technical idea of the present invention. It is necessary to understand that the configuration and structure can be changed and various elements can be replaced. Therefore, the following description should not be interpreted as being limited to this.

更に、本発明の実施形態は、後述されるように、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。   Furthermore, as will be described later, the embodiment of the present invention may be implemented by software running on a general-purpose computer, or may be implemented by dedicated hardware or a combination of software and hardware.

なお、以後の説明では「テーブル」形式によって本実施形態の各情報について説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくても良く、リスト、DB、キュー等のデータ構造やそれ以外で表現されていても良い。そのため、データ構造に依存しないことを示すために「テーブル」、「リスト」、「DB」、「キュー」等について単に「情報」と呼ぶことがある。   In the following description, each information of the present embodiment will be described in the “table” format. However, the information does not necessarily have to be represented by a data structure using a table. It may be expressed in other than. Therefore, “table”, “list”, “DB”, “queue”, etc. may be simply referred to as “information” to indicate that they do not depend on the data structure.

また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。   In addition, when explaining the contents of each information, the expressions “identification information”, “identifier”, “name”, “name”, “ID” can be used, and these can be replaced with each other. It is.

以下では各処理部(画像解析部、情報取得部、表示部など)を主語(動作主体)として本発明の実施形態における各処理について説明を行うが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。   In the following, each processing in the embodiment of the present invention will be described with each processing unit (image analysis unit, information acquisition unit, display unit, etc.) as a subject (operation subject). Since the processing is performed using the memory and the communication port (communication control device), the description may be made with the processor as the subject. Part or all of the program may be realized by dedicated hardware, or may be modularized. Various programs may be installed in each computer by a program distribution server or a storage medium.

<システム機能構成>
図1は、本発明の実施形態によるナビゲーション情報提供システム(地図関連情報配信システムとも称することが可能)の概略機能構成例を示す図である。
<System function configuration>
FIG. 1 is a diagram illustrating a schematic functional configuration example of a navigation information providing system (also referred to as a map-related information distribution system) according to an embodiment of the present invention.

ナビゲーション情報提供システム0100は、カメラ付き端末0101と、ナビゲーション情報配信サーバ0102と、ナビゲーションデータベース(DB)0103と、を有する。例えば、カメラ付き端末0101と、ナビゲーション情報配信サーバ0102とは通信網(ネットワーク)0111を介して通信し、情報の配信・取得が可能となっている。また、ナビゲーション情報配信サーバ0102とナビゲーションDB0103は有線で直接的に繋がれていても良いし、別のネットワークでつながれていても良い。   The navigation information providing system 0100 includes a camera-equipped terminal 0101, a navigation information distribution server 0102, and a navigation database (DB) 0103. For example, the camera-equipped terminal 0101 and the navigation information distribution server 0102 can communicate with each other via a communication network (network) 0111 to distribute and acquire information. Further, the navigation information distribution server 0102 and the navigation DB 0103 may be directly connected by a cable, or may be connected by another network.

カメラ付き端末0101は、撮影部0104と、画像解析部0105と、情報取得部0106と、表示部0110と、を有している。   The camera-equipped terminal 0101 includes an imaging unit 0104, an image analysis unit 0105, an information acquisition unit 0106, and a display unit 0110.

ナビゲーション情報配信サーバ0102は、配信リクエスト受信部0107と、情報取得部0108と、情報配信部0109と、を有している。   The navigation information distribution server 0102 includes a distribution request reception unit 0107, an information acquisition unit 0108, and an information distribution unit 0109.

カメラ付き端末0101において、撮影部0104は、カメラを含んでいる。利用者が、撮影部0104に付属されたカメラを用いて撮影し、対象物の画像を取得する。画像解析部0105は、撮影して得た画像から、2次元バーコードを認識し、2次元バーコードに含まれる情報を取り出す。それと同時に、画像解析部0105は、画像座標系における2次元バーコードの中心座標と光軸座標を計算し、さらに、カメラの投影モデルからナビゲーション情報の補正角度を計算する。情報取得部0106は、画像解析部0105によって得られた2次元バーコード情報を条件として、ナビゲーション情報配信サーバ0102に当該2次元バーコード情報に対応する情報について問い合わせる。   In the camera-equipped terminal 0101, the photographing unit 0104 includes a camera. A user photographs using a camera attached to the photographing unit 0104 and acquires an image of the object. The image analysis unit 0105 recognizes a two-dimensional barcode from an image obtained by photographing and extracts information included in the two-dimensional barcode. At the same time, the image analysis unit 0105 calculates the center coordinates and optical axis coordinates of the two-dimensional barcode in the image coordinate system, and further calculates the correction angle of the navigation information from the projection model of the camera. The information acquisition unit 0106 inquires of the navigation information distribution server 0102 about information corresponding to the two-dimensional barcode information on the condition of the two-dimensional barcode information obtained by the image analysis unit 0105.

ナビゲーション情報配信サーバ0102の配信リクエスト受信部0107は、カメラ付き端末0101の情報取得部0106からの問合せを受け付ける。情報取得部0108は、2次元バーコード情報に対応するナビゲーション情報を取得し、情報配信部0109に受け渡す。情報配信部0109は、問合せ元のカメラ付き端末0101に情報取得部0108から取得したナビゲーション情報を提供する。   The distribution request reception unit 0107 of the navigation information distribution server 0102 receives an inquiry from the information acquisition unit 0106 of the camera-equipped terminal 0101. The information acquisition unit 0108 acquires navigation information corresponding to the two-dimensional barcode information and passes it to the information distribution unit 0109. The information distribution unit 0109 provides the navigation information acquired from the information acquisition unit 0108 to the inquiring camera-equipped terminal 0101.

2次元バーコード情報に対応するナビゲーション情報を取得したカメラ付き端末0101は、表示部0110を用いて、撮影部0104で撮影した画像とナビゲーション情報を重畳表示する。このとき重畳するナビゲーション情報のラベル、または、矢印をナビゲーション情報補正角度ほど回転させる。   The camera-equipped terminal 0101 that has acquired the navigation information corresponding to the two-dimensional barcode information uses the display unit 0110 to superimpose and display the image captured by the imaging unit 0104 and the navigation information. At this time, the label or arrow of the navigation information to be superimposed is rotated by the navigation information correction angle.

尚、通信網を介さずカメラ付き端末0101内にナビゲーション情報配信サーバ0102、ナビゲーションDB0103を配置した構成も実現可能である。また、カメラ付き端末0101に、撮影部0104、情報取得部0106、及び表示部0110のみを持たせ、画像解析部0105が実行する処理を全てナビゲーション情報配信サーバ0102側で実行するようにしても良い。   A configuration in which the navigation information distribution server 0102 and the navigation DB 0103 are arranged in the camera-equipped terminal 0101 without using a communication network can be realized. Further, the camera-equipped terminal 0101 may include only the photographing unit 0104, the information acquisition unit 0106, and the display unit 0110, and all the processing executed by the image analysis unit 0105 may be executed on the navigation information distribution server 0102 side. .

<システムハードウェア構成>
図9は、本発明の実施形態によるナビゲーション情報提供システムの概略ハードウェア構成例を示す図である。
<System hardware configuration>
FIG. 9 is a diagram showing a schematic hardware configuration example of the navigation information providing system according to the embodiment of the present invention.

図9に示されるように、カメラ付き端末0101及びナビゲーション情報配信サーバ0102は、例えば、一般的なコンピュータによって構成することができる。   As shown in FIG. 9, the camera-equipped terminal 0101 and the navigation information distribution server 0102 can be configured by a general computer, for example.

カメラ付き端末0101は、例えば、各種プログラムを実行するCPU(単にプロセッサと称することもできる)0901と、カメラデバイス0902と、利用者が指示や情報を入力するための入力デバイス0903と、CPUによる処理結果を出力するための出力デバイス0904と、各種プログラムや処理結果を格納したり、処理途中の情報を一時的に格納したりする記憶デバイス0905と、ナビゲーション情報配信サーバ0102等と通信するための通信デバイス0906と、を有している。   The camera-equipped terminal 0101 includes, for example, a CPU (also simply referred to as a processor) 0901 for executing various programs, a camera device 0902, an input device 0903 for a user to input instructions and information, and processing by the CPU An output device 0904 for outputting results, a storage device 0905 for storing various programs and processing results, and temporarily storing information in the middle of processing, and communication for communicating with the navigation information distribution server 0102 and the like Device 0906.

ナビゲーション情報配信サーバ0102は、例えば、各種プログラムを実行するCPU(単にプロセッサと称することもできる)0911と、サーバ管理者が指示や情報を入力するための入力デバイス0912と、CPUによる処理結果を出力するための出力デバイス0913と、各種プログラムや処理結果を格納したり、処理途中の情報を一時的に格納したりする記憶デバイス0914と、カメラ付き端末0101等と通信するための通信デバイス0915と、を有している。   The navigation information distribution server 0102 outputs, for example, a CPU (also simply referred to as a processor) 0911 that executes various programs, an input device 0912 for a server administrator to input instructions and information, and processing results by the CPU An output device 0913 for storing, a storage device 0914 for storing various programs and processing results, temporarily storing information in the middle of processing, a communication device 0915 for communicating with the camera-equipped terminal 0101, and the like, have.

入力デバイス0903及び0912は、例えば、各種ボタン、キーボード、タッチパネル、マイク等によって構成される。出力デバイス0904及び0913は、例えば、画像や文字列を表示するディスプレイや音声を出力するスピーカ等によって構成される。記憶デバイス0905及び0914は、例えばROMやRAMなどによって構成される。   The input devices 0903 and 0912 include, for example, various buttons, a keyboard, a touch panel, a microphone, and the like. The output devices 0904 and 0913 include, for example, a display that displays images and character strings, a speaker that outputs sound, and the like. The storage devices 0905 and 0914 are configured by, for example, a ROM or a RAM.

カメラ付き端末0101のCPU0901は、カメラデバイスによる撮像処理を制御するためのプログラムである撮影部09011と、撮影部09011によって処理された画像データや情報を解析するためのプログラムである画像解析部09012と、ナビゲーション情報配信サーバ0102から情報(ナビゲーション情報)を取得するためのプログラムである情報取得部09013と、画像データとナビゲーション情報を出力デバイス0904に重畳表示するためのプログラムである表示部09014と、を実行する。   The CPU 0901 of the camera-equipped terminal 0101 includes an image capturing unit 09011 that is a program for controlling image capturing processing by the camera device, and an image analysis unit 09012 that is a program for analyzing image data and information processed by the image capturing unit 09011. An information acquisition unit 09013 that is a program for acquiring information (navigation information) from the navigation information distribution server 0102, and a display unit 09014 that is a program for displaying image data and navigation information on the output device 0904 in a superimposed manner. Run.

ナビゲーション情報配信サーバ0102のCPU0911は、カメラ付き端末0101からのナビゲーション情報配信リクエストを受信処理するためのプログラムである配信リクエスト受信部09111と、受信したナビゲーション情報配信リクエストに含まれる2次元バーコードID(CodeID:図3参照)に対応するナビゲーション情報をナビゲーションDB0103から取得するためのプログラムである情報取得部09112と、得られたナビゲーション情報をカメラ付き端末0101に送信処理するためのプログラムである情報配信部09113と、を実行する。   The CPU 0911 of the navigation information distribution server 0102 receives a distribution request reception unit 09111 that is a program for receiving a navigation information distribution request from the camera-equipped terminal 0101 and a two-dimensional barcode ID ( Information acquisition unit 09112 which is a program for acquiring navigation information corresponding to CodeID (see FIG. 3) from the navigation DB 0103, and an information distribution unit which is a program for transmitting the obtained navigation information to the camera-equipped terminal 0101 09113 are executed.

なお、図9では、各種プログラムがCPUの内蔵メモリに展開されている状態が示されている。実行前においては、各種プログラムは、例えば、記憶デバイス0905或いは0914に格納されており、実行時にCPU0901或いは0911によって読み込まれ、実行されることとなる。   FIG. 9 shows a state in which various programs are expanded in the internal memory of the CPU. Before execution, various programs are stored in, for example, the storage device 0905 or 0914, and are read and executed by the CPU 0901 or 0911 at the time of execution.

<利用場面>
図2は、本発明の実施形態によるナビゲーション情報提供システム0100によってナビゲーション情報が提供される場面例(屋内環境)を示す図である。
<Use scene>
FIG. 2 is a diagram illustrating a scene example (indoor environment) where navigation information is provided by the navigation information providing system 0100 according to the embodiment of the present invention.

当該ナビゲーション情報は、例えば、壁正面0201、壁左面0202、壁右面0203で構成される空間で提供される。そして、当該空間の中心に利用者0204が配置されるような場面を想定する。各壁の間には通路がある。各通路は、会議室A,執務室D0205、会議室B0206、及び出入口C0207にそれぞれ通じている。   The navigation information is provided in a space configured by, for example, a wall front surface 0201, a wall left surface 0202, and a wall right surface 0203. A scene is assumed in which the user 0204 is placed at the center of the space. There is a passage between each wall. Each passage leads to conference room A, office room D0205, conference room B0206, and entrance C0207, respectively.

利用者は、例えば、会議室Aの通路の先にある執務室Dを目的地としているものとする。壁正面0201には、利用者の目線と同程度の高さに2次元バーコード0208が配置されている。そして、利用者は、当該2次元バーコード0208を撮像し、それによって取得した2次元バーコード情報に基づいてナビゲーション情報がカメラ付き端末0101の画面上に重畳表示されることとなる。   It is assumed that the user is destined for the office room D at the end of the passage of the conference room A, for example. On the wall front 0201, a two-dimensional barcode 0208 is arranged at a height approximately equal to the user's line of sight. Then, the user takes an image of the two-dimensional barcode 0208, and the navigation information is superimposed and displayed on the screen of the camera-equipped terminal 0101 based on the two-dimensional barcode information acquired thereby.

<ナビゲーション情報のデータ構造例>
図3は、本発明の実施形態における、ナビゲーション情報0300のデータ構造例を示す図である。ナビゲーション情報0300は、テーブル構造をとっており、ナビゲーション情報を一意に特定・認識するためのNavigationID0301と、2次元バーコードを一意に特定・認識するためのCodeID0302(2次元コードから読み取られる情報である)と、撮影画像上に重畳される文字列を示すLabel0303と、カメラが2次元バーコードに正対したときに撮影画像上に重畳される矢印の角度(Label0303で示される場所の方向)を示すAngle0304と、を構成項目として含んでいる。
<Example data structure of navigation information>
FIG. 3 is a diagram showing a data structure example of the navigation information 0300 in the embodiment of the present invention. The navigation information 0300 has a table structure, NavigationID 0301 for uniquely identifying and recognizing navigation information, and CodeID 0302 for uniquely identifying and recognizing a two-dimensional barcode (information read from the two-dimensional code). ), A Label 0303 indicating a character string superimposed on the photographed image, and an arrow angle (direction of a location indicated by Label 0303) superimposed on the photographed image when the camera faces the two-dimensional barcode. Angle 0304 is included as a configuration item.

ナビゲーション情報配信サーバ0102の情報取得部0108は、CodeID0302をキーとして、ナビゲーションDB0103から対応するナビゲーション情報を取得する。つまり、CodeID0302を含むNavigationID0301に対応するLabel0303及びAngle0304の情報が取得される。なお、図3の例では、CodeID「1」の2次元バーコードは3つのナビゲーション情報に対応していることが示されている。   The information acquisition unit 0108 of the navigation information distribution server 0102 acquires corresponding navigation information from the navigation DB 0103 using CodeID 0302 as a key. That is, information of Label 0303 and Angle 0304 corresponding to Navigation ID 0301 including Code ID 0302 is acquired. In the example of FIG. 3, the two-dimensional barcode with CodeID “1” corresponds to three pieces of navigation information.

<カメラ付き端末が撮影する環境>
図4は、カメラ付き端末0101が撮影する環境を表す図である。カメラ付き端末0101は、例えば、表示画面とは反対面(背面)にカメラを有しており、撮影中の画像をプレビューとして画面に表示することができるように構成されている。
<Environment where the camera-equipped device shoots>
FIG. 4 is a diagram illustrating an environment in which the camera-equipped terminal 0101 shoots. The camera-equipped terminal 0101 has, for example, a camera on the opposite surface (back surface) to the display screen, and is configured to be able to display an image being shot on the screen as a preview.

カメラ付き端末0101を使用する場合、撮影部0104に含まれるカメラは、壁面(壁正面)0401と2次元バーコード0402を撮影する。そして、カメラ付き端末0101は、表示部0110の画面上に撮影範囲0403を表示する。なお、図4において、座標0404は、予めカメラキャリブレーションして得たカメラ光軸を示している。   When using the camera-equipped terminal 0101, the camera included in the imaging unit 0104 captures a wall surface (front wall) 0401 and a two-dimensional barcode 0402. Then, the camera-equipped terminal 0101 displays the shooting range 0403 on the screen of the display unit 0110. In FIG. 4, a coordinate 0404 indicates a camera optical axis obtained in advance by camera calibration.

なお、図4は、カメラの光軸と撮影される壁面0401からの法線ベクトルは一致せず、ある一定の角度をなす場面を例示している。   FIG. 4 illustrates a scene in which the optical axis of the camera and the normal vector from the wall surface 0401 to be photographed do not coincide with each other and form a certain angle.

<被写体と投影される画像との関係>
図5は、カメラが撮影する環境下における、被写体と投影される画像との関係を表すモデル図(上面)である。
<Relationship between subject and projected image>
FIG. 5 is a model diagram (upper surface) showing a relationship between a subject and a projected image under an environment where the camera captures an image.

カメラ0501があり、カメラ0501から光軸0502が伸びている。画像の投影面0503の範囲0506は、カメラレンズの画角0504とレンズの焦点距離0505から決まる。   There is a camera 0501, and an optical axis 0502 extends from the camera 0501. The range 0506 of the image projection plane 0503 is determined from the angle of view 0504 of the camera lens and the focal length 0505 of the lens.

また、2次元バーコード0507とカメラの光軸0502の相対角度0509は、2次元バーコード0507を投影面0503上に投影した座標0510と光軸との距離0508、及び焦点距離0505から得られる。当該相対角度0509は、光軸0502方向を0°とし、上面から見て右回りに表現する。   The relative angle 0509 between the two-dimensional barcode 0507 and the optical axis 0502 of the camera is obtained from the distance 0508 between the coordinate 0510 and the optical axis obtained by projecting the two-dimensional barcode 0507 onto the projection plane 0503, and the focal length 0505. The relative angle 0509 is expressed clockwise with the direction of the optical axis 0502 being 0 °, as viewed from above.

<被写体及び投影される画像と重畳するナビゲーション情報との関係>
図6は、カメラが撮影する環境下における、被写体及び投影される画像と重畳されるナビゲーション情報との関係を表すモデル図である。図6は、図5のモデルに対応するものである。
<Relationship between subject and projected image and superimposed navigation information>
FIG. 6 is a model diagram showing a relationship between a subject, a projected image, and navigation information to be superimposed under an environment where the camera captures an image. FIG. 6 corresponds to the model of FIG.

カメラ0601があり、カメラ0601から光軸0602が伸びている。図6のモデルが示す状態では、カメラ0601から2次元バーコード0603に向かうベクトル0604と光軸0602との間には角度0605が形成されている。   There is a camera 0601, and an optical axis 0602 extends from the camera 0601. In the state shown by the model in FIG. 6, an angle 0605 is formed between the vector 0604 from the camera 0601 toward the two-dimensional barcode 0603 and the optical axis 0602.

図6では、撮影画像の投影面0606と、ベクトル0604を法線ベクトルとするナビゲーション情報0607を投影する投影面0608とが、定義されている。つまり、投影面0608は、2次元バーコード0603が配置される壁面を示しているのではなく、ラベルと矢印から構成されるナビゲーション情報0607を投影する仮想的な面を示している。   In FIG. 6, a projection plane 0606 for a captured image and a projection plane 0608 for projecting navigation information 0607 with a vector 0604 as a normal vector are defined. That is, the projection surface 0608 does not indicate a wall surface on which the two-dimensional barcode 0603 is arranged, but indicates a virtual surface on which the navigation information 0607 composed of labels and arrows is projected.

投影面0608が投影面0606と光軸0602の交点0610を通るとすると、投影面0606と投影面0608との角度0609は、角度0605と等しい。即ち、投影面0606と投影面0608の上面から見た幾何学的関係は既知である。尚、側面についても図6と同様の幾何学的関係を記述できる。   If the projection plane 0608 passes through the intersection 0610 of the projection plane 0606 and the optical axis 0602, the angle 0609 between the projection plane 0606 and the projection plane 0608 is equal to the angle 0605. That is, the geometrical relationship seen from the upper surface of the projection surface 0606 and the projection surface 0608 is known. Note that the geometric relationship similar to that in FIG.

<ナビゲーション情報の重畳表示例>
図7は、カメラで撮影した画像とナビゲーション情報との重畳表示例を示す図である。図7に示されるように、利用者は、撮影部0104に含まれるカメラで壁正面0701と2次元バーコード0702を撮影している。そのとき、カメラ付き端末0101は、表示部0110の画面上に撮影範囲0703を表示している。座標0704は、予めカメラキャリブレーションして得たカメラ光軸を示している。
<Example of superimposed display of navigation information>
FIG. 7 is a diagram illustrating a superimposed display example of an image captured by a camera and navigation information. As shown in FIG. 7, the user is photographing the wall front 0701 and the two-dimensional barcode 0702 with the camera included in the photographing unit 0104. At that time, the camera-equipped terminal 0101 displays the shooting range 0703 on the screen of the display unit 0110. A coordinate 0704 indicates a camera optical axis obtained in advance by camera calibration.

ナビゲーション情報0705は、ラベルと矢印から構成され、画面上に対で表示される。矢印の方向は上方向を0°とし、右回りとする。2次元バーコードをキーとして得られたナビゲーション情報が、例えば、ラベルとして“会議室A”、角度(方向)として90°となっている場合、投影面0608と平面0606(図6参照)との角度0609が反映される前のナビゲーション情報は矢印0706で示される。この矢印0706の方向に対して、さらに投影面0608と平面0606との角度0609が加算され、当該角度が反映されたナビゲーション情報0705が表示される。尚、当該例では、投影面0608と平面0606との角度は左回りであるため、減算することになる。   The navigation information 0705 is composed of a label and an arrow, and is displayed as a pair on the screen. The direction of the arrow is 0 ° upward and clockwise. When the navigation information obtained using the two-dimensional barcode as a key is, for example, “conference room A” as the label and 90 ° as the angle (direction), the projection plane 0608 and the plane 0606 (see FIG. 6) Navigation information before the angle 0609 is reflected is indicated by an arrow 0706. An angle 0609 between the projection plane 0608 and the plane 0606 is further added to the direction of the arrow 0706, and navigation information 0705 reflecting the angle is displayed. In this example, since the angle between the projection plane 0608 and the plane 0606 is counterclockwise, subtraction is performed.

なお、この画面の重畳結果は、画像は水平方向を撮影した画像となるが、ナビゲーション情報は垂直方向を表現することになる。このため、ナビゲーション情報の表示として、説明上は違和感があるかもしれないが、利用者にとっては直感的に理解しやすいものとなっている。   As a result of superimposing the screen, the image is an image obtained by photographing the horizontal direction, but the navigation information represents the vertical direction. For this reason, the display of the navigation information may be uncomfortable for explanation, but it is easy for the user to understand intuitively.

<ナビゲーション情報表示処理の内容>
図8は、本発明の実施形態のナビゲーション情報提供システム0100におけるナビゲーション情報表示処理(ナビゲーション情報取得から表示までの処理)を説明するためのフローチャートである。
<Contents of navigation information display processing>
FIG. 8 is a flowchart for explaining navigation information display processing (processing from acquisition of navigation information to display) in the navigation information providing system 0100 according to the embodiment of the present invention.

(i)ステップ0801
まず、利用者が壁面を撮影することにより、カメラ付き端末0101の撮影部0104は画像iを取得する。
(I) Step 0801
First, when a user photographs a wall surface, the photographing unit 0104 of the camera-equipped terminal 0101 acquires an image i.

(ii)ステップ0802
画像解析部0105は、画像iから2次元バーコードを検出する。このとき複数の2次元バーコードを検出することを前提とする。また、利用する2次元バーコードは、数メートル離れた状況で、複数撮影・認識が可能であるカラーコードを想定しており、既存の検出方式を採用することによって検出することができる。
(Ii) Step 0802
The image analysis unit 0105 detects a two-dimensional barcode from the image i. At this time, it is assumed that a plurality of two-dimensional barcodes are detected. Also, the two-dimensional barcode to be used is assumed to be a color code that can be photographed and recognized in a plurality of distances, and can be detected by adopting an existing detection method.

(iii)ステップ0803
画像解析部0105は、ステップ0802の処理結果に基づいて、画像i上に2次元バーコードが含まれるか判定する。画像iに2次元バーコードが含まれていない場合(ステップ0803でNoの場合)、処理はステップ0804に移行する。画像iに2次元バーコードが含まれている場合(ステップ0803でYesの場合)、処理はステップ0805に移行する。
(Iii) Step 0803
The image analysis unit 0105 determines whether a two-dimensional barcode is included in the image i based on the processing result of step 0802. If the image i does not include a two-dimensional barcode (No in step 0803), the process proceeds to step 0804. If the image i includes a two-dimensional barcode (Yes in step 0803), the process proceeds to step 0805.

(iv)ステップ0804
表示部0110は、画像iのみを画面上に表示してナビゲーション情報表示処理を終了する。
(Iv) Step 0804
The display unit 0110 displays only the image i on the screen and ends the navigation information display process.

(v)ステップ0805
画像解析部0105は、複数検出された2次元バーコードの中で面積が最も大きなものを処理対象とする。なお、どの2次元バーコードが最大面積を有するかは、既存の検出方式であるカラーコードを用いた検出方式やライブラリ方式によって得られる四隅の座標を用いて各2次元バーコードのそれぞれ面積を算出し、比較することによって判定することができる。
(V) Step 0805
The image analysis unit 0105 sets the processing target to the one having the largest area among a plurality of detected two-dimensional barcodes. Which two-dimensional barcode has the maximum area is calculated by using the coordinates of the four corners obtained by the detection method using the color code that is the existing detection method and the library method. And can be determined by comparison.

(vi)ステップ0806
画像解析部0105は、処理対象2次元バーコードを読み取り、2次元バーコード情報であるID(CodeID)を抽出する。それと同時に、画像解析部0105は、処理対象の2次元バーコードの四隅の座標から中心座標を算出する。
(Vi) Step 0806
The image analysis unit 0105 reads a processing target two-dimensional barcode and extracts an ID (CodeID) that is two-dimensional barcode information. At the same time, the image analysis unit 0105 calculates center coordinates from the coordinates of the four corners of the two-dimensional barcode to be processed.

(vii)ステップ0807
画像解析部0105は、図5や図6に示される幾何学的関係に基づいて、カメラ光軸と処理対象2次元バーコード間の角度を算出する。
(Vii) Step 0807
The image analysis unit 0105 calculates an angle between the camera optical axis and the processing target two-dimensional barcode based on the geometrical relationship shown in FIGS.

(viii)ステップ0808
情報取得部0106は、画像解析部0105から処理対象2次元バーコードのID(CodeID)を取得し、それをキーとし、ナビゲーション情報配信サーバ0102に対応するナビゲーション情報を問い合せ(ナビゲーション情報配信リクエスト)する。ナビゲーション情報配信サーバ0102の情報取得部0108は、配信リクエスト受信部0107を介してナビゲーション情報配信リクエスト(CodeIDを含む)を取得し、ナビゲーションDB0103から対応するナビゲーション情報(図3参照)の有無を確認し、存在する場合にはそれを取得する。そして、ナビゲーション情報配信サーバ0102の情報配信部0109は、処理対象2次元バーコードに対応するナビゲーション情報をカメラ付き端末0101に送信する。対応するナビゲーション情報が無い場合にはカメラ付き端末0101にはその旨が通知される。
(Viii) Step 0808
The information acquisition unit 0106 acquires the ID (CodeID) of the processing target two-dimensional barcode from the image analysis unit 0105, and inquires the navigation information corresponding to the navigation information distribution server 0102 (navigation information distribution request) using it as a key. . The information acquisition unit 0108 of the navigation information distribution server 0102 acquires a navigation information distribution request (including CodeID) via the distribution request reception unit 0107, and checks whether there is corresponding navigation information (see FIG. 3) from the navigation DB 0103. If it exists, get it. Then, the information distribution unit 0109 of the navigation information distribution server 0102 transmits navigation information corresponding to the processing target two-dimensional barcode to the camera-equipped terminal 0101. If there is no corresponding navigation information, this is notified to the camera-equipped terminal 0101.

(ix)ステップ0809
カメラ付き端末0101の情報取得部0106は、ナビゲーション情報配信サーバ0102から受信した情報に基づいて、取得したナビゲーション情報の数を確認する。ナビゲーション情報数が0の場合(ステップ0809でNoの場合)、処理はステップ0804に移行する。ナビゲーション情報数が1以上の場合(ステップ0809でYesの場合)、処理はステップ0810に移行する。
(Ix) Step 0809
The information acquisition unit 0106 of the camera-equipped terminal 0101 confirms the number of acquired navigation information based on the information received from the navigation information distribution server 0102. If the number of navigation information is 0 (No in step 0809), the process proceeds to step 0804. If the number of navigation information is one or more (Yes in step 0809), the process proceeds to step 0810.

(x)ステップ0810
表示部0110は、図7のように、カメラで撮影した画像iとナビゲーション情報とを重畳表示する。
(X) Step 0810
As shown in FIG. 7, the display unit 0110 superimposes and displays the image i captured by the camera and the navigation information.

<まとめ>
(i)本実施形態では、ナビゲーション情報を撮影画像に重畳表示する際に、カメラデバイスの光軸とマーカー(例えば、2次元バーコード)との角度を算出し、ナビゲーション情報の投影面上でナビゲーション情報を当該角度分回転させる。このようにすることにより、マーカー(2次元バーコード)の情報を読み取るだけで、利用者に違和感を与えない直感的な方向についての示唆を与えることができる。
<Summary>
(I) In this embodiment, when the navigation information is superimposed on the captured image, the angle between the optical axis of the camera device and a marker (for example, a two-dimensional barcode) is calculated, and navigation is performed on the projection plane of the navigation information. The information is rotated by the angle. By doing so, it is possible to give an intuitive direction suggestion that does not give the user a sense of incongruity simply by reading the information of the marker (two-dimensional barcode).

より具体的には、カメラ付き端末は、マーカーからマーカー識別情報を取得し、当該マーカー識別情報をナビゲーション情報配信サーバに送信し、当該サーバからマーカー識別情報に対応するナビゲーション情報を取得する。このようにすることにより、マーカーに多くの情報を持たせる必要がなく、かつカメラ付き端末にナビゲーション情報のデータベースを備える必要ないので、処理を迅速に行うことができるようになる。ただし、これは、カメラ付き端末にナビゲーション情報を持たせることを否定するものではない。処理能力があり、記憶デバイスの容量が大きいカメラ付き端末であれば、ナビゲーションDBを持たせるようにしても利用者に不便はない。   More specifically, the camera-equipped terminal acquires marker identification information from the marker, transmits the marker identification information to the navigation information distribution server, and acquires navigation information corresponding to the marker identification information from the server. By doing in this way, it is not necessary to give much information to the marker, and it is not necessary to provide a database of navigation information in the camera-equipped terminal, so that the processing can be performed quickly. However, this does not deny that the camera-equipped terminal has navigation information. If it is a camera-equipped terminal having a processing capacity and a large storage device capacity, there is no inconvenience for the user even if the navigation DB is provided.

また、角度を算出する場合、マーカーの中心座標とカメラデバイスの間のベクトルとカメラデバイスの光軸との角度が算出される。このようにすることにより、幾何学的関係を用いて容易に角度を知ることができる。この角度は、カメラデバイスで撮影して得られた画像の投影面とナビゲーション情報の投影面との角度に相当するものとなっている。   When calculating the angle, the angle between the center coordinate of the marker and the vector between the camera device and the optical axis of the camera device is calculated. By doing in this way, an angle can be easily known using a geometric relationship. This angle corresponds to the angle between the projection plane of the image obtained by photographing with the camera device and the projection plane of the navigation information.

本実施形態では、撮影画像には複数のマーカーが含まれることが許容される。この場合、画像から面積が最大となるマーカーが処理対象のマーカーとして抽出される。このようにすることにより、複数のマーカーが検出されても容易に重畳表示すべきナビゲーション情報を取得することができるようになる。尚、本実施形態とは異なるが、撮影された複数のマーカーの近傍に、相互に重畳しないように全てのナビゲーション情報を表示してもよい。このとき、対応するマーカーの面積比を利用し、ナビゲーション情報に対して透過度やラベルサイズを重み付けして表示してもよい。   In the present embodiment, the captured image is allowed to include a plurality of markers. In this case, the marker having the maximum area is extracted from the image as the marker to be processed. By doing in this way, even if a some marker is detected, the navigation information which should be superimposed-displayed easily can be acquired now. Although different from the present embodiment, all navigation information may be displayed in the vicinity of a plurality of photographed markers so as not to overlap each other. At this time, using the area ratio of the corresponding marker, the navigation information may be displayed by weighting the transparency and the label size.

(ii)本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 (Ii) The present invention can also be realized by software program codes that implement the functions of the embodiments. In this case, a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention. As a storage medium for supplying such program code, for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. are used.

また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。   Also, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. May be. Further, after the program code read from the storage medium is written in the memory on the computer, the computer CPU or the like performs part or all of the actual processing based on the instruction of the program code. Thus, the functions of the above-described embodiments may be realized.

さらに、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。   Further, by distributing the program code of the software that realizes the functions of the embodiment via a network, it is stored in a storage means such as a hard disk or memory of a system or apparatus, or a storage medium such as a CD-RW or CD-R And the computer (or CPU or MPU) of the system or apparatus may read and execute the program code stored in the storage means or the storage medium when used.

最後に、ここで述べたプロセス及び技術は本質的に如何なる特定の装置に関連することはなく、コンポーネントの如何なる相応しい組み合わせによってでも実装できることを理解する必要がある。更に、汎用目的の多様なタイプのデバイスがここで記述した教授に従って使用可能である。ここで述べた方法のステップを実行するのに、専用の装置を構築するのが有益であることが判るかもしれない。また、実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。本発明は、具体例に関連して記述したが、これらは、すべての観点に於いて限定の為ではなく説明の為である。本分野にスキルのある者には、本発明を実施するのに相応しいハードウェア、ソフトウェア、及びファームウエアの多数の組み合わせがあることが解るであろう。例えば、記述したソフトウェアは、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。   Finally, it should be understood that the processes and techniques described herein are not inherently related to any particular apparatus, and can be implemented by any suitable combination of components. In addition, various types of devices for general purpose can be used in accordance with the teachings described herein. It may prove useful to build a dedicated device to perform the method steps described herein. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Although the present invention has been described with reference to specific examples, these are in all respects illustrative rather than restrictive. Those skilled in the art will appreciate that there are numerous combinations of hardware, software, and firmware that are suitable for implementing the present invention. For example, the described software can be implemented in a wide range of programs or script languages such as assembler, C / C ++, perl, shell, PHP, Java (registered trademark).

さらに、上述の実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていても良い。   Furthermore, in the above-described embodiment, control lines and information lines are those that are considered necessary for explanation, and not all control lines and information lines on the product are necessarily shown. All the components may be connected to each other.

加えて、本技術分野の通常の知識を有する者には、本発明のその他の実装がここに開示された本発明の明細書及び実施形態の考察から明らかになる。明細書と具体例は典型的なものに過ぎず、本発明の範囲と精神は後続する請求範囲で示される。   In addition, other implementations of the invention will be apparent to those skilled in the art from consideration of the specification and embodiments of the invention disclosed herein. The specification and specific examples are merely exemplary, and the scope and spirit of the invention are indicated in the following claims.

0101 カメラ付き端末、0102 ナビゲーション情報配信サーバ、0103 ナビゲーションDB、0104 撮影部、0105 画像解析部、0106 情報取得部、0107 配信リクエスト受信部、0108 情報取得部、0109 情報配信部、0110 表示部、0201 壁正面、0202 壁左面、0203 壁右面、0204 利用者、0205 ナビゲーション情報右、0206 ナビゲーション情報左、0207 ナビゲーション情報背面、0208 2次元バーコード、0300 ナビゲーション情報、0301 ナビゲーションID、0302 2次元バーコードID、0303 ナビゲーションラベル、0304 ナビゲーション角度、0401 壁正面、0402 2次元バーコード、0403 撮影範囲、0404 座標(光軸位置)、0501 カメラ、0502 光軸(ベクトル)、0503 平面(投影面)、0504 画角、0505 焦点距離、0506 光軸から撮影境界までの距離(範囲)、0507 2次元バーコード、0508 光軸から投影された2次元バーコードまでの距離、0509 相対角度(光軸から2次元バーコードまでの角度)、0601 カメラ、0602 光軸(ベクトル)、0603 2次元バーコード、0604 カメラから2次元バーコードへのベクトル、0605 光軸ベクトルと2次元バーコードへのベクトル間の角度、0606 平面(撮影画像の投影面)、0607 ナビゲーション情報、0608 投影面(ナビゲーション情報投影基準面)、0609 投影面とナビゲーション情報投影基準面間角度、0701 壁正面、0702 2次元バーコード、0703 撮影範囲、0704 座標(光軸位置)、0705 ナビゲーション情報(ナビゲーションラベルと矢印) 0101 Terminal with camera, 0102 Navigation information distribution server, 0103 Navigation DB, 0104 Imaging section, 0105 Image analysis section, 0106 Information acquisition section, 0107 Distribution request reception section, 0108 Information acquisition section, 0109 Information distribution section, 0110 Display section, 0201 Wall Front, 0202 Wall Left, 0203 Wall Right, 0204 User, 0205 Navigation Information Right, 0206 Navigation Information Left, 0207 Navigation Information Back, 0208 2D Barcode, 0300 Navigation Information, 0301 Navigation ID, 0302 2D Barcode ID , 0303 Navigation label, 0304 Navigation angle, 0401 Front of wall, 0402 Two-dimensional barcode, 0403 Shooting range, 0404 coordinates (Optical axis position), 0501 camera, 0502 optical axis (vector), 0503 plane (projection plane), 0504 angle of view, 0505 focal length, 0506 distance from optical axis to shooting boundary (range), 0507 2D barcode, 0508 Distance from optical axis to projected 2D barcode, 0509 relative angle (angle from optical axis to 2D barcode), 0601 camera, 0602 optical axis (vector), 0603 2D barcode, 0604 2 from camera Vector to dimensional barcode, 0605 Angle between optical axis vector and vector to two-dimensional barcode, 0606 plane (projection plane of captured image), 0607 navigation information, 0608 projection plane (navigation information projection reference plane), 0609 projection Angle between plane and navigation information projection reference plane, 0701 Surface, 0702 2D barcode, 0703 shooting range, 0704 coordinates (optical axis position), 0705 navigation information (navigation label and arrow)

Claims (10)

カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するカメラ付き端末であって、
カメラデバイスと、
各種プログラムを格納する記憶デバイスと、
前記記憶デバイスから前記各種プログラムを読み込み、当該各種プログラムに基づいて、前記カメラデバイスで撮影して得られた画像に、前記マーカーに基づく前記ナビゲーション情報を前記画面上に重畳表示するための処理を実行するプロセッサと、を有し、
前記プロセッサは、
前記カメラデバイスの光軸と前記マーカーとの角度を算出する処理と、
前記ナビゲーション情報の投影面上で前記ナビゲーション情報を前記算出した角度分回転させて前記カメラデバイスで撮影して得られた画像に重畳表示する処理と、
を実行する、カメラ付き端末。
A camera-equipped terminal that reads a marker with a camera and displays navigation information based on the marker on a screen,
A camera device,
A storage device for storing various programs;
The various programs are read from the storage device, and processing for displaying the navigation information based on the marker on the screen is superimposed on an image obtained by photographing with the camera device based on the various programs. And a processor to
The processor is
A process of calculating an angle between the optical axis of the camera device and the marker;
Processing for rotating the navigation information on the projection surface of the navigation information by the calculated angle and displaying it superimposed on an image obtained by photographing with the camera device;
Run the camera terminal.
請求項1において、
前記プロセッサは、さらに、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を外部のサーバに送信し、当該外部のサーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する処理を実行する、カメラ付き端末。
In claim 1,
The processor further executes processing for acquiring marker identification information from the marker, transmitting the marker identification information to an external server, and acquiring the navigation information corresponding to the marker identification information from the external server. , A camera-equipped device.
請求項1において、
前記角度を算出する処理において、前記プロセッサは、前記マーカーの中心座標とカメラデバイスの間のベクトルと前記カメラデバイスの光軸とを用いて前記角度を算出する、カメラ付き端末。
In claim 1,
In the process of calculating the angle, the processor is a camera-equipped terminal that calculates the angle using a center coordinate of the marker, a vector between the camera devices, and an optical axis of the camera device.
請求項3において、
前記カメラデバイスで撮影した画像の投影面と前記ナビゲーション情報の投影面とは前記算出された角度をなす、カメラ付き端末。
In claim 3,
A camera-equipped terminal, wherein a projection plane of an image photographed by the camera device and a projection plane of the navigation information form the calculated angle.
請求項1に記載のカメラ付き端末と、
ナビゲーション情報配信サーバと、を有し、
前記カメラ付き端末は、さらに、通信デバイスを有し、
前記カメラ付き端末の前記プロセッサは、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を前記ナビゲーション情報配信サーバに送信し、当該ナビゲーション情報配信サーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する処理を実行し、
前記ナビゲーション情報配信サーバのプロセッサは、
前記マーカー識別情報に対応する前記ナビゲーション情報をナビゲーションデータベースから取得する処理と、
前記取得した前記ナビゲーション情報を前記カメラ付き端末に送信する処理と、
を実行する、ナビゲーション情報提供システム。
A camera-equipped terminal according to claim 1;
A navigation information distribution server,
The camera-equipped terminal further includes a communication device,
The processor of the camera-equipped terminal acquires marker identification information from the marker, transmits the marker identification information to the navigation information distribution server, and transmits the navigation information corresponding to the marker identification information from the navigation information distribution server. Execute the process to get,
The navigation information delivery server processor comprises:
Processing for obtaining the navigation information corresponding to the marker identification information from a navigation database;
Processing for transmitting the acquired navigation information to the camera-equipped terminal;
A navigation information provision system that executes
カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するナビゲーション情報表示方法であって、
カメラ付き端末のプロセッサが、カメラデバイスで撮影して得られた画像からマーカーを抽出することと、
前記プロセッサが、前記カメラデバイスの光軸と前記マーカーとの角度を算出することと、
前記プロセッサが、前記マーカーに関連付けられた前記ナビゲーション情報を取得することと、
前記プロセッサが、前記ナビゲーション情報の投影面上で前記ナビゲーション情報を前記算出した角度分回転させて前記カメラデバイスで撮影して得られた画像に重畳表示することと、
を含む、ナビゲーション情報表示方法。
A navigation information display method for reading a marker with a camera and displaying navigation information based on the marker on a screen,
The processor of the camera-equipped terminal extracts the marker from the image captured by the camera device;
The processor calculates an angle between the optical axis of the camera device and the marker;
The processor obtains the navigation information associated with the marker;
The processor rotates the navigation information on the projection surface of the navigation information by the calculated angle and superimposes it on an image obtained by photographing with the camera device;
Including navigation information display method.
請求項6において、
前記マーカーを抽出することにおいて、前記プロセッサは、前記画像から面積が最大となるマーカーを処理対象のマーカーとして抽出する、ナビゲーション情報表示方法。
In claim 6,
In extracting the marker, the processor extracts a marker having the maximum area from the image as a marker to be processed, and displays the navigation information.
請求項6において、
前記ナビゲーション情報を取得することにおいて、前記プロセッサは、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を外部のサーバに送信し、当該外部のサーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する、ナビゲーション情報表示方法。
In claim 6,
In acquiring the navigation information, the processor acquires marker identification information from the marker, transmits the marker identification information to an external server, and the navigation information corresponding to the marker identification information from the external server. To get the navigation information display method.
請求項6において、
前記角度を算出することにおいて、前記プロセッサは、前記マーカーの中心座標とカメラデバイスの間のベクトルと前記カメラデバイスの光軸とを用いて前記角度を算出する、ナビゲーション情報表示方法。
In claim 6,
The navigation information display method, wherein in calculating the angle, the processor calculates the angle using a center coordinate of the marker, a vector between the camera devices, and an optical axis of the camera device.
請求項9において、
前記カメラデバイスで撮影した画像の投影面と前記ナビゲーション情報の投影面とは前記算出された角度をなす、ナビゲーション情報表示方法。
In claim 9,
A navigation information display method, wherein a projection plane of an image photographed by the camera device and a projection plane of the navigation information form the calculated angle.
JP2015246348A 2015-12-17 2015-12-17 Terminal having camera, navigation information providing system, and navigation information display method Pending JP2017111034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015246348A JP2017111034A (en) 2015-12-17 2015-12-17 Terminal having camera, navigation information providing system, and navigation information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015246348A JP2017111034A (en) 2015-12-17 2015-12-17 Terminal having camera, navigation information providing system, and navigation information display method

Publications (1)

Publication Number Publication Date
JP2017111034A true JP2017111034A (en) 2017-06-22

Family

ID=59080074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246348A Pending JP2017111034A (en) 2015-12-17 2015-12-17 Terminal having camera, navigation information providing system, and navigation information display method

Country Status (1)

Country Link
JP (1) JP2017111034A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7642755B2 (en) 2019-06-06 2025-03-10 マクセル株式会社 Route guidance system and mobile information terminal used therein

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048674A (en) * 2002-05-24 2004-02-12 Olympus Corp Information presentation system of visual field agreement type, portable information terminal, and server
JP2005182350A (en) * 2003-12-18 2005-07-07 Olympus Corp Information presenting system, information presenting device and server
JP2005257738A (en) * 2004-03-09 2005-09-22 Navitime Japan Co Ltd Mobile terminal having map display function, map display system, information distribution server, and program
JP2005275447A (en) * 2004-03-22 2005-10-06 Casio Comput Co Ltd Image processing apparatus, image processing method, and program
JP2006101013A (en) * 2004-09-28 2006-04-13 Hitachi Ltd Guidance information display device
JP2006344226A (en) * 2002-05-24 2006-12-21 Olympus Corp Information presentation system of visual field agreement type, and portable information terminal for use in it
US20080055655A1 (en) * 2006-08-31 2008-03-06 Fujitsu Limited Data input device, data input system, data input method, printing device, and printed matter
JP2009031892A (en) * 2007-07-25 2009-02-12 Dainippon Printing Co Ltd Information reading system and program
JP2012216935A (en) * 2011-03-31 2012-11-08 Jvc Kenwood Corp Information processing system, search device and program
JP2015129696A (en) * 2014-01-08 2015-07-16 Kddi株式会社 Route guidance system, method, program, and data structure therefor

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048674A (en) * 2002-05-24 2004-02-12 Olympus Corp Information presentation system of visual field agreement type, portable information terminal, and server
JP2006344226A (en) * 2002-05-24 2006-12-21 Olympus Corp Information presentation system of visual field agreement type, and portable information terminal for use in it
JP2005182350A (en) * 2003-12-18 2005-07-07 Olympus Corp Information presenting system, information presenting device and server
JP2005257738A (en) * 2004-03-09 2005-09-22 Navitime Japan Co Ltd Mobile terminal having map display function, map display system, information distribution server, and program
JP2005275447A (en) * 2004-03-22 2005-10-06 Casio Comput Co Ltd Image processing apparatus, image processing method, and program
JP2006101013A (en) * 2004-09-28 2006-04-13 Hitachi Ltd Guidance information display device
US20080055655A1 (en) * 2006-08-31 2008-03-06 Fujitsu Limited Data input device, data input system, data input method, printing device, and printed matter
JP2009031892A (en) * 2007-07-25 2009-02-12 Dainippon Printing Co Ltd Information reading system and program
JP2012216935A (en) * 2011-03-31 2012-11-08 Jvc Kenwood Corp Information processing system, search device and program
JP2015129696A (en) * 2014-01-08 2015-07-16 Kddi株式会社 Route guidance system, method, program, and data structure therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7642755B2 (en) 2019-06-06 2025-03-10 マクセル株式会社 Route guidance system and mobile information terminal used therein

Similar Documents

Publication Publication Date Title
TWI649675B (en) Display device
US10242456B2 (en) Digitally encoded marker-based augmented reality (AR)
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
US20160327946A1 (en) Information processing device, information processing method, terminal device, and setting method
KR20150082358A (en) Reference coordinate system determination
CN110703805B (en) Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium
US20130176337A1 (en) Device and Method For Information Processing
TW201715476A (en) Navigation system based on augmented reality technique analyzes direction of users&#39; moving by analyzing optical flow through the planar images captured by the image unit
CN102893129A (en) Terminal location specifying system, mobile terminal and terminal location specifying method
JP7107166B2 (en) Floor detection program, floor detection method, and terminal device
WO2019029156A1 (en) Method and apparatus for navigating indoor target position, electronic device, and medium
CN113474819A (en) Information processing apparatus, information processing method, and program
JP2020008917A (en) Augmented reality display system, augmented reality display method, and computer program for augmented reality display
KR101253644B1 (en) Apparatus and method for displaying augmented reality content using geographic information
JP6304815B2 (en) Image processing apparatus and image feature detection method, program and apparatus thereof
KR101914660B1 (en) Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor
WO2023090213A1 (en) Information processing device, information processing method, and program
TW201621273A (en) Mobile positioning apparatus and positioning method thereof
JP2017111034A (en) Terminal having camera, navigation information providing system, and navigation information display method
EP4475547A1 (en) Program, information processing device, and information processing method
JP2018032991A (en) Image display unit, image display method and computer program for image display
US12073515B2 (en) Information processing apparatus, display system, display method, and non-transitory computer readable medium storing program
JP2017162192A (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP7570711B2 (en) Method for providing virtual indoor space content and server therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702