[go: up one dir, main page]

JP2001005994A - Device and method for image processing - Google Patents

Device and method for image processing

Info

Publication number
JP2001005994A
JP2001005994A JP17652099A JP17652099A JP2001005994A JP 2001005994 A JP2001005994 A JP 2001005994A JP 17652099 A JP17652099 A JP 17652099A JP 17652099 A JP17652099 A JP 17652099A JP 2001005994 A JP2001005994 A JP 2001005994A
Authority
JP
Japan
Prior art keywords
image
block
image processing
information
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP17652099A
Other languages
Japanese (ja)
Inventor
Kenichi Funato
賢一 舟戸
Izumi Miyake
泉 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP17652099A priority Critical patent/JP2001005994A/en
Publication of JP2001005994A publication Critical patent/JP2001005994A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an image processor and an image processing method capable of registering, reproducing and displaying a real scenic image with a simple configuration. SOLUTION: Image data from an image pickup part 12 are registered in a main camera 10 corresponding to a block in map information stored in a map memory 30, when a three-dimensional map corresponding to positions is displayed on a monitor display device 22, an image representing image data corresponding to the block is pasted and shown, information guiding a route to a destination is shown on the basis of road information of the map information, display images like real scenes are displayed up to the destination along a travel route.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、立体画像を生成可
能な画像処理装置および画像処理方法に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method capable of generating a stereoscopic image.

【0002】[0002]

【従来の技術】従来、コンピュータ装置によって所望す
る地点のディジタル地図画像を表示するシステムがあっ
た。たとえば、道路や街区などの地図情報をコンピュー
タグラフィックス(CG)処理によってもにた画面に表示
し、目的地までの経路を誘導するカーナビゲーションシ
ステムでは、上空から鳥瞰( 俯瞰) した道路状況と、目
的地までの経路とを表示するものがあった。
2. Description of the Related Art Conventionally, there has been a system for displaying a digital map image of a desired point by a computer device. For example, a car navigation system that displays map information such as roads and city blocks on the original screen by computer graphics (CG) processing and guides the route to the destination requires a bird's-eye (bird's-eye) view of the road from the sky, There is one that displays a route to a destination.

【0003】また、たとえば特開平6-348815号公報に
は、景観像を3次元モデルで作成する方法が記載され、
特開平8-101924号公報には、実写画像にCG動画像を合成
する方法が記載され、さらに特開平10-42282号公報に
は、空撮画像データに地図情報を重畳して表示する映像
表示システムが記載されていた。
[0003] For example, Japanese Patent Laying-Open No. 6-348815 discloses a method of creating a landscape image using a three-dimensional model.
JP-A-8-101924 describes a method of synthesizing a CG moving image with a real image, and JP-A-10-42282 discloses a video display in which map information is superimposed and displayed on aerial image data. The system was listed.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、たとえ
ば上述の特開平6-348815号公報では第2の写真に3次元
モデルの高さを合わせて3次元コンピュータグラフィッ
ク画像を生成する方法であり、これを実現するためには
大がかりなシステムが必要であった。また、写真の撮影
時には再生時の視点だけを考慮するだけでよいものの、
逆に立体画像の生成に多くの処理手順が必要であった。
However, for example, JP-A-6-348815 mentioned above discloses a method of generating a three-dimensional computer graphic image by adjusting the height of a three-dimensional model to a second photograph. In order to realize this, a large-scale system was required. Also, when taking photos, you only need to consider the viewpoint during playback,
Conversely, many processing procedures were required to generate a stereoscopic image.

【0005】携行可能なカメラや情報端末などの装置で
は、小型化や低消費電力化が求められており、このよう
なコンパクトな装置によって、現在位置や目的地、さら
にはその移動途中における景観を表示させ、現在地を容
易に把握可能とし、またこのような周辺情報を装置に登
録することは困難であった。
[0005] Portable devices, such as cameras and information terminals, are required to be smaller and consume less power. Such compact devices can be used to change the current position, destination, and landscape while moving. It is difficult to display the information and to easily grasp the current location, and to register such peripheral information in the device.

【0006】たとえば、携帯装置にて現在地を把握し、
メモリに記憶させた周辺状況の地図と照合して、地図内
の主要な複数の目的地までの最短コースを割り出し、現
在地から目的地までの景観を表示させるシュミレーショ
ン画像を生成する装置が求められていた。しかし、ビル
などの構造物を1つ1つ実際の景観と同じように表す3
次元モデルをコンピュータグラフィクス処理によって生
成すると、とくに3次元立体を生成するポリゴン数の増
大と各種画像処理の複雑化などにより、処理量が非常に
多くなって、満足に動作させるためには大規模な回路構
成が必要となり、電力消費も多くなる。このため、たと
えば電池駆動時間が短くなって、従来例のような方式を
携帯可能なカメラや情報端末などの装置に単純に適用す
ることができなかった。
For example, the present location is grasped by a portable device,
There is a need for a device that determines a shortest course to a plurality of major destinations in the map by comparing the map with the surrounding situation map stored in the memory, and generates a simulation image that displays the landscape from the current location to the destination. Was. However, buildings and other structures are represented one by one in the same way as the actual landscape.
When a three-dimensional model is generated by computer graphics processing, the amount of processing becomes extremely large, especially due to the increase in the number of polygons for generating a three-dimensional solid and the complexity of various types of image processing. A circuit configuration is required, and power consumption increases. For this reason, for example, the battery driving time is shortened, and the method as in the conventional example cannot be simply applied to devices such as portable cameras and information terminals.

【0007】本発明はこのような従来技術の欠点を解消
し、簡略な構成で、実際の景観像を登録したり再生表示
したりすることができる画像処理装置および画像処理方
法を提供することを目的とする。
An object of the present invention is to provide an image processing apparatus and an image processing method capable of solving the drawbacks of the prior art and registering and reproducing and displaying an actual landscape image with a simple configuration. Aim.

【0008】[0008]

【課題を解決するための手段】本発明は上述の課題を解
決するために、構造物の立体状況を表示可能に処理する
画像処理装置において、この装置は、隣接する複数の構
造物を立体的に簡略化したブロックにて示すブロックデ
ータを作成するブロック作成手段と、ブロックの面画像
を表す第1の画像データをブロックに対応して記憶する
記憶手段と、記憶手段に記憶された第1の画像データと
前記ブロックデータとに基づいて、ブロックの面画像と
して該ブロックに対応する第1の画像データに応じた画
像を貼り付けて、複数の構造物を立体的に表す第2の画
像データを作成する画像処理手段と、画像処理手段にて
処理された第2の画像データを表示手段に出力する画像
出力手段とを含むことを特徴とする。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention relates to an image processing apparatus for displaying a three-dimensional state of a structure so that the three-dimensional state of the structure can be displayed. Block creation means for creating block data indicated by simplified blocks, storage means for storing first image data representing a surface image of the block corresponding to the block, and first data stored in the storage means Based on the image data and the block data, an image corresponding to the first image data corresponding to the block is pasted as a plane image of the block, and second image data representing a plurality of structures three-dimensionally is formed. It is characterized by including image processing means for creating, and image output means for outputting the second image data processed by the image processing means to a display means.

【0009】また、本発明は上述の課題を解決するため
に、構造物の立体状況を表示可能に処理する画像処理方
法において、この方法は、隣接する複数の構造物を立体
的に簡略化したブロックにて示すブロックデータを作成
するブロック作成工程と、ブロックの面画像を表す第1
の画像データをブロックに対応して記憶しておく記憶工
程と、記憶工程にて記憶された第1の画像データとブロ
ックデータとに基づいて、ブロックの面画像としてブロ
ックに対応する第1の画像データに応じた画像を貼り付
けて、複数の構造物を立体的に表す第2の画像データを
作成する画像処理工程と、画像処理工程にて処理された
第2の画像データを表示手段に出力する画像出力工程と
を含むことを特徴とする。
In order to solve the above-mentioned problems, the present invention provides an image processing method for displaying a three-dimensional state of a structure so that the three-dimensional state of the structure can be displayed. A block creation step of creating block data indicated by a block, and a first step representing a surface image of the block.
And a first image corresponding to the block as a surface image of the block based on the first image data and the block data stored in the storing step, wherein the first image data and the block data are stored in the storing step. An image processing step of pasting an image corresponding to the data to create second image data representing a plurality of structures three-dimensionally, and outputting the second image data processed in the image processing step to a display unit And an image output step.

【0010】[0010]

【発明の実施の形態】次に添付図面を参照して本発明が
適用されたディジタルカメラの実施例を詳細に説明す
る。図1を参照すると、3次元立体地図画像を作成およ
び表示可能なディジタルカメラ10のブロック図が示され
ている。このカメラ10は、通常の写真撮影記録および画
像再生機能に加えて、撮影した画像を立体地図に貼り付
けて実際の景観に近い3次元地図を作成する機能と、作
成した3次元地図に従って目的地までの道順や、現在地
とその周辺情報とを明瞭に表示する機能とを有する画像
撮影記録および画像表示装置である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a digital camera to which the present invention is applied will be described in detail with reference to the accompanying drawings. Referring to FIG. 1, there is shown a block diagram of a digital camera 10 capable of creating and displaying a three-dimensional stereoscopic map image. This camera 10 has a function of pasting a photographed image to a three-dimensional map to create a three-dimensional map close to the actual scenery in addition to a usual photographing record and image reproducing function, and a destination according to the created three-dimensional map. An image capturing / recording and image display device having a function of clearly displaying directions to the vehicle and a current position and its surrounding information.

【0011】たとえば、画像データのプリントサービス
を行う店舗を登録された複数の目的地の中からその1つ
として選択した場合、本カメラ10は、現在位置から他の
経由地等を経て店舗の所在地点までの道順を示し、さら
に移動経路周辺の景観をその位置に応じて逐次表示して
目的地まで導く。その店舗に到着するとユーザは、たと
えばカメラ10にて撮影してメモリカード26に記録した画
像データや他の情報をプリントしたり、光ディスクに記
録するサービスを依頼し写真画像を入手する。また、こ
のような店舗にて、他の地図情報や写真画像、さらには
観光情報などが記録されたメモリカードを入手し、これ
ら情報をカメラ10に供給し、これらデータに応じた地図
や写真画像を使用し、画像再生や新規の地図に基づく経
路誘導を行う。このようにカメラ10は、写真撮影機能、
デジタル地図による経路誘導機能および景観作成表示機
能と各種情報の入出力・表示機能とを含む多機能携帯端
末である。
For example, when a store providing an image data print service is selected as one of a plurality of registered destinations, the camera 10 moves from the current position to another location via another transit point or the like. The route to the point is shown, and the landscape around the moving route is sequentially displayed according to the position to guide the user to the destination. Upon arriving at the store, the user obtains a photographic image by requesting a service for printing image data and other information recorded on the memory card 26 by, for example, photographing with the camera 10 and recording on the optical disk. Further, at such a store, a memory card in which other map information and photographic images, and further, sightseeing information and the like are recorded is obtained, and the information is supplied to the camera 10, and a map or photographic image corresponding to these data is obtained. To perform image reproduction and route guidance based on a new map. In this way, the camera 10 has a photography function,
It is a multifunctional mobile terminal that includes a route guidance function and a landscape creation display function using a digital map, and an input / output and display function of various information.

【0012】以下、このカメラ10の詳細構成について説
明する。カメラ10は、被写界に応じた光学像を光電変換
する撮像部12を有し、撮像部12は、図示をしないが、水
平および垂直走査方向に複数が配列された受光部にて生
成される電荷を電気信号として読み出してRGB カラー画
像信号を出力する撮像素子と、撮像素子から出力される
画像信号を増幅してその信号レベルや画像の階調等を調
整するアナログ信号処理回路と、画像信号をディジタル
値の画像データに変換するアナログディジタル変換回路
と、変換された画像データに基づいて、静止画像として
の画素を補間して生成するディジタル信号処理回路とを
含む。ディジタル信号処理回路は、画像サイズを拡大お
よび縮小する電子ズーム機能を有する。このズーム機能
は、たとえば、モニタ表示装置22に表示される画像を見
ながら所望の大きさに撮影画像を調節する際に、その表
示画像のサイズに応じた所望の比率に画素補間処理や画
素間引き処理を行う機能である。このズーム処理によっ
て、撮影する画像もしくは撮影後の画像のサイズを所望
の大きさに調節することができる。また、撮像素子の前
面に配置するレンズをズームレンズ構成としてもよい。
ディジタル信号処理回路の出力は撮像部12の出力を構成
しバス14に接続されている。撮像部12より出力される画
像データは、バス14を介して接続されたメモリ(RAM) 18
に制御部(CPU) 16の制御によって格納される。
Hereinafter, a detailed configuration of the camera 10 will be described. The camera 10 has an imaging unit 12 that photoelectrically converts an optical image corresponding to an object scene, and the imaging unit 12 is generated by a light receiving unit (not shown) arranged in a plurality of horizontal and vertical scanning directions. An image sensor that reads out the electric charge as an electric signal and outputs an RGB color image signal, an analog signal processing circuit that amplifies the image signal output from the image sensor and adjusts the signal level and the gradation of the image, and the like. An analog-to-digital conversion circuit for converting a signal into digital-valued image data, and a digital signal processing circuit for interpolating and generating pixels as a still image based on the converted image data are included. The digital signal processing circuit has an electronic zoom function for enlarging and reducing an image size. This zoom function is used, for example, when adjusting a photographed image to a desired size while viewing the image displayed on the monitor display device 22, when performing pixel interpolation processing or pixel thinning to a desired ratio in accordance with the size of the display image. This is a function to perform processing. By this zoom processing, the size of an image to be shot or an image after shooting can be adjusted to a desired size. Further, a lens disposed on the front surface of the image sensor may have a zoom lens configuration.
The output of the digital signal processing circuit constitutes the output of the imaging unit 12 and is connected to the bus 14. Image data output from the imaging unit 12 is stored in a memory (RAM) 18 connected via a bus 14.
Is stored under the control of the control unit (CPU) 16.

【0013】表示制御部20は、バス14から入力される画
像データやグラフィックデータ、さらには制御部16にて
生成される各種文字情報、アイコン等をその出力先に応
じた形式にて出力する出力インタフェースである。表示
制御部20の出力にモニタ表示装置22が接続され、表示制
御部20は、画像データをRGB 線順次に出力するとともに
モニタ表示装置22を駆動する駆動信号を生成する。モニ
タ表示装置22はカラー液晶ディスプレイ等の薄型表示パ
ネルが有利に適用される。たとえば図3に示すように、
その表示画面300 には、実際の景観を撮影する際に画角
合わせを可能とする動画像や静止画像が、撮影した画像
データに応じて第1の表示フレーム302に表示される。
また、表示画面300 には、平面地図や立体地図が表示さ
れる第2の表示フレーム304 が設定される。これら表示
フレームは、操作部32への操作に応じて画面300 内にて
移動可能となっており、表示位置が互いに重なる部分
は、それぞれ合成処理されて画像表示される。これを利
用して、たとえば、各ブロックのビル群を撮影するとき
に、その画角や大きさ等を確認しながら調節することが
できる。また、現在位置に応じた立体地図と、カメラ10
で撮像している動画像とをそれぞれのフレームに表示す
る場合には、手元のカメラ10の画面表示を見ることによ
って、地図表示と現在位置の整合性を確認することがで
きる。また、これらフレームのサイズは、たとえば表示
画面300 のサイズまで任意に拡大したり逆に縮小したり
することができ、また、いずれかの表示フレームを優先
して表示するようにしてもよい。
A display control unit 20 outputs image data and graphic data input from the bus 14 and various character information and icons generated by the control unit 16 in a format corresponding to the output destination. Interface. A monitor display device 22 is connected to the output of the display control unit 20, and the display control unit 20 outputs image data in RGB line order and generates a drive signal for driving the monitor display device 22. As the monitor display device 22, a thin display panel such as a color liquid crystal display is advantageously applied. For example, as shown in FIG.
On the display screen 300, a moving image or a still image enabling the angle of view to be adjusted when photographing an actual scene is displayed in the first display frame 302 according to the photographed image data.
In the display screen 300, a second display frame 304 on which a planar map or a three-dimensional map is displayed is set. These display frames can be moved within the screen 300 in response to an operation on the operation unit 32, and portions where the display positions overlap each other are combined and displayed as images. By utilizing this, for example, when photographing a building group of each block, it is possible to make adjustments while checking the angle of view, size, and the like. In addition, a three-dimensional map corresponding to the current position and a camera 10
When the moving image captured by the camera is displayed in each frame, the consistency between the map display and the current position can be confirmed by looking at the screen display of the camera 10 at hand. Further, the size of these frames can be arbitrarily enlarged or reduced to the size of the display screen 300, for example, and any of the display frames may be displayed with priority.

【0014】3D処理部24は、第2の表示フレーム304
に表示する立体地図の表示データを地図情報に基づいて
生成する。3D処理部24は、立体地図上の各街区に存在
する複数の構造物に対応してこれら構造物の概略を示す
ブロック306 を生成する。図3には簡略化のため示して
いないが、3D処理部24は、ブロック306 の表面に写真
画像を処理加工した画像をテクスチャとしてマッピング
する。本実施例では、第2の表示フレーム304 に表示す
る立体地図において、ビル等の複数の構造物が建築され
ている街区をポリゴンの組み合わせによる3次元立体ブ
ロックにて表し、それら実際の複数の構造物を撮影して
記録した画像情報をそのブロックの表面画像としてマッ
ピングする。なお、実際の街区に限らず、1つの街区に
対して複数のブロックを状況に応じて設定してもよい。
これらブロック対応のポリゴンデータと、建築物の表面
画像を表す画像データとは、本カメラ10に着脱自在に装
着される外部記録媒体のメモリカード27,26 によってそ
れぞれ供給され地図メモリ30に格納される。また、本カ
メラ10は、このような街区の景観を撮影して上述のよう
なブロックに対応させる画像データを作成しメモリカー
ド26に格納する街区景観情報作成機能を有する。
The 3D processing unit 24 includes a second display frame 304
Is generated based on the map information. The 3D processing unit 24 generates a block 306 indicating the outline of these structures corresponding to a plurality of structures existing in each block on the three-dimensional map. Although not shown in FIG. 3 for simplicity, the 3D processing unit 24 maps the processed image of the photographic image on the surface of the block 306 as a texture. In the present embodiment, in a three-dimensional map displayed on the second display frame 304, a block in which a plurality of structures such as buildings are built is represented by a three-dimensional three-dimensional block formed by combining polygons, and the actual plurality of structures are displayed. Image information obtained by photographing and recording an object is mapped as a surface image of the block. Note that a plurality of blocks may be set for one block in accordance with the situation, not limited to the actual block.
These block-corresponding polygon data and image data representing the surface image of the building are supplied by the memory cards 27 and 26 of the external recording medium detachably attached to the camera 10 and stored in the map memory 30. . In addition, the camera 10 has a townscape scene information creation function of photographing such a townscape, creating image data corresponding to the above-described blocks, and storing the image data in the memory card 26.

【0015】3D処理部24は、各種情報を3次元立体表
示するためのジオメトリックエンジン、ラスタエンジ
ン、テクスチャメモリ等を有し、街区ごとに設定したブ
ロックや道路を表す3次元地図画像を作成する。3D処
理部24は、立体地図画像を作成する処理と、各ブロック
の外観情報となる画像データを対応するブロックにそれ
ぞれ貼り付ける処理とを行う。3D処理部24は、立体地
図を表示する際の基準となる視点に応じて、画像データ
の表わす画像をたとえばアフィン変換により変形処理す
る機能を有し、複数の建物表面に貼り付けられるテクス
チャ画像を、見る角度に応じた形状に修正する。
The 3D processing unit 24 has a geometric engine, a raster engine, a texture memory and the like for three-dimensionally displaying various information, and creates a three-dimensional map image representing blocks and roads set for each block. . The 3D processing unit 24 performs a process of creating a three-dimensional map image and a process of pasting image data as appearance information of each block to a corresponding block. The 3D processing unit 24 has a function of transforming an image represented by image data by, for example, affine transformation in accordance with a viewpoint serving as a reference when displaying a stereoscopic map, and converts a texture image to be pasted on a plurality of building surfaces. Correct the shape according to the viewing angle.

【0016】記録制御部28は、メモリカード26,27 に対
する情報の書込みおよび読出しを制御するコントローラ
であり、本実施例では2枚のメモリカード26,27 を同時
に装填可能とする2つの接続部を有している。これらメ
モリカード26,27 は、たとえば、NAND型フラッシュEEPR
OMを用いたスマートメディアや、メモリバックアップ機
能を備えたPCカードなどの半導体メモリ素子を有する情
報記録媒体である。その記憶領域の論理フォーマットを
説明すると、撮影した画像データを格納するメモリカー
ド26ではたとえば図2に示すように形成される。この画
像記録用のメモリカード26は、ヘッダ領域200 と画像デ
ータ領域202 とを含む。ヘッダ領域200には、画像デー
タを記憶するメモリカードであることを示す属性情報20
4 と、各ファイルのディレクトリ情報206 と、記憶領域
をクラスタ管理するメモリアロケーションテーブル(MA
T)208と、画像データ領域202 に記録される画像データ
に関する情報が記録される画像管理領域210 との各領域
を含む。画像管理領域210 は、画像データ領域202 にお
ける画像ファイル0001から画像nnnnまでを各画像のコマ
ごとにそれぞれ管理するための領域であり、本実施例で
は、画像データの圧縮率および画像サイズ等の通常の画
像管理情報に加えて、その画像を撮影した場所を表す位
置情報と、その撮影方向と、立体地図におけるブロック
との対応関係を表すブロック番号およびブロック名称等
の構造物情報とを含む。
The recording control unit 28 is a controller that controls writing and reading of information to and from the memory cards 26 and 27. In the present embodiment, the recording control unit 28 includes two connection units that can simultaneously load two memory cards 26 and 27. Have. These memory cards 26 and 27 are, for example, NAND flash EEPROMs.
An information recording medium having a semiconductor memory device such as a smart media using an OM or a PC card having a memory backup function. Describing the logical format of the storage area, the memory card 26 for storing captured image data is formed, for example, as shown in FIG. The image recording memory card 26 includes a header area 200 and an image data area 202. The header area 200 has attribute information 20 indicating that it is a memory card for storing image data.
4, directory information 206 of each file, and a memory allocation table (MA
T) 208 and an image management area 210 in which information relating to image data recorded in the image data area 202 is recorded. The image management area 210 is an area for managing each of the image files 0001 to nnnn in the image data area 202 for each frame of each image. In addition to the image management information, the position information indicating the place where the image was shot, and the structure information such as the block number and the block name indicating the correspondence between the shooting direction and the block in the three-dimensional map are included.

【0017】地図情報を記憶するメモリカード27は、画
像データ領域202 に代えて地図情報を格納する記憶領域
を有する点で図2に示した形式とは異なり、メモリカー
ド27には、地図情報が格納されている記録媒体であるこ
とを示す属性情報や地図管理情報がヘッダ領域200 に記
録される。メモリカード27は、街区形状を1つ、または
複数のグループとして立体的に示すブロックごとにその
立体画像を生成可能な地図データと、通行可能な道路で
あって移動経路となりうる道路および通路、歩道に関す
る情報をノードとリンクとのネットワークモデルにて示
す道路情報とを格納し、道路情報には、通り名、交差点
名、町丁目名および各構造物の名称等の付加情報がリン
クして記憶される。付加情報は建物の名称のほか、電
車、バス等の各交通機関に関係する路線名、駅名などが
含まれる。
The memory card 27 for storing map information differs from the format shown in FIG. 2 in that the memory card 27 has a storage area for storing map information instead of the image data area 202. Attribute information indicating that the recording medium is stored and map management information are recorded in the header area 200. The memory card 27 includes map data capable of generating a three-dimensional image for each block that three-dimensionally shows the block shape as one or a plurality of groups, roads and passages that can be a traversable road and can be a moving route, and sidewalks. And road information indicating information about the network model of nodes and links, and additional information such as a street name, an intersection name, a town name, and the name of each structure is linked and stored in the road information. You. The additional information includes, besides the name of the building, a line name, a station name, and the like related to each transportation such as a train and a bus.

【0018】地図データは、道路および建物等の構造物
などの位置情報( 経度・緯度) および街区形状を表す平
面地図と、各街区における複数の構造物を3次元立体画
像のブロックとして表す立体情報との各ファイルを含
む。各ブロックにはその名称とともにブロック番号が付
与されている。道路情報は、歩行者が歩行可能な道路と
歩行不可能な道路と車両が通行可能な道路とが区分さ
れ、出発地点から目的地点までの経路を示す経路誘導を
行う際には、ユーザの移動形態に応じて選択される歩行
可能な道路を使用して目的地までのルート計算を行う。
車両で移動する場合には車両通行可能な道路を使用して
目的地までのルート計算が制御部16にて行われる。
The map data includes position information (longitude / latitude) of structures such as roads and buildings and a planar map representing the shape of a block, and stereoscopic information representing a plurality of structures in each block as blocks of a three-dimensional stereoscopic image. And include each file. Each block is given a block number along with its name. The road information is classified into roads that can be walked by pedestrians, roads that cannot be walked, and roads that can pass vehicles. When performing route guidance indicating the route from the starting point to the destination, the user moves A route to the destination is calculated using a walkable road selected according to the form.
When traveling by vehicle, the control unit 16 performs a route calculation to the destination using a road that can pass through the vehicle.

【0019】さらに、想定されうる出発地および目的地
に関する情報がメモリカード27に記憶される。たとえ
ば、プリントサービス店やお気に入りの飲食店などの目
的地点に関する項目は、その店舗名称、住所、電話番
号、URL 、サービス内容、営業時間、休日などの店舗情
報とその店舗写真との地点情報を含み、これら項目内容
をキーとして目的地を検索し、所望の目的地が選択され
る。これら情報はメモリカード27から読み出されて、カ
メラ10に備えられた地図メモリ30に蓄積される。また、
地図情報は、メモリカード27の記憶内容を書き換えるこ
とによって随時更新可能であり、カメラ10は最新の情報
を参照することができる。
Further, information on a possible departure place and destination is stored in the memory card 27. For example, items related to destinations, such as print service stores and favorite restaurants, include store information such as the store name, address, telephone number, URL, service content, business hours, holidays, and location information of the store photo. A destination is searched using these item contents as keys, and a desired destination is selected. These pieces of information are read from the memory card 27 and stored in the map memory 30 provided in the camera 10. Also,
The map information can be updated at any time by rewriting the storage contents of the memory card 27, and the camera 10 can refer to the latest information.

【0020】なお、本実施例では、画像データや地図情
報を記憶する情報記録媒体として半導体記憶素子を有す
るメモリカードを使用しているが、その形状はカード型
のみに限らず、また他の記憶媒体、たとえば情報を磁気
的および光学的に記憶する磁気ディスクや光磁気ディス
ク、さらには、光カードメモリなどの情報記録媒体を採
用してもよい。また、本実施例では2枚のメモリカード
にそれぞれ地図情報と画像情報とが記録されるが、これ
に限らず、たとえばその記憶容量に応じて、1枚のメモ
リカードにこれら画像情報と地図情報とを記憶するよう
にしてもよい。また、たとえばCD-ROMやDVD などの情報
記憶媒体により地図情報を本カメラ10の地図メモリ30に
供給してもよい。
In this embodiment, a memory card having a semiconductor memory element is used as an information recording medium for storing image data and map information. However, the shape is not limited to a card type, and other storage media may be used. A medium, for example, a magnetic disk or a magneto-optical disk for magnetically and optically storing information, or an information recording medium such as an optical card memory may be adopted. Further, in the present embodiment, the map information and the image information are respectively recorded on the two memory cards. However, the present invention is not limited to this. For example, the image information and the map information are stored on one memory card according to the storage capacity. May be stored. Further, map information may be supplied to the map memory 30 of the camera 10 through an information storage medium such as a CD-ROM or a DVD.

【0021】図1に戻って、記録制御部28は、いずれか
のスロットに装着されるメモリカードの属性情報を確認
して、メモリカードの属性に応じた情報を読み出す。地
図情報が記録されたメモリカード27を検出した記録制御
部28は、制御部16の制御に応動して地図表示に必要な部
分のデータを地図メモリ30に転送して記憶させる。ま
た、記録制御部28は、制御部16にて作成された目的地の
地点情報を更新可能にメモリカード27および地図メモリ
30に記録する。
Returning to FIG. 1, the recording control unit 28 checks the attribute information of the memory card inserted in any one of the slots, and reads out information according to the attribute of the memory card. Upon detecting the memory card 27 on which the map information is recorded, the recording control unit 28 transfers the data required for the map display to the map memory 30 and stores it in response to the control of the control unit 16. Further, the recording control unit 28 allows the memory card 27 and the map memory to update the point information of the destination created by the control unit 16.
Record at 30.

【0022】撮影画像が記録されるメモリカード26を検
出した記録制御部28は、表示される立体地図上の各ブロ
ックの表面にマッピングする画像データをメモリカード
26から読み出して地図メモリ30に転送する。また記録制
御部28は、立体地図上のブロックに対応して撮影される
建物等の画像データをそのブロック番号および名称とと
もにメモリカード26に書き込んで、画像データをブロッ
ク対応に登録する。また、記録制御部28は、バス14から
供給される画像データを圧縮符号化する機能を有し、た
とえばJPEG方式にて圧縮符号化した静止画データをメモ
リカード26に記録する。記録制御部28は、メモリカード
26から読み出したデータを伸張および復号し、復号した
画像データをバス14に出力してRAM 18に格納させる。
Upon detecting the memory card 26 on which the photographed image is recorded, the recording control unit 28 stores the image data to be mapped on the surface of each block on the displayed three-dimensional map on the memory card.
It is read from 26 and transferred to the map memory 30. Further, the recording control unit 28 writes image data of a building or the like photographed corresponding to the block on the three-dimensional map into the memory card 26 together with its block number and name, and registers the image data corresponding to the block. Further, the recording control unit 28 has a function of compression-encoding the image data supplied from the bus 14, and records, for example, still image data compression-encoded by the JPEG method on the memory card 26. The recording control unit 28 is a memory card
The data read from 26 is expanded and decoded, and the decoded image data is output to the bus 14 and stored in the RAM 18.

【0023】このように本実施例では、ポリゴンにより
形成される街区対応のブロックの表面画像を、カメラ10
にて撮影した画像データ等を使用し、その画像データを
メモリカード26等に圧縮符号化して記録する。記録制御
部28は、表示に必要なブロックの画像データをメモリカ
ード26から読み出して地図メモリ30に順次格納し、表示
に不要となった画像データを地図メモリ30から消去す
る。これらによって各メモリ記憶容量が削減され、処理
負荷が低減される。
As described above, in this embodiment, the surface image of the block corresponding to the block formed by polygons is
Is used, and the image data is compression-encoded and recorded on the memory card 26 or the like. The recording control unit 28 reads the image data of the blocks necessary for display from the memory card 26, sequentially stores the read image data in the map memory 30, and deletes the image data unnecessary for display from the map memory 30. As a result, each memory storage capacity is reduced, and the processing load is reduced.

【0024】入力インタフェース(I/F) 部34は、操作部
32、GPS 36および方位センサ38に接続され、これらから
出力される情報をバス14を介して制御部16に供給する。
操作部32には、被写界を撮影するためのレリーズスイッ
チ、各種機能を選択するためのメニュー表示キーおよび
十字方向キー(コントロールキー)が配設され、操作に
応じた操作情報をI/F 部34およびバス14を介して制御部
16に通知する。操作部32はさらに、撮影モード、経路誘
導を行う移動モード、再生モードおよび写真画像をブロ
ックに対応して登録する登録モードのいずれかを選択す
るモード選択ダイヤルを有し、設定されたモード指定を
制御部16に通知する。また、操作部32には、各種文字入
力を入力するための釦が備えられるとよく、制御部16
は、たとえば町中で入手した各種情報を表示されている
地図に対応して記憶させ、また関連する被写界を撮影し
てその画像情報を記憶させ、これら情報をメモリカード
26,27 に将来の目的地として新規登録することができ
る。
An input interface (I / F) unit 34 is an operation unit
32, a GPS 36, and a direction sensor 38, and supplies information output from these to the control unit 16 via the bus 14.
The operation unit 32 is provided with a release switch for photographing the scene, a menu display key for selecting various functions, and a cross key (control key), and I / F for operating information according to the operation. Control unit via unit 34 and bus 14
Notify 16. The operation unit 32 further includes a mode selection dial for selecting one of a shooting mode, a movement mode for performing route guidance, a playback mode, and a registration mode for registering a photographic image corresponding to a block. The control unit 16 is notified. The operation unit 32 may be provided with buttons for inputting various character inputs.
For example, various kinds of information obtained in a town are stored in correspondence with a displayed map, a related object scene is photographed and its image information is stored, and the information is stored in a memory card.
26 and 27 can be newly registered as future destinations.

【0025】位置測位処理部(GPS) 36は、本カメラ10の
現在位置を検出して現在位置を表す位置情報を出力する
処理部である。本実施例における位置測位処理部36は、
GPSアンテナとGPS 受信機とを含むグローバルポジショ
ニングシステムが適用され、地球を周回する複数のGPS
衛星から送出されるスペクトラム拡散変調のL1帯電波を
受信復調し、複数の衛星から送出されるC/A コードおよ
び航法メッセージに基づいて受信地点の位置座標を算出
する。有利には、誤差情報を示す補正データを受信し
て、算出した位置座標を補正するデファレンシャルGPS
方式等の相対測位が適用される。位置測位処理部36は、
受信地点に応じて、たとえば東経139 度43分xx秒、北緯
35度39分xx秒の経度緯度情報を示すデータ"E 139.43.x
x" および"N35.39.xx"と、受信時刻を表す時刻データと
を出力する。なお、現在位置がすでに判明している場合
やGPS 衛星からの電波が有効に受信できない場合などで
は、操作部32に対して住所等の文字を入力したり、表示
した地図にて場所を特定したりして、それらの情報を位
置情報に変換する。この場合、制御部16は、入力情報を
地図メモリ30に格納された地図データ上の経度緯度情報
に変換する。制御部16は、このようなGPS 情報が取得で
きなかった区間のエリアをRAM 18に記憶してこれを地図
上に表示させる機能を有し、これにより、操作者に対し
て現在位置を推測させる情報を与える。
The position measurement processing unit (GPS) 36 is a processing unit that detects the current position of the camera 10 and outputs position information indicating the current position. The position positioning processing unit 36 in the present embodiment includes:
Global positioning system including GPS antenna and GPS receiver is applied, and multiple GPS orbiting the earth
Receives and demodulates the spread spectrum modulated L1 charged wave transmitted from the satellite, and calculates the position coordinates of the receiving point based on the C / A code and the navigation message transmitted from a plurality of satellites. Advantageously, a differential GPS that receives correction data indicating error information and corrects the calculated position coordinates
Relative positioning such as a method is applied. The position positioning processing unit 36
Depending on the receiving location, e.g. 139 ° 43'xx east longitude, north latitude
Data showing longitude and latitude information of 35 degrees 39 minutes xx seconds "E 139.43.x
x "and" N35.39.xx "and time data indicating the reception time.If the current position is already known or the radio wave from GPS satellites cannot be received effectively, the operation A character such as an address is input to the unit 32, a location is specified on a displayed map, and the information is converted into position information.In this case, the control unit 16 converts the input information into a map memory. The information is converted into longitude and latitude information on the map data stored in 30. The control unit 16 has a function of storing the area of the section where the GPS information could not be obtained in the RAM 18 and displaying the area on the map. This gives the operator information to infer the current position.

【0026】方位センサ38は、カメラ10の内部に配設さ
れてカメラ10の姿勢を検出する検出装置である。本実施
例における方位センサ38は、地磁気により検出される磁
北に相対するカメラ10の向きを認識し、撮像レンズの前
面方向を示す8ないし16方位の方位情報を生成する。ま
た、方位センサ38は、カメラ10の傾きを検出する角度セ
ンサを含む。なお、初期の方位を検出した後、たとえば
加速度センサ等により向きの変化を検出して方位情報を
更新してもよい。また、本カメラ10に小型の磁気コンパ
スをカメラ10に備えておき、その指し示す向きに応じた
情報を操作部32から手動で本カメラ10に入力してもよ
い。また、カメラ10の移動経路を検出し、各通過地点の
位置情報から認識される現在の進行方向をカメラ10の方
位と見なし、この方位情報を経路誘導時に利用するとよ
い。
The azimuth sensor 38 is a detection device disposed inside the camera 10 for detecting the attitude of the camera 10. The azimuth sensor 38 in the present embodiment recognizes the direction of the camera 10 relative to magnetic north detected by terrestrial magnetism, and generates azimuth information of 8 to 16 directions indicating the front direction of the imaging lens. Further, the direction sensor 38 includes an angle sensor that detects the inclination of the camera 10. After detecting the initial azimuth, the azimuth information may be updated by, for example, detecting a change in the direction using an acceleration sensor or the like. Alternatively, a small magnetic compass may be provided in the camera 10, and information corresponding to the pointing direction may be manually input to the camera 10 from the operation unit 32. In addition, it is preferable to detect the moving route of the camera 10, consider the current traveling direction recognized from the position information of each passing point as the azimuth of the camera 10, and use this azimuth information when guiding the route.

【0027】地図メモリ30は、メモリカード27から読み
出される地図情報を格納する内蔵メモリである。地図メ
モリ30には、地図ファイルおよび立体情報ファイルの地
図データと、道路情報と、付加情報とがそれぞれ格納さ
れる。本実施例では、町中の所定の街区に存在する複数
の構造物を1つのブロックにて形成するポリゴンデータ
がメモリカード27から読み出されて地図メモリ30に登録
され、ポリゴンデータにより各街区に存在する複数の構
造物の概略形状を表すブロックが作成される。地図メモ
リ30にメモリカード27の記憶情報を一度にすべて格納し
ない場合には、表示に関連する部分の情報およびその周
辺の情報を順次格納するとよい。なお、地図メモリ30の
記憶容量を多く採るように構成する場合には、たとえば
地図メモリ30に不揮発性のフラッシュメモリを使用し、
メモリカード27に格納されている任意の地図情報を予め
地図メモリ30に転送しておくとよい。地図メモリ30に格
納された情報は、制御部16の制御に応動して読み出さ
れ、3D処理部24や表示制御部20に供給される。
The map memory 30 is a built-in memory for storing map information read from the memory card 27. The map memory 30 stores map data of a map file and a three-dimensional information file, road information, and additional information. In this embodiment, polygon data forming a plurality of structures existing in a predetermined block in a town in one block is read from the memory card 27 and registered in the map memory 30, and the polygon data is used for each block. A block representing a schematic shape of a plurality of existing structures is created. When not all the storage information of the memory card 27 is stored in the map memory 30 at once, it is preferable to sequentially store information on a portion related to display and information on the periphery thereof. When the map memory 30 is configured to have a large storage capacity, for example, a non-volatile flash memory is used as the map memory 30,
Any map information stored in the memory card 27 may be transferred to the map memory 30 in advance. The information stored in the map memory 30 is read out in response to the control of the control unit 16, and is supplied to the 3D processing unit 24 and the display control unit 20.

【0028】また、地図メモリ30には、メモリカード26
から読み出される画像データや構造物情報をブロック対
応に格納する記憶領域と、地点情報とをそれぞれ格納す
る記憶領域を有する。
The map memory 30 has a memory card 26
It has a storage area for storing image data and structure information read out from the corresponding block, and a storage area for storing point information.

【0029】情報の読み書きが可能なランダムアクセス
メモリを有する主記憶部(RAM) 18には、制御部16におけ
る処理手順を規定する制御プログラムが不図示のROM (R
eadOnly Memory)から読み出されて所定の記憶領域に格
納される。主記憶部18は、さらに、各種情報を一時記憶
して作業領域として使用される記憶領域を備え、その作
業領域に画像データや、入力I/F 34から供給される各種
情報が一時記憶される。なお制御プログラムを格納する
メモリをたとえばEEPROMにて構成しておき、メモリカー
ド等の外部記録媒体に記録された制御プログラムをEEPR
OMに書き込むことにより、制御プログラム自体をカメラ
10に登録したり、プログラムをアップデートすることが
できる。
In a main storage unit (RAM) 18 having a random access memory to which information can be read and written, a control program for defining a processing procedure in the control unit 16 is stored in a ROM (R) (not shown).
eReadOnly Memory) and stored in a predetermined storage area. The main storage unit 18 further includes a storage area that temporarily stores various information and is used as a work area, in which image data and various information supplied from the input I / F 34 are temporarily stored. . The memory for storing the control program is constituted by, for example, an EEPROM, and the control program recorded on an external recording medium such as a memory card is stored in the EEPROM.
By writing to the OM, the control program itself can be
You can register for 10 or update the program.

【0030】制御部16は、撮影により得られる画像デー
タをメモリカード26に記録する撮影モードと、メモリカ
ード26に格納された画像データを読み出して再生出力す
る再生モードと、撮影により得られる画像データを立体
地図に形成されるブロックに対応して登録する登録モー
ドと、出発地点(現在地)から目的地点までの経路誘導
および移動シュミレーションを行う移動モードとのいず
れかのモードを、操作部32に備えられるモード設定ダイ
ヤルのセット状態に応じて各部に設定し、各設定モード
に応じた制御プログラムによる処理制御手順にて各部を
制御する。
The control unit 16 includes a photographing mode for recording image data obtained by photographing on the memory card 26, a reproducing mode for reading out image data stored on the memory card 26, and reproducing and outputting the image data. The operation unit 32 is provided with either a registration mode in which is registered in correspondence with a block formed on a three-dimensional map, or a movement mode in which route guidance and movement simulation are performed from a departure point (current location) to a destination point. Each part is set according to the set state of the mode setting dial to be set, and each part is controlled by a processing control procedure according to a control program corresponding to each setting mode.

【0031】詳しくは、制御部16は、撮影モードにてレ
リーズ釦が押下されると、撮像部12に対して被写界を撮
像させる制御信号を生成し、撮像部12から出力される1
フレーム分の画像信号をRAM 18の画像記憶領域に蓄積さ
せる。制御部16はこの画像データを読み出して記録制御
部28に転送して圧縮符号化させる。また、制御部16は、
この撮影モードでは、被写界を連続して撮像させて、連
続フレームの画像データを表示制御部20に転送させて、
モニタ表示装置22に動画像を表示させるファインダ機能
を提供する。撮影者は、この表示映像を確認しながら被
写界の画角やフレーミング、さらにはピント調整などの
ような撮影調整を行うことができる。
More specifically, when the release button is depressed in the photographing mode, the control unit 16 generates a control signal for causing the image pickup unit 12 to pick up an image of the object scene, and outputs a control signal 1 from the image pickup unit 12.
The image signal for the frame is stored in the image storage area of the RAM 18. The control unit 16 reads out the image data, transfers the image data to the recording control unit 28, and performs compression encoding. Further, the control unit 16
In this shooting mode, the object scene is continuously imaged, and the image data of the continuous frame is transferred to the display control unit 20.
A finder function for displaying a moving image on the monitor display device 22 is provided. The photographer can perform photographing adjustments such as the angle of view and framing of the object scene and the focus adjustment while checking the displayed image.

【0032】また、再生モードにおける制御部16は、メ
モリカード26に記録された所望の画像データを指定して
読み出す指示信号を記録制御部28に出力する。記録制御
部28にて読み出された画像データをRAM 18に一旦記憶さ
せる。制御部16は、RAM 18に蓄積された1フレーム分の
画像データを繰り返し読み出して表示制御部20に転送す
る。
In the reproduction mode, the control section 16 outputs to the recording control section 28 an instruction signal for designating and reading desired image data recorded on the memory card 26. The image data read by the recording control unit 28 is temporarily stored in the RAM 18. The control unit 16 repeatedly reads out the image data for one frame stored in the RAM 18 and transfers it to the display control unit 20.

【0033】登録モードにおける制御部16は、各ブロッ
クの構造物を撮影した画像データを立体地図のブロック
に対応させ、建物の表面画像データをメモリカード27お
よび地図メモリ30に登録する。具体的には制御部16は、
建物表面を撮影しようとする位置にてその位置情報とカ
メラの方位情報とを取得し、これら情報に応じた立体地
図画像を作成して第2の表示フレーム304 に表示させ
る。このとき制御部16は、地図上の街区に対応するブロ
ックを表示させて所望のブロックを操作者に選択させ
る。制御部16は、選択されたブロックのブロック番号を
認識し、そのブロックに対応する画像を操作者に撮影さ
せ、その画像データを一旦RAM 18に蓄積する。制御部16
は、RAM 18に蓄積された画像データを、対応させるブロ
ック番号、位置情報および方位情報とともにメモリカー
ド27および地図メモリ30に記憶させる。撮影の際に制御
部16は、撮像データの表す映像を表示制御部20に供給し
て、その被写界映像を連像的に第1の表示フレーム302
に表示させて、操作者に撮影範囲や画角合わせの調節を
行わせる。
The control unit 16 in the registration mode associates the image data obtained by photographing the structure of each block with the blocks of the three-dimensional map, and registers the building surface image data in the memory card 27 and the map memory 30. Specifically, the control unit 16
At the position where the surface of the building is to be photographed, the position information and the azimuth information of the camera are acquired, and a three-dimensional map image corresponding to the information is created and displayed on the second display frame 304. At this time, the control unit 16 displays blocks corresponding to the blocks on the map and allows the operator to select a desired block. The control unit 16 recognizes the block number of the selected block, causes the operator to shoot an image corresponding to the selected block, and temporarily stores the image data in the RAM 18. Control unit 16
Causes the image data stored in the RAM 18 to be stored in the memory card 27 and the map memory 30 together with the corresponding block number, position information and direction information. At the time of shooting, the control unit 16 supplies an image represented by the image data to the display control unit 20 and continuously converts the image of the object scene into a first display frame 302.
To allow the operator to adjust the shooting range and the angle of view.

【0034】操作者は、カメラ10の画角を調節したり、
撮像画像の画像サイズを調節したりして、選択したブロ
ックに対応する複数の構造物のうち、ほぼ中央に配置さ
れている構造物を被写界の中心として、構造物群の正面
側や側面側等の複数の面側から、そのブロックに対応す
る複数の構造物を撮影する。制御部16は、このような撮
影処理によって撮像部12から出力される画像データをRA
M 18に一時記憶させる。制御部16は、撮影により得られ
た画像データの表わす画像を、撮像レンズの特性を補償
した正規の形状に修正させる。具体的には制御部16は、
撮像部12から出力される画像データを3D処理部24に供
給するともに画像修正を3D処理部24に指示する。3D
処理部24は、この指示を受けると、レンズ特性によって
変形する構造物画像の画像データに対して、対応ブロッ
クの正方または長方形状に適合するように歪曲変換す
る。この歪曲の修正処理は、上下方向のみならず左右方
向に対しても行い、撮影位置が対応ブロックの中央位置
に相当しなくても、ブロック面の中心部に対して直交す
る撮影位置から撮影したのと同様の画像データを得る。
The operator can adjust the angle of view of the camera 10,
By adjusting the image size of the captured image, of the plurality of structures corresponding to the selected block, the structure located almost at the center is set as the center of the scene, the front side and side surface of the group of structures A plurality of structures corresponding to the block are photographed from a plurality of surfaces such as sides. The control unit 16 converts the image data output from the imaging unit 12 by such a shooting process into RA data.
Store it temporarily in M18. The control unit 16 corrects the image represented by the image data obtained by the photographing into a normal shape that compensates for the characteristics of the imaging lens. Specifically, the control unit 16
The image data output from the imaging unit 12 is supplied to the 3D processing unit 24 and the image correction is instructed to the 3D processing unit 24. 3D
Upon receiving this instruction, the processing unit 24 performs distortion conversion on the image data of the structure image deformed by the lens characteristics so as to conform to the square or rectangular shape of the corresponding block. This distortion correction process is performed not only in the vertical direction but also in the horizontal direction. Even if the shooting position does not correspond to the center position of the corresponding block, shooting was performed from a shooting position orthogonal to the center of the block surface. The image data similar to the above is obtained.

【0035】なお、制御部16は、立体地図に表示するブ
ロックのサイズと、これに貼り付ける画像データのサイ
ズとの比率を認識するとよい。つまり、撮像素子の有す
る画素数に近いオリジナルサイズの画像データを貼り付
け画像として使用する場合には、モニタ表示している表
示画像と、オリジナル画像データのサイズとに応じた比
率を認識しておき、ブロックに画像データを貼り付ける
際にこの比率に応じた画像サイズの変更処理を行うこと
ができる。この場合、至近距離に相当する位置のブロッ
クおよびその表面画像を表示させる際に、精細な画像を
得ることができる。この場合、画像データを記憶してお
く記憶領域が多く必要とされる。このため本実施例で
は、コンパクトな数インチ程度のモニタ表示装置22に画
像表示する際に、ブロックに貼り付ける表面画像の画像
サイズをそのブロックに対応させて変更処理し、サイズ
変更された画像データをブロック表面に貼り付ける。こ
の場合、ブロックサイズに対応する画像データを使用す
るので上述の比率情報を使用しなくてよい。このように
本実施例では、画像データを格納する各メモリの記憶容
量が節約され、その処理負荷が低減される。
The control unit 16 may recognize the ratio between the size of the block displayed on the three-dimensional map and the size of the image data to be pasted on the block. That is, when image data of an original size close to the number of pixels of the image sensor is used as a pasted image, a ratio corresponding to the display image displayed on the monitor and the size of the original image data is recognized. When the image data is pasted to the block, the image size can be changed in accordance with the ratio. In this case, when displaying the block at the position corresponding to the close distance and the surface image thereof, a fine image can be obtained. In this case, a large storage area for storing image data is required. For this reason, in the present embodiment, when displaying an image on the compact monitor display device 22 of about several inches, the image size of the front surface image to be attached to the block is changed in accordance with the block, and the size-changed image data is displayed. On the block surface. In this case, since the image data corresponding to the block size is used, the above-described ratio information does not need to be used. Thus, in the present embodiment, the storage capacity of each memory for storing image data is saved, and the processing load is reduced.

【0036】このようにしてブロック対応に正規化した
画像データを、制御部16は、位置測位処理部36から供給
される方位情報と、撮影したブロックのブロック番号お
よび名称とを画像データに対応させてメモリカード27お
よび地図メモリ30に記憶させる。また、この画像データ
は、方位情報やブロック番号とともにメモリカード26に
あらかじめ記憶させておき、対応ブロック、方位情報や
ブロック番号に対応させる処理を後で行ってもよい。つ
まり、登録モードにおいて撮像処理を行わず、各ブロッ
クに対応させる画像データをメモリカード26等の外部の
記憶媒体から入手して、ブロック対応の画像データを登
録するようにしてもよい。
The controller 16 associates the azimuth information supplied from the position measurement processor 36 with the block number and name of the photographed block in the image data thus normalized with respect to the block. In the memory card 27 and the map memory 30. In addition, this image data may be stored in the memory card 26 in advance together with the azimuth information and the block number, and a process of corresponding to the corresponding block, the azimuth information and the block number may be performed later. That is, without performing the imaging process in the registration mode, the image data corresponding to each block may be obtained from an external storage medium such as the memory card 26, and the image data corresponding to the block may be registered.

【0037】制御部16は、現在位置、各ブロック番号に
対応する画像データ、方位情報をそれぞれ3D処理部24
に転送する。3D処理部24は、制御部16の制御により、
現在表示している各ブロックに、立体地図を表示する際
の視点を位置情報および方位情報を元に決定し、視点に
応じた変形処理および明暗処理を画像データに加え、処
理された画像データを、対応するブロック番号のブロッ
ク表面に貼り付けてマッピングする。この場合、制御部
16は、操作部32への操作状態を検出し、それに応じて貼
り付け位置の状態を微調整する修正処理を行う。このよ
うな登録モードにおける制御および処理によって、たと
えば図6に簡略化して示すように、立体地図のブロック
306 と、画像データ600,602 の対応関係が保持されて、
第2の表示フレーム304 にモニタ表示される。これらを
所望の各ブロックに対して行って立体地図上の景観を作
成する。制御部16は、移動モードにて各ブロックに画像
データをマッピングする際にこの対応関係に従って各画
像データを指定する。
The control unit 16 stores the current position, image data and azimuth information corresponding to each block number into the 3D processing unit 24, respectively.
Transfer to The 3D processing unit 24 is controlled by the control unit 16
For each block currently displayed, determine the viewpoint when displaying the three-dimensional map based on the position information and the azimuth information, add the deformation process and light / dark process according to the viewpoint to the image data, and process the processed image data. Is mapped to the block surface of the corresponding block number. In this case, the control unit
The detection unit 16 detects an operation state of the operation unit 32 and performs a correction process for finely adjusting the state of the pasting position in accordance with the operation state. By such control and processing in the registration mode, for example, as shown in FIG.
306 and the correspondence between the image data 600 and 602 are held,
It is displayed on the monitor in the second display frame 304. These operations are performed for each desired block to create a landscape on a three-dimensional map. When mapping the image data to each block in the movement mode, the control unit 16 specifies each image data according to the correspondence.

【0038】制御部16は、各ブロックに貼り付ける画像
データを、立体地図上の視点変更とともに3D処理部24
にて逐次変形処理させ、さらに立体地図の表示画像を更
新させる。現在位置が変化するごとに制御部16は、立体
地図の視点に応じて変形処理、および画像サイズの修正
処理を3D処理部24および撮像部12に行わせる。このよ
うに制御部16は、現在位置に応じた視点情報を生成し
て、立体地図におけるビューポイントを設定し、現在位
置の変化に追従した地図画像を表示させる。また制御部
16は、現在位置に代えて任意の位置情報を、たとえば操
作部32への操作状態に応動して生成し、操作に応じた視
点での立体地図を作成することができる。この場合、制
御部16は、目的地までのルート計算を行った結果に従っ
て、立体地図表示を順次更新することにより、移動経路
における景観等を表示する移動シュミレーションを行う
ことができる。
The control unit 16 converts the image data to be pasted into each block into the 3D processing unit 24 together with the change of the viewpoint on the three-dimensional map.
, And the display image of the three-dimensional map is updated. Each time the current position changes, the control unit 16 causes the 3D processing unit 24 and the imaging unit 12 to perform a deformation process and an image size correction process according to the viewpoint of the stereoscopic map. As described above, the control unit 16 generates the viewpoint information according to the current position, sets the viewpoint on the three-dimensional map, and displays the map image following the change in the current position. Control unit
The unit 16 can generate arbitrary position information instead of the current position, for example, in response to an operation state of the operation unit 32, and can create a three-dimensional map from a viewpoint corresponding to the operation. In this case, the control unit 16 can perform a movement simulation for displaying a landscape or the like on the movement route by sequentially updating the three-dimensional map display according to the result of the route calculation to the destination.

【0039】登録モードではまた、目的地点に関する情
報を設定することができる。制御部16は、複数の地点か
ら、出発地点、経由地点、目的地点をそれぞれ選択さ
せ、各地点における詳細情報をメモリカード27や地図メ
モリ30に蓄積させ、たとえば各種店舗に関する地点情報
を操作部32からの入力情報に従って登録する。
In the registration mode, information on the destination can be set. The control unit 16 selects a starting point, a waypoint, and a destination point from a plurality of points, and stores detailed information at each point in the memory card 27 or the map memory 30. Register according to the input information from.

【0040】移動モードにおける制御部16は、現在位置
での立体地図表示画像と、現在位置の周辺状況を表わす
画像とを生成させ、これら画像を表示させる。また制御
部16は、操作部32への操作に応じて目的地点を選択し、
現在位置から目的地点まで移動する際の経路を算出し、
その経路を表す経路誘導情報を生成する。
In the movement mode, the control unit 16 generates a three-dimensional map display image at the current position and an image representing the surroundings of the current position, and displays these images. Further, the control unit 16 selects a destination point according to an operation on the operation unit 32,
Calculate the route to travel from your current location to your destination,
The route guidance information representing the route is generated.

【0041】詳しくは、制御部16は、選択した目的地点
と現在位置とから目的地に到達するための適切な経路を
算出して、その経路を平面地図上に合成表示させるとと
もに、逐次変化する現在位置に応じて経路誘導指示を示
す指示情報を生成する。制御部16は指示情報を表示制御
部20に供給し、表示制御部20はその指示情報に従って、
たとえば、交差点近傍における直進指示や左折右折等を
表す画像を生成し、表示画面のたとえば第2の表示フレ
ーム304 に合成表示させる。制御部16は、交差点等の近
傍であるかどうかを、カメラ10自体の移動速度に応じて
判断し、高速移動している場合には交差点からより遠い
地点でのタイミングで指示画像を表示させるとよい。な
お、この指示情報を音声として可聴可能に出力するよう
にしてもよい。
More specifically, the control unit 16 calculates an appropriate route for reaching the destination from the selected destination point and the current position, displays the route on a plane map, and sequentially changes the route. Instruction information indicating a route guidance instruction is generated according to the current position. The control unit 16 supplies the instruction information to the display control unit 20, and the display control unit 20 according to the instruction information,
For example, an image representing a straight-ahead instruction, a left turn, a right turn, or the like in the vicinity of an intersection is generated, and is displayed on the display screen, for example, in the second display frame 304. The control unit 16 determines whether or not it is near an intersection or the like according to the moving speed of the camera 10 itself, and displays the instruction image at a timing farther from the intersection when moving at high speed. Good. Note that this instruction information may be audibly output as voice.

【0042】制御部16は、現在地点から目的地点までの
経路をルート計算により探索し、カメラ10の移動に伴っ
て変化する現在位置に応じた経路誘導を行う。制御部16
は、道路情報に基づいて、たとえばダイクストラのアル
ゴリズムによって最短経路を算出する。制御部16は、求
めた最短経路を道路情報に対応して地図表示させるとと
もに、たとえば交差点などの現在位置に応じて、移動す
る方向を指示する経路誘導指示情報を生成する。図4に
示すように、出発地点400 から目的地点402 に向かって
いる際に前方の交差点404 を右折する経路誘導を行う場
合には、制御部16は、たとえば右折を指示する「次 右
折」という文字や矢印などを表すアイコン等の指示情報
500 を表示ポイント406 にて生成して第2の表示フレー
ム304 にこれら指示情報を表示させる。その表示例を図
5に示す。なおこの図には、図の簡略化のためブロック
の表面画像の図示を省略している。このとき制御部16
は、現在位置から目的地点までの距離および現在位置の
変化から移動速度を算出し、移動速度と目的地点までの
距離とにより到達予想時刻など予測して、その予測結果
を指示情報と合わせて表示するとよい。なお、最短経路
が複数存在する場合などでは、たとえば、極力曲がり角
を少ないルートを採用したり、地点情報が多く存在して
いる大通りを使用して通行しやすい街路を経由するよう
な経路誘導情報を生成するとよい。これらの場合、最短
経路による目的地点までの距離を超えた経路となっても
よい。また、現在位置が経路情報の示すルートから大き
くはずれると制御部16はこれを検出して、最新の現在地
から目的地点までのルート探索を再度行って、更新した
最新の経路に基づく誘導情報および指示情報を再生成す
るとともに、初期のルートからはずれてルートを再作成
した旨をモニタ表示させる。
The control unit 16 searches for a route from the current location to the destination by route calculation, and performs route guidance according to the current location that changes as the camera 10 moves. Control unit 16
Calculates the shortest route based on the road information, for example, by Dijkstra's algorithm. The control unit 16 displays the obtained shortest route on a map corresponding to the road information, and generates route guidance instruction information for instructing a moving direction according to a current position such as an intersection. As shown in FIG. 4, when performing a route guidance of turning right at an intersection 404 in front while heading from a starting point 400 to a destination point 402, the control unit 16 calls, for example, “next right turn” for instructing a right turn. Instruction information such as icons representing characters and arrows
500 is generated at the display point 406 and the instruction information is displayed on the second display frame 304. FIG. 5 shows a display example. In this figure, illustration of the surface image of the block is omitted for simplification of the figure. At this time, the control unit 16
Calculates the travel speed from the distance from the current position to the destination and the change in the current position, predicts the expected arrival time based on the travel speed and the distance to the destination, and displays the prediction result together with the instruction information Good to do. In the case where there are a plurality of shortest routes, for example, route guidance information such as adopting a route with as few turns as possible or passing through a street that is easy to pass using a boulevard where a lot of point information exists is used. It is good to generate. In these cases, the route may be longer than the shortest route to the destination. When the current position deviates greatly from the route indicated by the route information, the control unit 16 detects this, performs a route search from the latest current location to the destination again, and provides guidance information and instruction based on the updated latest route. The information is regenerated, and the fact that the route has been recreated deviating from the initial route is displayed on the monitor.

【0043】制御部16は、地図メモリ30に格納された地
図データと、表示されるブロックに貼り付ける画像デー
タとを、表示する視点に応じて読み出して3D処理部24
に供給する立体地図画像の生成制御を行う。
The control unit 16 reads out the map data stored in the map memory 30 and the image data to be pasted on the displayed block according to the viewpoint to be displayed, and reads out the 3D processing unit 24.
Control of generating a stereoscopic map image to be supplied to the computer.

【0044】なお、制御部16は、複数の建築物を撮影し
た1コマの画像を1ブロックに貼り付ける処理を行う際
に、たとえば水平方向に連なって広がる街区に応じて複
数枚を撮影した複数コマの画像をそれぞれつなぎ合わせ
てパノラマ合成し、より広い範囲の1コマ画像を作成す
る機能を有するとよい。この場合、合成処理により作成
された1コマのワイド画像を、街区に応じて横長に形成
されるブロックに貼り付けることができる。この結果、
広い街区を複数に分割し分割された各区域ごとに対応す
る複数のブロックをそれぞれ生成せずに、もしくはその
分割数を少なくし、街区を少ないブロック数で表現する
ことができ、その分の処理負荷が低減される。
When the control unit 16 performs a process of pasting one frame image of a plurality of buildings into one block, the control unit 16 captures a plurality of frames according to, for example, a block extending horizontally. It is preferable to have a function of connecting the images of the frames to form a panoramic image by combining the images, thereby creating a single-frame image in a wider range. In this case, one frame of the wide image created by the combining process can be pasted on a horizontally formed block according to the block. As a result,
A large block is divided into a plurality of blocks, and the blocks can be represented by a small number of blocks without generating a plurality of blocks corresponding to each of the divided blocks, or by reducing the number of blocks. The load is reduced.

【0045】移動モードにおける制御部16は、登録モー
ドにおける画像マッピング処理と同様に、現在位置に応
じた立体地図画像を作成し、地図上のブロックにマッピ
ングされた画像データを3D処理部24に生成させる。制
御部16は、立体地図を表示するための視点情報を、現在
位置および方位情報に基づいて生成する。詳しくは制御
部16は、方位センサ38および位置測位処理部36にて検出
される方位情報と位置情報とに基づいて、カメラ10の向
いている方位と、カメラ10が存在している現在位置とを
認識し、その認識結果を3D処理部24に供給する。3D
処理部24は、これら情報に従って、現在の方位および現
在位置に応じた立体地図画像を作成し、作成した立体地
図データを表示制御部20に供給する。3D処理部24は現
在位置の変化に応じて立体地図データを作成する。表示
制御部20は、立体地図データに応じた3次元地図画像が
モニタ表示装置22の第2の表示フレーム304 に表示され
るようにデータ処理する。表示制御部20は、バス14から
転送される表示データを順次格納するフレームメモリを
備え、フレームメモリに格納された情報を読み出してモ
ニタ表示装置22に出力する。
The control unit 16 in the movement mode creates a three-dimensional map image corresponding to the current position in the same manner as the image mapping processing in the registration mode, and generates image data mapped to blocks on the map in the 3D processing unit 24. Let it. The control unit 16 generates viewpoint information for displaying the three-dimensional map based on the current position and the azimuth information. Specifically, the control unit 16 determines, based on the azimuth information and the position information detected by the azimuth sensor 38 and the position measurement processing unit 36, the azimuth of the camera 10 and the current position where the camera 10 is present. And the recognition result is supplied to the 3D processing unit 24. 3D
The processing unit 24 creates a three-dimensional map image corresponding to the current direction and the current position according to the information, and supplies the created three-dimensional map data to the display control unit 20. The 3D processing unit 24 creates three-dimensional map data according to the change of the current position. The display control unit 20 performs data processing such that a three-dimensional map image corresponding to the three-dimensional map data is displayed on the second display frame 304 of the monitor display device 22. The display control unit 20 includes a frame memory for sequentially storing display data transferred from the bus 14, reads information stored in the frame memory, and outputs the information to the monitor display device 22.

【0046】本実施例における通信制御部50は、位置測
位処理部36にて使用される補正データを受信する機能を
有し、また目的地点の店舗等に各種情報を伝送したり、
逆に地図情報等を受け取る機能を有する。たとえば通信
制御部50は、制御部16からの要求を受けて、補正データ
を供給するネットワークにアクセスし、測位結果を補正
するための補正データ(誤差情報)を受信する。なお、
通信制御部50は、FM多重波などで送信されている誤差
情報を受信するように構成されてもよい。通信制御部50
は受信信号に含まれる誤差情報を位置測位処理部36に供
給する。また、通信制御部50は、たとえばインターネッ
ト等のネットワークに接続するための無線通信回線に接
続し、各目的地点に関する情報をURL に従って検索した
り、店舗等にて開設されているホームページ等の情報に
アクセスし、それら内容をモニタ表示させたり地点情報
として登録することができる。
The communication control unit 50 in the present embodiment has a function of receiving correction data used in the position positioning processing unit 36, and transmits various kinds of information to stores and the like at the destination.
Conversely, it has a function of receiving map information and the like. For example, the communication control unit 50 receives a request from the control unit 16, accesses a network that supplies correction data, and receives correction data (error information) for correcting a positioning result. In addition,
The communication control unit 50 may be configured to receive the error information transmitted by an FM multiplex wave or the like. Communication control unit 50
Supplies the error information included in the received signal to the position positioning processing unit 36. The communication control unit 50 is connected to a wireless communication line for connecting to a network such as the Internet, for example, to search for information on each destination according to a URL, or to search for information on a homepage or the like established at a store or the like. It is possible to access the contents and display them on a monitor or register them as point information.

【0047】また、通信制御部50は、認識されている現
在位置を示す情報を遠隔の端末装置に伝送する機能を有
する。この場合、不図示の不揮発性メモリに本カメラ10
に固有な、たとえば、どのGPS 装置であるかを示す固有
情報を登録しておき、制御部16は、本カメラ10に対して
遠隔の端末装置からアクセスされた際に、その要求に応
じて固有情報、現在位置情報および最新の移動経路を表
す情報とを端末装置に伝送することができる。このよう
な構成により、カメラ10から離れた端末装置から本カメ
ラ10がどこに所在しているかを割り出し、たとえばカメ
ラ10が紛失した場合に探し出すことを可能とする。
The communication control unit 50 has a function of transmitting information indicating the recognized current position to a remote terminal device. In this case, the camera 10 is stored in a non-volatile memory (not shown).
For example, the controller 16 registers unique information indicating which GPS device is used, and when the camera 10 is accessed from a remote terminal device, the controller 16 The information, the current position information, and the information indicating the latest travel route can be transmitted to the terminal device. With such a configuration, it is possible to determine where the camera 10 is located from a terminal device distant from the camera 10, and to find out, for example, when the camera 10 is lost.

【0048】以上の構成で本実施例におけるカメラ10の
動作を図9および図10を参照して説明する。まず、地図
メモリ30に地図情報が格納されていない場合に登録モー
ドが設定されると、メモリカード27に蓄積されている地
図データ、道路情報および付加情報等の地図情報と地点
情報とが読み出され、バス14を介して地図メモリ30に転
送されて格納される。
The operation of the camera 10 according to this embodiment having the above configuration will be described with reference to FIGS. First, if the registration mode is set when no map information is stored in the map memory 30, map information such as map data, road information and additional information and point information stored in the memory card 27 are read out. Then, the data is transferred to the map memory 30 via the bus 14 and stored.

【0049】こうして、地図メモリ30に地図情報が格納
されている状態における登録モードでは、図9に示すよ
うに、撮像部12にて撮像および処理された画像データが
バス14およびRAM 18を介して表示制御部20に順次転送さ
れる。モニタ表示装置22の表示画面の第1の表示フレー
ム302 には、表示制御部20から供給される駆動信号に応
動してその画像データの表わす画像が順次表示される
(ステップ900 )。
Thus, in the registration mode in which the map information is stored in the map memory 30, the image data picked up and processed by the image pickup unit 12 is transferred via the bus 14 and the RAM 18 as shown in FIG. The data is sequentially transferred to the display control unit 20. In response to the drive signal supplied from the display controller 20, an image represented by the image data is sequentially displayed on the first display frame 302 of the display screen of the monitor display device 22 (step 900).

【0050】次いでステップ902 に進み、、位置測位処
理部36にて測定された位置情報がバス14を介して制御部
16に入力されると、その位置情報が現在位置として認識
され、続くステップ904 では、位置情報に対応する地図
情報中の地図データが地図メモリ30より読み出されてバ
ス14を介して3D処理部24に転送される。また、方位セ
ンサ38にて検出された方位情報が制御部16にて認識され
る(ステップ906 )と、3D処理部24にて、現在位置に
応じた視点を基準とする立体地図画像を表す地図画像デ
ータが生成される。生成された立体地図画像データが3
D処理部24から表示制御部20に転送されると、モニタ表
示装置22の表示画面に第1の表示フレーム302 が設定さ
れ、撮像により得られた画像データの表す画像が第1の
表示フレーム302 に表示され、また第2の表示フレーム
304 が設定されてこれに立体地図画像が表示される(ス
テップ910 )。
Next, the routine proceeds to step 902, where the position information measured by the position positioning processing unit 36 is transmitted to the control unit via the bus 14.
When the position information is input to the map data 16, the position information is recognized as the current position. In the subsequent step 904, the map data in the map information corresponding to the position information is read from the map memory 30 and is read via the bus 14 via the 3D processing unit Transferred to 24. When the azimuth information detected by the azimuth sensor 38 is recognized by the control unit 16 (step 906), the 3D processing unit 24 generates a map representing a three-dimensional map image based on a viewpoint corresponding to the current position. Image data is generated. The generated 3D map image data is 3
When transferred from the D processing unit 24 to the display control unit 20, a first display frame 302 is set on the display screen of the monitor display device 22, and an image represented by image data obtained by imaging is displayed on the first display frame 302. And a second display frame
304 is set and a three-dimensional map image is displayed thereon (step 910).

【0051】ステップ900 〜910 の処理が繰り返され
て、カメラ10の位置および向きの調節やズーム処理など
が操作者によって行われて、処理対象として選択した地
図画像のブロックに適合させる街区の構造物が、第2の
表示フレーム304 に表示されているブロックに対応し
て、第1の表示フレーム302 に適切に表示されるように
調節される。
The processes of steps 900 to 910 are repeated, and the position and orientation of the camera 10 are adjusted and zoom processing is performed by the operator, and the structure of the block adapted to the block of the map image selected as the processing target Are adjusted so as to be appropriately displayed in the first display frame 302 corresponding to the blocks displayed in the second display frame 304.

【0052】こうして、ブロック対応に表示する画像の
撮影微調整が完了して、レリーズ釦が押下され、レリー
ズスイッチのオン状態を示す検出情報が制御部16にて認
識されると、撮像部12に静止画像を撮像処理させる指示
が出力される。撮像部12にこの撮像指示が入力される
と、撮像素子にて光電変換された電荷が電気信号として
読み出されて、この撮像信号に各種信号処理が施され
て、処理された画像データがバス14を介してRAM 18に蓄
積される。この画像データは、3D処理部24にて歪曲特
性の除去処理や画像サイズの正規化処理が施され、正規
化された画像データは、メモリカード27および地図メモ
リ30に記憶される(ステップ914 )。この画像記憶とと
もに、対応させるブロックのブロック番号および名称
と、位置情報と方位情報とが画像対応に記憶される(ス
テップ916 )。
When the fine-tuning of the image to be displayed corresponding to the block is completed in this way, the release button is pressed, and the control unit 16 recognizes the detection information indicating the ON state of the release switch, the imaging unit 12 An instruction to process a still image is output. When the imaging instruction is input to the imaging unit 12, the electric charge that has been photoelectrically converted by the imaging element is read out as an electric signal, and various signal processing is performed on the imaging signal, and the processed image data is transmitted to the bus. Stored in RAM 18 via 14. This image data is subjected to distortion characteristic removal processing and image size normalization processing in the 3D processing unit 24, and the normalized image data is stored in the memory card 27 and the map memory 30 (step 914). . Along with the image storage, the block number and name of the corresponding block, and the position information and the azimuth information are stored corresponding to the image (step 916).

【0053】以上のようにして、各ブロックにマッピン
グする画像データが地図メモリ30に登録されると、立体
地図画像を表示する際に、表示される各ブロックに対応
するブロック番号が付与された画像データを貼り付けて
表示することができる。この様子を移動モードの経路誘
導を例にして説明する。
As described above, when the image data to be mapped to each block is registered in the map memory 30, when displaying a three-dimensional map image, an image to which a block number corresponding to each displayed block is assigned. Data can be pasted and displayed. This situation will be described by taking the route guidance in the movement mode as an example.

【0054】図10に示すように移動モードが設定される
と、ステップ1000において、目的地を選択するための目
的地選択メニュー画像がモニタ表示装置22に表示され、
登録されている地点情報に対応する場所や地図データに
て示される場所が目的地点として選択される。次くステ
ップ1002にて現在位置が確認されると、ステップ1004に
おける最短路算出処理が行われる。制御部16では、選択
された目的地点と現在地との位置情報に基づいて、地図
メモリ30に格納された道路情報を使用してユーザの移動
形態に応じたルート計算が行われ、これら地点間のたと
えば最短路など適切な経路が算出される。
When the movement mode is set as shown in FIG. 10, a destination selection menu image for selecting a destination is displayed on the monitor display device 22 in step 1000.
A location corresponding to the registered location information or a location indicated by the map data is selected as the destination. Next, when the current position is confirmed in step 1002, the shortest path calculation processing in step 1004 is performed. In the control unit 16, based on the position information of the selected destination point and the current position, a route calculation according to the user's movement mode is performed using the road information stored in the map memory 30, and the route between these points is calculated. For example, an appropriate route such as the shortest route is calculated.

【0055】経路が算出されるとステップ1006に進ん
で、算出された経路上における方向指示や参考情報など
を表示させる経路誘導指示情報(ナビゲーション情報)
が生成されてRAM 18に格納される。この情報には算出さ
れた経路上における表示ポイントが設定され、後の処理
にて現在位置が表示ポイントに近づくと指示情報がモニ
タ表示装置22に表示出力される。
When the route is calculated, the process proceeds to step 1006, in which route guidance information (navigation information) for displaying a direction instruction, reference information, and the like on the calculated route.
Is generated and stored in the RAM 18. The display point on the calculated route is set in this information, and when the current position approaches the display point in a later process, the instruction information is displayed and output on the monitor display device 22.

【0056】続くステップ1008に進むと、位置情報、方
位情報が制御部16に取得されて、立体地図における視点
が設定される。ステップ1010では、設定されて視点情報
が変更されたか否かが判定される。ここで変更があった
と判断されるとステップ1012に進んで、現在の位置情報
に応じた地図データ、道路データとが地図メモリ30から
読み出されて、ステップ1014にて、その立体地図データ
が3D処理部24にて作成される。
At step 1008, the control unit 16 acquires the position information and the azimuth information, and sets the viewpoint on the three-dimensional map. In step 1010, it is determined whether or not the viewpoint information has been changed after being set. If it is determined that there has been a change, the process proceeds to step 1012, where map data and road data corresponding to the current position information are read from the map memory 30, and in step 1014, the three-dimensional map data is Created by the processing unit 24.

【0057】ステップ1016では、立体地図データ上に作
成された各ブロックに対応する、表面画像のデータが、
各ブロック番号に基づいて地図メモリ30から読み出され
て3D処理部24に供給される。ステップ1018にて、これ
らブロック対応の画像データが、対応のブロックにそれ
ぞれ貼り付けられ、マッピングされた立体地図画像が視
点情報に応じて作成される。ステップ1020では、現在位
置が経路誘導指示情報を表示する表示ポイントであるか
否かが現在の移動速度に応じて判定され、表示ポイント
ではない場合にはそのままステップ1024に進み、表示ポ
イントであれば、指示情報を示す画像が地図メモリ30か
ら読み出されて立体地図画像に合成され、ステップ1024
に進む。ステップ1024では、作成された立体地図画像デ
ータが3D処理部24から表示制御部20に転送されて、モ
ニタ表示装置の表示画面の第2の表示フレーム704 に立
体地図画像が表示される。
In step 1016, the surface image data corresponding to each block created on the stereo map data is
It is read from the map memory 30 based on each block number and supplied to the 3D processing unit 24. In step 1018, these block-corresponding image data are pasted on the corresponding blocks, respectively, and a mapped stereoscopic map image is created according to the viewpoint information. In step 1020, it is determined whether or not the current position is a display point for displaying the route guidance instruction information according to the current moving speed. If the current position is not a display point, the process directly proceeds to step 1024. The image indicating the instruction information is read from the map memory 30 and synthesized with the stereoscopic map image, and the process proceeds to step 1024.
Proceed to. In step 1024, the created three-dimensional map image data is transferred from the 3D processing unit 24 to the display control unit 20, and the three-dimensional map image is displayed on the second display frame 704 of the display screen of the monitor display device.

【0058】その後、ステップ1008に戻って、現在位置
および方位情報が取得され、ステップ1010にて変更がな
いと判断された場合にステップ1020にて進んで前記表示
ポイントであるか否かが判定される。ステップ1010にて
変更があったことが確認されるとステップ1010ないし10
18の処理を経てステップ1020に進む。ステップ1020に
て、表示ポイントであると判断された場合には、経路誘
導指示情報を示す画像が立体地図に合成表示される。
Thereafter, returning to step 1008, the current position and azimuth information are obtained. If it is determined in step 1010 that there is no change, the flow advances to step 1020 to determine whether or not the display point exists. You. If it is confirmed in step 1010 that the change has been made, steps 1010 to 10
After the processing at 18, the process proceeds to step 1020. If it is determined in step 1020 that the point is a display point, an image indicating the route guidance instruction information is combined and displayed on the three-dimensional map.

【0059】このようにして、現在位置および進行方向
に応じて表示される立体地図画像が更新されてモニタ表
示され、たとえば交差点等にて直進、右折、左折などの
進行方向を示す指示情報が表示ポイントにてモニタ表示
される。なお、ステップ1008にて、取得した位置情報
が、ルート計算にて求めた経路と大きく異なることが検
出されると、ステップ1004に戻って現在地から目的地点
までの経路を再計算して求めて、新たな経路による経路
誘導処理が行われるとともに、その旨がモニタ表示装置
22の表示画面に表示される。これは移動途中にて、現在
の移動形態と異なる移動形態に切り換えて、算出した経
路とは異なる経路で移動するバスや鉄道等の交通手段を
使用し、適当なバス停もしくは駅などで降車した場合な
どで有効である。
In this way, the three-dimensional map image displayed according to the current position and the traveling direction is updated and displayed on the monitor. For example, instruction information indicating the traveling direction such as going straight, turning right or turning left at an intersection is displayed. Monitor display at point. In step 1008, if it is detected that the acquired position information is significantly different from the route calculated in the route calculation, the process returns to step 1004 to recalculate the route from the current location to the destination, and obtain the same. A route guidance process is performed by a new route, and a monitor display device indicates the fact.
Displayed on the 22 display screen. This is when you switch to a different travel mode from the current travel mode on the way, and use a means of transportation such as a bus or railroad that travels on a route different from the calculated route, and get off at an appropriate bus stop or station. It is effective in such as.

【0060】以上の説明は現在位置の変化に応じて画像
表示を更新する例であるが、現在位置を表す位置情報を
強制的に変更することにより移動シュミレーションを行
うことができる。たとえば、算出されて移動経路に応じ
た位置情報を現在位置として認識し、その位置情報を移
動経路に沿って所定の時間ごとに更新していくことによ
り、実際の現在位置が変わっていなくても、目的地まで
の景観変化の様子をモニタ表示装置22に表示させること
ができる。変化させる位置情報をたとえば操作に応じて
任意に選択するようにして、選択された位置での景観を
モニタ表示装置22に表示させることができる。これを利
用して所望の街区を示す立体地図を表示させ、登録モー
ドに移行し、ブロックに貼り付ける構造物群の表面画像
を撮影し直し、テクスチャとして貼り付ける画像データ
を更新することができる。
The above description is an example in which the image display is updated according to the change in the current position. However, the movement simulation can be performed by forcibly changing the position information indicating the current position. For example, by recognizing the calculated position information corresponding to the movement route as the current position and updating the position information at predetermined time intervals along the movement route, even if the actual current position has not changed. The state of the change in the scenery to the destination can be displayed on the monitor display device 22. By selecting the position information to be changed arbitrarily according to, for example, an operation, the landscape at the selected position can be displayed on the monitor display device 22. By utilizing this, it is possible to display a three-dimensional map indicating a desired block, shift to the registration mode, retake a surface image of the structure group to be pasted on the block, and update the image data to be pasted as a texture.

【0061】以上説明したように、このカメラ10は、た
とえば、気に入ったお店などを見つけて、そのお気に入
りの場所に再び訪れたいというような場合、その帰り道
における周辺状況として、途中のビルなど構造物等をデ
ィジタル地図に対応して撮影および記録し、その記録画
像を使用して周辺状況を表す3次元立体地図を作成する
ことができる。そして次回の訪問時に、その記録情報を
立体地図上の構造物に合成表示し、さらに経路誘導のた
めの情報を表示する。操作者はその表示を確認しながら
歩行および車両等により移動する。この場合にも新たに
撮影した写真画像データを、立体地図上の構造物の表面
を表す情報として登録および更新することが可能であ
る。このように作成された立体地図と、実際の景観とを
それぞれ視認することで、自分の現在位置からの景観
が、立体地図に示される景観に合致することが直感的に
確認できるとともに、お気に入りのお店に安心してたど
り着くことができる。
As described above, this camera 10 can be used, for example, to find a favorite shop or the like and return to the favorite place again. Objects and the like can be photographed and recorded according to the digital map, and the recorded image can be used to create a three-dimensional stereo map showing the surrounding situation. Then, at the next visit, the recorded information is synthesized and displayed on the structure on the three-dimensional map, and further information for route guidance is displayed. The operator walks and moves with a vehicle while checking the display. Also in this case, it is possible to register and update the newly photographed image data as information representing the surface of the structure on the three-dimensional map. By visually recognizing the three-dimensional map created in this way and the actual landscape, it is possible to intuitively confirm that the landscape from the current position matches the landscape shown in the three-dimensional map, You can reach the shop with confidence.

【0062】目的地までの道順が入り組んでいたり、似
たようなビルディングが街区に並んでいたりすると、従
来のような地図と現在位置との表示では、今いる場所で
の実際の景観と従来地図とのつながりが希薄であるた
め、自分の現在位置にて得られる実際の景観と地図表示
とのギャップが大きかった。そして間違いなく今この場
所にいるという実感を得ることができず、この結果、た
とえば未知の場所にきた人にとって不安を充分解消する
ことができなかった。
If the directions to the destination are complicated, or similar buildings are lined up in the block, the display of the conventional map and the current position shows the actual landscape at the current location and the conventional map. Because the connection with the map was sparse, the gap between the actual scenery obtained at my current position and the map display was large. And, without a doubt, he could not feel that he was in this place, and as a result, for example, a person who came to an unknown place could not fully eliminate his anxiety.

【0063】しかし本実施例におけるカメラ10では、地
図上における現在地表示のみならず、3次元立体地図上
での表示画像が実際の景観と映像的に合致するように、
構造物表面の状態を撮影記録可能かつ3Dフレーム上に
合成表示可能とし、さらに目的地までの移動行程におけ
る実写画像によって立体地図上の3次元構造物を表すの
で、図7および図8に示すように目的地に到着するまで
の各位置700 ないし712 における途中の景観800 ないし
810 を1つ1つ確認していくとともに、移動に伴って次
に見えてくるビルなどが、第2の表示フレーム304 に表
示される立体地図によって確認することができる。なお
これら図には、各ブロックに貼り付けた表面画像を図の
簡略化のために示してはいないが、実際には建物等の構
造物の色や形状さらには明るさ、質感などが、カメラ10
に表示される立体地図における構造物と合致しているか
どうかが容易に判断することが可能となる。この結果、
目的地に対する2回目以降の訪問時に限らず、初回の訪
問時においても、カメラ10に必要な情報を作成しておく
ことにより、実際の景観と表示されている立体画像とが
一致して表示されるので、安心して目的地に向かうこと
ができる。また、実際にその場所まで再度行かなくて
も、ある地点から別の地点までの移動経路を記憶してお
き、その経路上の景観をシュミレートして再生すること
ができ、まさにその場所を歩いているような景観が得ら
れる。
However, in the camera 10 of this embodiment, not only the present position display on the map but also the display image on the three-dimensional three-dimensional map matches the actual scene visually.
Since the state of the surface of the structure can be recorded and recorded and can be displayed on a 3D frame in a composite manner, and furthermore, a three-dimensional structure on a three-dimensional map is represented by an actual image taken during the travel to the destination, as shown in FIGS. 7 and 8. Landscape at each position 700 to 712 until reaching the destination 800 or
While checking 810 one by one, a building or the like that will be seen next with the movement can be checked on the three-dimensional map displayed on the second display frame 304. In these figures, the surface images pasted on each block are not shown for simplicity, but in actuality the color and shape of structures such as buildings, as well as the brightness and texture, etc. Ten
It is possible to easily determine whether or not the object matches the structure in the three-dimensional map displayed in. As a result,
Not only during the second and subsequent visits to the destination, but also during the first visit, by creating necessary information for the camera 10, the actual scenery and the displayed stereoscopic image are displayed in agreement. So you can head to your destination with peace of mind. In addition, even if you do not actually go to the place again, you can memorize the travel route from one point to another, simulate the scenery on that route and reproduce it, and just walk around that place You can get the scenery that you are.

【0064】このようなカメラ10を本実施例では、立体
地図に表示されるブロックにマッピングするテクスチャ
を、たとえば1つのビルを構成する窓や玄関等の各部分
を表す複数の画像群で表現するのではなく、所定の街区
や街区を分割したある区域ごとに立体ブロックを形成
し、そのブロック対応の画像データをテクスチャとして
使用しているので、大規模な構成によらずに景観表示を
行うことが可能となり、コンパクトに携行可能な構成で
簡易的な3次元立体地図画像を作成し表示可能としてい
る。
In the present embodiment, such a camera 10 expresses a texture to be mapped to a block displayed on a three-dimensional map, for example, by a plurality of image groups representing windows, entrances and the like constituting one building. Instead of forming a three-dimensional block in each predetermined block or a certain area obtained by dividing the block, and using the image data corresponding to the block as a texture, the landscape display can be performed regardless of a large-scale configuration. This makes it possible to create and display a simple three-dimensional stereoscopic map image in a compact and portable configuration.

【0065】[0065]

【発明の効果】このように本発明によれば、複数の構造
物を立体的に簡略化したブロックの面画像を表す第1の
画像データとブロックデータとに基づいて、ブロックの
面画像としてブロックに対応する第1の画像データに応
じた画像を貼り付けて、複数の構造物を立体的に表す第
2の画像データを作成するので、立体画像を簡略な構成
で表現することができ、街区等の景観を、携帯可能な簡
略な装置に登録したり再生表示させることができる。
As described above, according to the present invention, based on the first image data and the block data representing the plane image of the block in which a plurality of structures are simplified three-dimensionally, the block plane image is obtained. Is created by pasting an image corresponding to the first image data corresponding to the first image data, so that a three-dimensional image can be expressed with a simple configuration. Can be registered or reproduced and displayed on a portable simple device.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用されたカメラの構成を示すブロッ
ク図である。
FIG. 1 is a block diagram illustrating a configuration of a camera to which the present invention has been applied.

【図2】メモリカードの記憶形式を示す図である。FIG. 2 is a diagram showing a storage format of a memory card.

【図3】画面表示例を示す図である。FIG. 3 is a diagram showing a screen display example.

【図4】経路誘導の様子を示す図である。FIG. 4 is a diagram showing a state of route guidance.

【図5】経路誘導指示情報の一例を示す図である。FIG. 5 is a diagram illustrating an example of route guidance instruction information.

【図6】表面画像の貼付状態を示す図である。FIG. 6 is a diagram showing a state of pasting a front surface image.

【図7】移動経路における各表示地点の一例を示す図で
ある。
FIG. 7 is a diagram illustrating an example of each display point on a movement route.

【図8】移動経路における画面表示例を示す図である。FIG. 8 is a diagram showing an example of a screen display on a moving route.

【図9】登録モードにおける処理を示すフローチャート
である。
FIG. 9 is a flowchart showing processing in a registration mode.

【図10】移動モードにおける処理を示すフローチャー
トである。
FIG. 10 is a flowchart illustrating a process in a movement mode.

【符号の説明】[Explanation of symbols]

10 カメラ 12 撮像部 16 制御部 (CPU) 18 メモリ (RAM) 24 3D処理部 28 記録制御部 30 地図メモリ 10 Camera 12 Imaging unit 16 Control unit (CPU) 18 Memory (RAM) 24 3D processing unit 28 Recording control unit 30 Map memory

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/66 450 Fターム(参考) 2C032 HB11 HC01 HC23 HD07 5B050 BA09 BA17 EA13 EA19 5B057 AA16 BA02 CD11 CE08 9A001 HH29 HH32 JJ11 JJ72 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/66 450 F term (Reference) 2C032 HB11 HC01 HC23 HD07 5B050 BA09 BA17 EA13 EA19 5B057 AA16 BA02 CD11 CE08 9A001 HH29 HH32 JJ11 JJ72

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 構造物の立体状況を表示可能に処理する
画像処理装置において、該装置は、 隣接する複数の構造物を立体的に簡略化したブロックに
て示すブロックデータを作成するブロック作成手段と、 前記ブロックの面画像を表す第1の画像データを該ブロ
ックに対応して記憶する記憶手段と、 該記憶手段に記憶された第1の画像データと前記ブロッ
クデータとに基づいて、前記ブロックの面画像として該
ブロックに対応する第1の画像データに応じた画像を貼
り付けて、前記複数の構造物を立体的に表す第2の画像
データを作成する画像処理手段と、 該画像処理手段にて処理された第2の画像データを表示
手段に出力する画像出力手段とを含むことを特徴とする
画像処理装置。
1. An image processing apparatus for processing a three-dimensional state of a structure so that the three-dimensional state of the structure can be displayed, the apparatus comprising: block creation means for creating block data indicating a plurality of adjacent structures as three-dimensionally simplified blocks A storage unit that stores first image data representing a surface image of the block corresponding to the block; and a block based on the first image data and the block data stored in the storage unit. An image processing means for pasting an image corresponding to the first image data corresponding to the block as a surface image of the second image data to create second image data three-dimensionally representing the plurality of structures; and the image processing means And an image output means for outputting the second image data processed by the image processing means to a display means.
【請求項2】 請求項1に記載の画像処理装置におい
て、前記ブロック作成手段は、ポリゴンにより前記ブロ
ックを形成するブロックデータを作成し、 前記画像処理手段は、前記ブロック対応の第1の画像デ
ータを該ブロックのポリゴン表面に貼り付けることを特
徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the block creating unit creates block data that forms the block by using polygons, and the image processing unit creates the first image data corresponding to the block. An image processing apparatus, wherein is attached to a polygon surface of the block.
【請求項3】 請求項1に記載の画像処理装置におい
て、該装置は、被写界を撮像する撮像手段の出力に接続
され、前記記憶手段は、前記ブロックに対応して撮像さ
れて処理された第1の画像データを記憶することを特徴
とする画像処理装置。
3. The image processing apparatus according to claim 1, wherein the apparatus is connected to an output of an image pickup means for picking up an image of the object scene, and the storage means is picked up and processed corresponding to the block. An image processing apparatus storing the first image data.
【請求項4】 請求項3に記載の画像処理装置におい
て、該装置は、前記撮像手段を含み、撮像により得られ
る画像データを前記ブロック対応に前記記憶手段に登録
することを特徴とする画像処理装置。
4. The image processing apparatus according to claim 3, wherein the apparatus includes the imaging unit, and registers image data obtained by imaging in the storage unit in correspondence with the block. apparatus.
【請求項5】 請求項1に記載の画像処理装置におい
て、前記ブロック作成手段は、地図情報の表す街区をブ
ロックにて示すブロックデータを作成し、 前記記憶手段は、該ブロック対応に街区を撮影して処理
された画像データを記憶することを特徴とする画像処理
装置。
5. The image processing apparatus according to claim 1, wherein the block creating unit creates block data indicating a block represented by the map information as a block, and the storage unit captures the block corresponding to the block. An image processing apparatus for storing image data that has been processed in a manner as described above.
【請求項6】 請求項5に記載の画像処理装置におい
て、前記ブロック作成手段は、前記街区を複数のブロッ
クにてそれぞれ示すブロックデータを作成することを特
徴とする画像処理装置。
6. The image processing apparatus according to claim 5, wherein said block creating means creates block data indicating each of said blocks by a plurality of blocks.
【請求項7】 請求項5または6に記載の画像処理装置
において、該装置は、前記地図情報を格納する格納手段
を含み、 前記画像処理手段は、前記地図情報と前記第2の画像デ
ータとに応じた立体地図データを作成し、 前記画像出力手段は、前記立体地図画像データの表わす
画像を表示可能に出力することを特徴とする画像処理装
置。
7. The image processing device according to claim 5, wherein the device includes a storage unit that stores the map information, wherein the image processing unit stores the map information and the second image data. An image processing apparatus, wherein the image output means outputs an image represented by the stereoscopic map image data so as to be displayable.
【請求項8】 請求項7に記載の画像処理装置におい
て、該装置は、前記地図情報に基づいて、目的地への経
路を算出する経路算出手段を含み、 前記画像処理手段は、前記経路に応じた立体地図画像を
作成することを特徴とする画像処理装置。
8. The image processing apparatus according to claim 7, wherein the apparatus includes a route calculation unit that calculates a route to a destination based on the map information, wherein the image processing unit performs An image processing device for creating a three-dimensional map image according to the image processing device.
【請求項9】 請求項8に記載の画像処理装置におい
て、該装置は、該装置の位置情報を入力する位置入力手
段を含み、 前記画像処理手段は、前記位置情報に応じた立体地図画
像を作成することを特徴とする画像処理装置。
9. The image processing apparatus according to claim 8, wherein the apparatus includes position input means for inputting position information of the apparatus, wherein the image processing means generates a three-dimensional map image corresponding to the position information. An image processing apparatus characterized by being created.
【請求項10】 構造物の立体状況を表示可能に処理す
る画像処理方法において、該方法は、 隣接する複数の構造物を立体的に簡略化したブロックに
て示すブロックデータを作成するブロック作成工程と、 前記ブロックの面画像を表す第1の画像データを該ブロ
ックに対応して記憶しておく記憶工程と、 該記憶工程にて記憶された第1の画像データと前記ブロ
ックデータとに基づいて、前記ブロックの面画像として
該ブロックに対応する第1の画像データに応じた画像を
貼り付けて、前記複数の構造物を立体的に表す第2の画
像データを作成する画像処理工程と、 該画像処理工程にて処理された第2の画像データを表示
手段に出力する画像出力工程とを含むことを特徴とする
画像処理方法。
10. An image processing method for displaying a three-dimensional state of a structure so as to be able to be displayed, the method comprising: a block creation step of creating block data indicating a plurality of adjacent structures as three-dimensionally simplified blocks. And a storage step of storing first image data representing a plane image of the block corresponding to the block; based on the first image data and the block data stored in the storage step An image processing step of pasting an image corresponding to the first image data corresponding to the block as a plane image of the block to create second image data three-dimensionally representing the plurality of structures; An image output step of outputting the second image data processed in the image processing step to a display means.
【請求項11】 請求項10に記載の画像処理方法にお
いて、前記ブロック工程手段は、ポリゴンにより前記ブ
ロックを形成するブロックデータを作成し、 前記画像処理工程は、前記ブロック対応の第1の画像デ
ータを該ブロックのポリゴン表面に貼り付けることを特
徴とする画像処理方法。
11. The image processing method according to claim 10, wherein the block processing means generates block data for forming the block by using polygons, and wherein the image processing step includes a first image data corresponding to the block. Is attached to the polygon surface of the block.
【請求項12】 請求項10に記載の画像処理方法にお
いて、該方法は、被写界を撮像する撮像手段の出力に接
続され、前記記憶工程は、前記ブロックに対応して撮像
されて処理された第1の画像データを記憶しておくこと
を特徴とする画像処理方法。
12. The image processing method according to claim 10, wherein the method is connected to an output of an imaging unit that captures an object scene, and the storing step is performed by capturing an image corresponding to the block. An image processing method characterized by storing the first image data.
【請求項13】 請求項12に記載の画像処理方法にお
いて、該方法は、前記撮像手段の撮像により得られる画
像データを前記ブロック対応に登録することを特徴とす
る画像処理方法。
13. The image processing method according to claim 12, wherein said method registers image data obtained by imaging by said imaging means in correspondence with said blocks.
【請求項14】 請求項10に記載の画像処理方法にお
いて、前記ブロック作成工程は、地図情報の表す街区を
ブロックにて示すブロックデータを作成し、 前記記憶工程は、該ブロック対応に街区を撮影して処理
された画像データを記憶しておくことを特徴とする画像
処理方法。
14. The image processing method according to claim 10, wherein the block creating step creates block data indicating a block represented by the map information as a block, and the storing step captures the block corresponding to the block. An image processing method characterized by storing image data that has been processed.
【請求項15】 請求項14に記載の画像処理方法にお
いて、前記ブロック作成工程は、前記街区を複数のブロ
ックにてそれぞれ示すブロックデータを作成することを
特徴とする画像処理装置。
15. The image processing method according to claim 14, wherein the block creating step creates block data indicating each of the blocks by a plurality of blocks.
【請求項16】 請求項14または15に記載の画像処
理方法において、該方法は、前記地図情報を格納してお
く格納工程を含み、 前記画像処理工程は、前記地図情報と前記第2の画像デ
ータとに応じた立体地図データを作成し、 前記画像出力工程は、前記立体地図画像データの表わす
画像を表示可能に出力することを特徴とする画像処理方
法。
16. The image processing method according to claim 14, further comprising a storing step of storing the map information, wherein the image processing step includes the step of storing the map information and the second image. An image processing method, wherein three-dimensional map data corresponding to the three-dimensional map data is created, and the image output step outputs an image represented by the three-dimensional map image data so that the image can be displayed.
【請求項17】 請求項16に記載の画像処理方法にお
いて、該方法は、前記地図情報に基づいて、目的地への
経路を算出する経路算出工程を含み、 前記画像処理工程は、前記経路に応じた立体地図画像を
作成することを特徴とする画像処理方法。
17. The image processing method according to claim 16, wherein the method includes a route calculating step of calculating a route to a destination based on the map information. An image processing method comprising creating a three-dimensional map image according to the image processing method.
【請求項18】 請求項17に記載の画像処理方法にお
いて、該方法は、位置情報を入力する位置入力工程を含
み、 前記画像処理工程は、前記位置情報に応じた立体地図画
像を作成することを特徴とする画像処理方法。
18. The image processing method according to claim 17, wherein the method includes a position input step of inputting position information, wherein the image processing step generates a stereoscopic map image according to the position information. An image processing method characterized by the following.
JP17652099A 1999-06-23 1999-06-23 Device and method for image processing Withdrawn JP2001005994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17652099A JP2001005994A (en) 1999-06-23 1999-06-23 Device and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17652099A JP2001005994A (en) 1999-06-23 1999-06-23 Device and method for image processing

Publications (1)

Publication Number Publication Date
JP2001005994A true JP2001005994A (en) 2001-01-12

Family

ID=16015071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17652099A Withdrawn JP2001005994A (en) 1999-06-23 1999-06-23 Device and method for image processing

Country Status (1)

Country Link
JP (1) JP2001005994A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002258740A (en) * 2001-03-02 2002-09-11 Mixed Reality Systems Laboratory Inc Method and device for recording picture and method and device for reproducing picture
JP2002277260A (en) * 2001-03-16 2002-09-25 Aisin Aw Co Ltd Navigation apparatus
JP2006194665A (en) * 2005-01-12 2006-07-27 Sanyo Electric Co Ltd Portable terminal with navigation function
JP2009276266A (en) * 2008-05-16 2009-11-26 Alpine Electronics Inc Navigation device
KR20110118727A (en) * 2009-02-24 2011-10-31 구글 인코포레이티드 System and method for representing transitions between street level images
US8868338B1 (en) 2008-11-13 2014-10-21 Google Inc. System and method for displaying transitions between map views
JP2016070737A (en) * 2014-09-29 2016-05-09 ジェイアール東日本コンサルタンツ株式会社 Navigation system
CN111325849A (en) * 2018-12-14 2020-06-23 广东虚拟现实科技有限公司 Virtual content display method and device, terminal equipment and storage medium

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002258740A (en) * 2001-03-02 2002-09-11 Mixed Reality Systems Laboratory Inc Method and device for recording picture and method and device for reproducing picture
US7110592B2 (en) * 2001-03-02 2006-09-19 Canon Kabushiki Kaisha Image recording apparatus, image reproducing apparatus and methods therefor
JP2002277260A (en) * 2001-03-16 2002-09-25 Aisin Aw Co Ltd Navigation apparatus
JP2006194665A (en) * 2005-01-12 2006-07-27 Sanyo Electric Co Ltd Portable terminal with navigation function
US7822545B2 (en) 2005-01-12 2010-10-26 Kyocera Corporation Mobile terminal with navigation function
JP2009276266A (en) * 2008-05-16 2009-11-26 Alpine Electronics Inc Navigation device
US8868338B1 (en) 2008-11-13 2014-10-21 Google Inc. System and method for displaying transitions between map views
US9269190B1 (en) 2008-11-13 2016-02-23 Google Inc. System and method for displaying transitions between map views
JP2012518849A (en) * 2009-02-24 2012-08-16 グーグル インコーポレイテッド System and method for indicating transitions between street level images
KR20110118727A (en) * 2009-02-24 2011-10-31 구글 인코포레이티드 System and method for representing transitions between street level images
US9454847B2 (en) 2009-02-24 2016-09-27 Google Inc. System and method of indicating transition between street level images
KR101667345B1 (en) * 2009-02-24 2016-10-18 구글 인코포레이티드 System and method of indicating transition between street level images
EP2401703A4 (en) * 2009-02-24 2017-04-26 Google, Inc. System and method of indicating transition between street level images
EP3432273A1 (en) * 2009-02-24 2019-01-23 Google LLC System and method of indicating transition between street level images
JP2016070737A (en) * 2014-09-29 2016-05-09 ジェイアール東日本コンサルタンツ株式会社 Navigation system
CN111325849A (en) * 2018-12-14 2020-06-23 广东虚拟现实科技有限公司 Virtual content display method and device, terminal equipment and storage medium
CN111325849B (en) * 2018-12-14 2024-03-12 广东虚拟现实科技有限公司 Virtual content display method, device, terminal equipment and storage medium

Similar Documents

Publication Publication Date Title
JP7192923B2 (en) Apparatus, method, program, system
JP4038529B1 (en) Navigation system, portable terminal device, and peripheral image display method
US12106409B2 (en) Server, user terminal, and service providing method, and control method thereof
JPH11122638A (en) Image processor, image processing method, and computer-readable information recording medium recorded with image processing program
KR101147748B1 (en) A mobile telecommunication device having a geographic information providing function and the method thereof
JP5401387B2 (en) Map image processing apparatus, map image processing method, and map image processing program
US20060142942A1 (en) Device and method for creating electronic album using map data
WO2006039389A2 (en) Method for incorporating images with a user perspective in navigation
WO2022180459A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP4989495B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium therefor
JP2006091390A (en) Information display system, information display method, and program for causing computer to execute information display method and information display terminal device
JPH0933271A (en) Navigation device and imaging device
WO2022039011A1 (en) Navigation using computer system
WO2015019917A1 (en) Method for retrieving local tourism information with reference to position of user
JP2001005994A (en) Device and method for image processing
KR100685790B1 (en) Image-based navigation system and method
WO2010032282A1 (en) Server device, mobile terminal, intersection guide system, and intersection guide method
KR20150077607A (en) Dinosaur Heritage Experience Service System Using Augmented Reality and Method therefor
CN106846388B (en) Image map registration method and system
JP4892741B2 (en) Navigation device and navigation method
JPH10214397A (en) Route guidance device
JP3753306B2 (en) Mobile navigation system
JP2009036676A (en) Information processing apparatus, additional information providing method, and additional information providing program
JP3114862B2 (en) An interactive landscape labeling system
JP3156649B2 (en) Deformable label landscape labeling device and system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905