JP2010185761A - Navigation system, road map display method - Google Patents
Navigation system, road map display method Download PDFInfo
- Publication number
- JP2010185761A JP2010185761A JP2009029765A JP2009029765A JP2010185761A JP 2010185761 A JP2010185761 A JP 2010185761A JP 2009029765 A JP2009029765 A JP 2009029765A JP 2009029765 A JP2009029765 A JP 2009029765A JP 2010185761 A JP2010185761 A JP 2010185761A
- Authority
- JP
- Japan
- Prior art keywords
- image
- road map
- navigation system
- shooting range
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】目視されている光景とカメラによる撮影範囲の関連を運転者が把握容易なナビゲーションシステム及び道路地図表示方法を提供すること。
【解決手段】道路地図13に自車両の現在位置を表示するナビゲーションシステム100であって、現在位置と自車両周囲を撮影するカメラ25の画角に基づき撮影範囲を特定する撮影範囲特定手段31と、撮影範囲に対応する道路地図上の領域を決定する画像領域決定手段32と、領域を示すオブジェクト12を道路地図13に生成するオブジェクト生成手段35と、オブジェクト12を含む道路地図13を表示する表示手段37、29と、を有することを特徴とする。
【選択図】図1The present invention provides a navigation system and a road map display method in which a driver can easily grasp the relationship between a scene being viewed and a shooting range of a camera.
A navigation system 100 for displaying a current position of a host vehicle on a road map 13 includes a shooting range specifying unit 31 for specifying a shooting range based on a current position and an angle of view of a camera 25 that captures the surroundings of the host vehicle. Image area determining means 32 for determining an area on the road map corresponding to the shooting range, object generating means 35 for generating an object 12 indicating the area on the road map 13, and display for displaying the road map 13 including the object 12 And means 37, 29.
[Selection] Figure 1
Description
本発明は、道路地図に自車両の現在位置を表示するナビゲーションシステムに関し、特に、カメラにより撮影される撮影範囲を呈示できるナビゲーションシステム及び道路地図表示方法に関する。 The present invention relates to a navigation system that displays the current position of a host vehicle on a road map, and more particularly, to a navigation system and a road map display method that can present a shooting range shot by a camera.
ナビゲーションシステムは、自車位置周辺の道路地図や目的地までの経路を道路地図上に強調して表示して運転者が走行方向を把握するための支援を行う。自車両の位置は道路地図に表示されるが、さらに目的地までの経路で右左折する際に右折方向又は左折方向を道路地図に表示するナビゲーションシステムが考案されている(例えば、特許文献1参照。)。特許文献1には、案内すべき交差点が連続する場合に、手前の交差点を拡大表示すると共に、その次の交差点の進行方向を矢印で案内するナビゲーション装置が開示されている。 The navigation system emphasizes and displays the road map around the vehicle position and the route to the destination on the road map to assist the driver in grasping the traveling direction. Although the position of the host vehicle is displayed on the road map, a navigation system has been devised that displays the right turn direction or the left turn direction on the road map when making a right or left turn along the route to the destination (see, for example, Patent Document 1). .) Patent Document 1 discloses a navigation device that, when there are successive intersections to be guided, enlarges and displays the previous intersection and guides the traveling direction of the next intersection with an arrow.
ところで、カメラが車載された車両では、カメラが撮影した画像を車内の表示装置に表示することができるようになっていることがある。例えば、ナイトビューと呼ばれるシステムでは、撮影された画像から歩行者を検出すると、画像内の歩行者を強調するよう画像処理して表示装置に表示することができる。 By the way, in a vehicle equipped with a camera, an image captured by the camera may be displayed on a display device in the vehicle. For example, in a system called night view, when a pedestrian is detected from a captured image, image processing is performed so as to emphasize the pedestrian in the image, and the image can be displayed on a display device.
また、車載されたカメラを利用して、カメラが撮影した画像データを位置情報に対応づけて記憶しておき、道路地図の走行軌跡に画像を表示する技術が考えられている(例えば、特許文献2参照。)。走行後、運転者は走行軌跡上の位置と画像の関連を容易に把握することができる。
しかしながら、特許文献2記載の画像処理システムでは、過去の画像を過去の走行軌跡に対応づけて表示するものであるため、実際にその場所を走行している際の運転支援にはならない。 However, in the image processing system described in Patent Document 2, since past images are displayed in association with past travel trajectories, it does not provide driving assistance when actually traveling in the place.
そこで、カメラを車載した車両では、カメラが撮影する画像と道路地図とを連携して表示して、画像と道路地図との関連を把握させながら運転者を誘導することが望まれる。しかし、カメラの画角は比較的狭いため、運転者に目視されている領域とカメラに撮影される領域とは異なり、カメラが撮影する画像を単に表示しても、撮影されている画像が道路地図のどのエリアなのかを把握することは困難である。 Therefore, in a vehicle equipped with a camera, it is desirable to guide the driver while displaying the image captured by the camera and the road map in association with each other and grasping the relationship between the image and the road map. However, since the angle of view of the camera is relatively narrow, even if the image captured by the camera is simply displayed, the captured image is different from the region viewed by the driver and the region captured by the camera. It is difficult to grasp which area of the map.
また、カメラが撮影する画像には、歩行者や他車両などの物体が撮影されている場合があるが、物体との距離が近いと、物体の大きさや存在を確認できるタイミング(カメラは画角が狭いため、目視の方が早く物体を視認する)などが異なるため、目視した光景と画像とに相違があり、運転者が違和感を感じる場合があるという問題がある。また、他車両のような大きな物体がカメラの間近にある場合、画像のほとんどを他車両が占領してしまい、道路地図と連携させて表示しても運転者が戸惑うおそれがある。 In addition, images captured by the camera may include objects such as pedestrians and other vehicles. When the distance from the object is short, the size and presence of the object can be confirmed (the camera has an angle of view). Therefore, there is a difference between the viewed scene and the image, and there is a problem that the driver may feel uncomfortable. Further, when a large object such as another vehicle is close to the camera, the other vehicle occupies most of the image, and there is a possibility that the driver may be confused even if it is displayed in cooperation with the road map.
本発明は、上記課題に鑑み、目視されている光景とカメラによる撮影範囲の関連を運転者が把握容易なナビゲーションシステム及び道路地図表示方法を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a navigation system and a road map display method in which a driver can easily grasp the relationship between a scene being viewed and a shooting range by a camera.
上記課題に鑑み、本発明は、道路地図に自車両の現在位置を表示するナビゲーションシステムであって、現在位置と自車両周囲を撮影するカメラの画角に基づき撮影範囲を特定する撮影範囲特定手段と、撮影範囲に対応する道路地図上の領域を決定する画像領域決定手段と、領域を示すオブジェクトを道路地図に生成するオブジェクト生成手段と、オブジェクトを含む道路地図を表示する表示手段と、を有することを特徴とする。 In view of the above problems, the present invention provides a navigation system for displaying a current position of a host vehicle on a road map, and a shooting range specifying unit that specifies a shooting range based on the current position and a field angle of a camera that captures the surroundings of the host vehicle. And an image area determining means for determining an area on the road map corresponding to the shooting range, an object generating means for generating an object indicating the area on the road map, and a display means for displaying the road map including the object. It is characterized by that.
目視されている光景とカメラによる撮影範囲の関連を運転者が把握容易なナビゲーションシステム及び道路地図表示方法を提供することができる。 It is possible to provide a navigation system and a road map display method in which the driver can easily grasp the relationship between the scene being viewed and the photographing range of the camera.
以下、本発明を実施するための最良の形態について図面を参照しながら、実施例を挙げて説明する。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
図1は、表示された道路地図13と道路地図13内に表示された画像11の一例を示す。本実施例のナビゲーションシステム100の特徴は、画像表示オブジェクト12が道路地図13に表示されることである。画像表示オブジェクト12は、カメラの撮影範囲を2D又は3Dのアイコンにて示すものである。 FIG. 1 shows an example of a displayed road map 13 and an image 11 displayed in the road map 13. A feature of the navigation system 100 of the present embodiment is that the image display object 12 is displayed on the road map 13. The image display object 12 indicates the shooting range of the camera with a 2D or 3D icon.
図示するように、自車位置は画像表示オブジェクト12よりも紙面の手前側にある。したがって、運転席から目視できる目視エリアは自車位置から距離を置かずに拡がっている。これに対し、画像表示オブジェクト12は、カメラ25の画角(が狭いこと)を考慮して決定されているので、目視エリアよりも狭いカメラ25の撮影範囲だけを表示したものである。また、道路地図13は種々の縮尺で表示されるが、画像表示オブジェクト12は縮尺に応じて縮小・拡大されて表示される。 As shown in the figure, the vehicle position is closer to the front side of the page than the image display object 12. Therefore, the viewing area that can be seen from the driver's seat has expanded without leaving a distance from the vehicle position. On the other hand, since the image display object 12 is determined in consideration of the angle of view (narrow) of the camera 25, only the shooting range of the camera 25 smaller than the viewing area is displayed. The road map 13 is displayed at various scales, but the image display object 12 is displayed by being reduced or enlarged according to the scale.
このため、運転者は、道路地図13内に表示されている画像11が道路地図13上ではどの領域に相当するかを一目で把握することできる。目視した光景に対し画像11による撮影範囲が狭いことを視覚的に読み取れるので、目視している光景と画像11の関連も容易に把握することができる。 Therefore, the driver can grasp at a glance which region the image 11 displayed in the road map 13 corresponds to on the road map 13. Since it is possible to visually read that the shooting range of the image 11 is narrow with respect to the viewed scene, the relationship between the viewed scene and the image 11 can be easily grasped.
〔ナビゲーションシステム100の構成〕
図2は、ナビゲーションシステム100のハードウェア構成図の一例を示す。ナビゲーションシステム100は、ナビECU(Electronic Control Unit)27により制御される。ナビECU27には、CANやFlexRay等の車載LAN、専用線、又は、AV−LANを介して、GPS(Global Positioning System)受信機、車輪速センサ22、ジャイロセンサ23、地図DB(Data Base)24、入力装置26、カメラECU28、及び、表示装置29が接続されている。
[Configuration of Navigation System 100]
FIG. 2 shows an example of a hardware configuration diagram of the navigation system 100. The navigation system 100 is controlled by a navigation ECU (Electronic Control Unit) 27. The navigation ECU 27 includes a GPS (Global Positioning System) receiver, a wheel speed sensor 22, a gyro sensor 23, and a map DB (Data Base) 24 via an in-vehicle LAN such as CAN or FlexRay, a dedicated line, or an AV-LAN. The input device 26, the camera ECU 28, and the display device 29 are connected.
GPS受信機21等はいずれも公知のものを利用でき、例えば、GPS受信機21は、4以上のGPS衛星からの電波の到達時間に基づき車両の位置(緯度・経度・標高)を決定する。車輪速センサ22は、例えば、車両の各輪が回転すると変化する磁束をパルスとして計測して、単位時間あたりのパルス数に基づき各輪毎に車輪速を計測する。車輪速にタイヤの外径を乗じれば車速が得られる。ジャイロセンサ23は、コリオリ力の作用により変化する震動片(電極間)の距離に基づき車両が路面に対しヨーイング方向又はピッチング方向に回転する時の角速度を検知する、MEMS(Micro Electro Mechanical Systems)を実体とする。検知結果を積分することで角度、すなわち3軸方向の進行方向に変換する。 Any known GPS receiver 21 can be used. For example, the GPS receiver 21 determines the position (latitude / longitude / altitude) of the vehicle based on the arrival time of radio waves from four or more GPS satellites. For example, the wheel speed sensor 22 measures a magnetic flux that changes as each wheel of the vehicle rotates as a pulse, and measures the wheel speed for each wheel based on the number of pulses per unit time. The vehicle speed can be obtained by multiplying the wheel speed by the outer diameter of the tire. The gyro sensor 23 is a MEMS (Micro Electro Mechanical Systems) that detects the angular velocity when the vehicle rotates in the yawing direction or the pitching direction with respect to the road surface based on the distance of the vibration piece (between the electrodes) that changes due to the action of the Coriolis force. Entity. By integrating the detection result, the detection result is converted into an angle, that is, a traveling direction in the triaxial direction.
ナビECU27は、GPS受信機21により検出した位置を起点に、車輪速センサ22が検出する走行距離をジャイロセンサ23が検出する走行方位に累積して、自車両の位置を推定する自律航法により車両の現在位置を継続的に検出している。また、ナビECU27は、さらにマップマッチングによって自車両の位置を道路地図13の所定のリンクに対応づけ最終的な現在位置を確定している。 The navigation ECU 27 accumulates the travel distance detected by the wheel speed sensor 22 from the position detected by the GPS receiver 21 in the travel direction detected by the gyro sensor 23, and estimates the position of the vehicle by autonomous navigation. The current position of is continuously detected. Further, the navigation ECU 27 further associates the position of the host vehicle with a predetermined link on the road map 13 by map matching to determine the final current position.
地図DB24は、ノードテーブルとリンクテーブルを相互に対応づけた、実際の道路網に対応した道路地図13のデータベースである。ノードテーブルは、道路と道路が交差する交差点や道路の所定間隔毎の点、に関係する情報が登録されている。ノードテーブルは、ノード番号、ノードの位置情報(座標)、接続するノード数、接続する各ノードのノード番号、及び、ノードから接続するリンク番号、等の情報を有する。 The map DB 24 is a database of the road map 13 corresponding to the actual road network in which the node table and the link table are associated with each other. In the node table, information related to intersections between roads and points at predetermined intervals of roads is registered. The node table includes information such as a node number, node position information (coordinates), the number of nodes to be connected, a node number of each node to be connected, and a link number to be connected from the node.
リンクテーブルは、ノードとノードを結ぶいわゆる道路に関係する情報が登録されている。リンクテーブルは、リンク番号、開始点ノード番号、終了点ノード番号、開始点緯度、開始点経度、終了点緯度、終了点経度、幅員、車線数、道路種別、交通規則等の情報を有する。したがって、ノード番号とリンク番号をそれぞれ辿ることで現実の道路に対応した道路網が形成される。 In the link table, information related to so-called roads connecting nodes is registered. The link table includes information such as a link number, start point node number, end point node number, start point latitude, start point longitude, end point latitude, end point longitude, width, number of lanes, road type, and traffic rules. Therefore, a road network corresponding to an actual road is formed by tracing the node number and the link number.
この他、地図DB24には、ガソリンスタンド、駐車場、公共施設など施設のポイントデータが緯度・経度に対応づけて記憶されている。また、表示すべき住所や地番のポイントデータが緯度・経度に対応づけて記憶されている。このようなポイントデータは、それらを示す描画情報及び施設名や地名、道路名などの文字情報を有し、道路地図13には描画情報により形成されたアイコン、地名、道路名等が表示される。 In addition, the map DB 24 stores point data of facilities such as gas stations, parking lots, and public facilities in association with latitude and longitude. Further, address data and lot number point data to be displayed are stored in association with latitude and longitude. Such point data has drawing information indicating them and character information such as a facility name, a place name, and a road name, and the road map 13 displays icons, place names, road names, etc. formed by the drawing information. .
なお、地図DB24は、車両の出荷時又はナビゲーションシステム100の出荷時に、ハードディスクドライブなどに記憶された状態であってもよいし、ナビゲーションシステム100が車両に搭載された後に、その一部又は全部を所定のサーバからダウンロードして記憶してもよい。 The map DB 24 may be stored in a hard disk drive or the like when the vehicle is shipped or the navigation system 100 is shipped, or a part or all of the map DB 24 may be stored after the navigation system 100 is mounted on the vehicle. It may be downloaded from a predetermined server and stored.
入力装置26は、ユーザがナビゲーションシステム100を操作する操作情報を入力するユーザインターフェイスであり、例えば、押しボタン式のキーボード、トラックボール、リモコン、表示装置29が備えるタッチパネル、及び、ユーザの発した音声を入力する音声認識装置等を実体とする。 The input device 26 is a user interface for inputting operation information for the user to operate the navigation system 100. For example, a push button type keyboard, a trackball, a remote control, a touch panel included in the display device 29, and a voice uttered by the user. A speech recognition device or the like that inputs
表示装置29は、ピクセル毎にRGB各色の輝度が制御された点の集合で道路地図13を形成する出力装置であり、例えば、センタークラスターに収容された液晶ディスプレイや有機EL等のフラットパネルディスプレイであり、これらとは別にHUD(Head Up Display)を備えていてもよい。 The display device 29 is an output device that forms the road map 13 with a set of points in which the luminance of each RGB color is controlled for each pixel. For example, the display device 29 is a flat panel display such as a liquid crystal display or an organic EL housed in a center cluster. In addition to these, a HUD (Head Up Display) may be provided.
〔カメラ25の画角と撮影範囲の関係〕
続いて、カメラ25の画角と撮影範囲の関係について説明する。カメラ25は、例えばルームミラーの裏側に、光軸を車両前方のやや下向きに向けて固定されている。カメラ25は白線認識や夜間の歩行者の検出に用いられる撮影装置であるが、それぞれに専用のカメラ25を搭載してもよく、フレーム毎にシャッタスピードや制御ゲイン等のカメラパラメータを切り替えて撮影することで両者を兼用してもよい。なお、夜間の撮影時には、ヘッドライトから近赤外線投光器により照明すると共に可視光線カットフィルタを有効にすることで、近赤外光を優先的に自車両の前方に照射する。これにより歩行者の検出が容易になる。
[Relationship between angle of view of camera 25 and shooting range]
Next, the relationship between the angle of view of the camera 25 and the shooting range will be described. The camera 25 is fixed, for example, on the back side of a rearview mirror with the optical axis facing slightly downward in front of the vehicle. The camera 25 is a photographing device used for white line recognition and detection of pedestrians at night, but each camera may be equipped with a dedicated camera 25, and photographing is performed by switching camera parameters such as shutter speed and control gain for each frame. By doing so, you may use both. When photographing at night, the near-infrared light is preferentially applied to the front of the host vehicle by illuminating the headlight with a near-infrared projector and enabling the visible light cut filter. This facilitates detection of pedestrians.
カメラ25の画角は固定であることが多いが(例えば12度)、焦点距離を調整することで画角の調整が可能でもよい。画角が固定の場合は、撮影範囲も固定である。また、画角が可変であっても、画角は焦点距離から算出されるので、カメラ25の画角は常に検出可能である。したがって、ナビゲーションシステム100にとって撮影範囲は既知となる。 Although the angle of view of the camera 25 is often fixed (for example, 12 degrees), the angle of view may be adjustable by adjusting the focal length. When the angle of view is fixed, the shooting range is also fixed. Even if the angle of view is variable, the angle of view is calculated from the focal length, so that the angle of view of the camera 25 can always be detected. Therefore, the shooting range is known to the navigation system 100.
図3(a)は車幅方向の画角と撮影範囲を模式的に説明する図の一例である。焦点距離と撮像素子の広さには、次の関係があることが知られている。
0.5×撮像素子の対角(イメージサークルの半径)= 焦点距離×(tan(θ1/2)
撮像素子の大きさと焦点距離は既知なので、画角θ1が算出できる。
FIG. 3A is an example of a diagram schematically illustrating an angle of view in the vehicle width direction and a shooting range. It is known that the focal length and the width of the image sensor have the following relationship.
0.5 × diagonal (image circle radius) of the image pickup element = focal length × (tan (θ 1/2 )
Since the size and focal length of the image sensor are known, the angle of view θ 1 can be calculated.
図示するように自車両からの距離Lが大きいほど車幅方向の撮影範囲は大きくなる関係から、車幅方向の撮影範囲は、「撮影範囲=L・画角θ1」で示される、カメラ25を中心とした扇形の領域となる。 As shown in the figure, since the shooting range in the vehicle width direction increases as the distance L from the host vehicle increases, the shooting range in the vehicle width direction is indicated by “shooting range = L · view angle θ 1 ”. It becomes a fan-shaped area centered on.
図3(b)は、上下方向の画角θ2と撮影範囲を模式的に説明する図の一例である。撮像素子は、上下方向にも同様に算出される画角θ2を有している。ここでカメラ25の光軸は水平よりやや下向きであり、下方向は路面が撮影されるだけなので、車高と画角θ2を考慮して上下方向の撮影範囲を特定できる。例えば、上下方向の撮影範囲は、「撮影範囲=車高+L・tan(α)」で表示される。但しαは画角θ2のうち水平方向より大きい角度である。以上から、車幅方向と上下方向の撮影範囲を重畳した領域が現実の撮影範囲となる。 FIG. 3B is an example of a diagram schematically illustrating the vertical view angle θ 2 and the imaging range. The image sensor has an angle of view θ 2 that is similarly calculated in the vertical direction. Wherein the optical axis of the camera 25 is slightly downward from the horizontal, the downward because only the road is taken, it can identify the shooting range in the vertical direction in consideration of the height and angle theta 2. For example, the shooting range in the vertical direction is displayed as “shooting range = vehicle height + L · tan (α)”. However, α is an angle larger than the horizontal direction in the angle of view θ 2 . From the above, an area where the imaging range in the vehicle width direction and the vertical direction are superimposed is the actual imaging range.
厳密にはこのように車幅方向と上下方向の撮影範囲を重畳した領域が撮影範囲であるが、上下方向の撮影範囲は路面や光軸の向きにより制限されるので、車幅方向の撮影範囲のみを考慮してもよい。この場合、画像表示オブジェクト12を3Dで表示するのであれば、上下方向の撮影範囲は車高と同程度とする。 Strictly speaking, the area that overlaps the imaging range in the vehicle width direction and the vertical direction in this way is the imaging range, but the imaging range in the vertical direction is limited by the road surface and the direction of the optical axis, so the imaging range in the vehicle width direction You may consider only. In this case, if the image display object 12 is displayed in 3D, the shooting range in the vertical direction is set to be approximately the same as the vehicle height.
〔歩行者の検出〕
撮影された画像11には運転支援の種々の画像処理が施される。例えば、カメラECU28は、白線認識用の画像11から白線を認識し、幅員、中央線、道路の曲率等の白線情報を算出し、例えば車線逸脱防止の制御に提供する。また、カメラECU28は、夜間の歩行者を検出するナイトビュー用の画像11から、歩行者を検出し歩行者を矩形枠で囲むなどの強調処理を画像11に施して表示装置29に出力する。近赤外光が照射された歩行者は高輝度に撮影されるので、カメラECU28は高輝度の密集画素の形状を歩行者の標準的な形状とパターンマッチングする等の手法で歩行者を特定することができる。ナイトビューの画像11は、表示装置29の全面に表示されたり、図1に示したように道路地図13内に表示される。
[Detection of pedestrians]
The captured image 11 is subjected to various image processing for driving assistance. For example, the camera ECU 28 recognizes a white line from the image 11 for white line recognition, calculates white line information such as the width, the center line, and the curvature of the road, and provides the control for preventing lane departure, for example. Further, the camera ECU 28 performs an enhancement process such as detecting a pedestrian and surrounding the pedestrian with a rectangular frame from the night view image 11 for detecting a pedestrian at night, and outputs the image 11 to the display device 29. Since a pedestrian irradiated with near-infrared light is photographed with high brightness, the camera ECU 28 identifies the pedestrian by a method such as pattern matching of the shape of dense pixels with high brightness with the standard shape of the pedestrian. be able to. The night view image 11 is displayed on the entire surface of the display device 29 or in the road map 13 as shown in FIG.
〔道路地図13の描画〕
続いて、道路地図13の描画について説明する。図4は、ナビゲーションシステム100の機能ブロック図の一例を示す。ナビECU27は、プログラムを実行するCPU、プログラム実行の作業領域となりまた一時的にデータを記憶するRAM、データのインターフェイスとなる入出力インターフェイス、ASIC(Application Specific Integrated Circuit)、カメラECU28等と通信するCANインターフェイス、イグニションオフしてもデータを保持する不揮発メモリ、プログラムを記憶するハードディスクやROM等がバスにより接続されたマイコンにより構成される。
[Drawing of road map 13]
Next, the drawing of the road map 13 will be described. FIG. 4 shows an example of a functional block diagram of the navigation system 100. The navigation ECU 27 is a CPU that executes a program, a RAM that serves as a program execution work area and that temporarily stores data, an input / output interface that serves as an interface for data, an ASIC (Application Specific Integrated Circuit), a CAN that communicates with the camera ECU 28, and the like. An interface, a nonvolatile memory that retains data even when the ignition is turned off, a hard disk that stores programs, a ROM, and the like are configured by a microcomputer connected by a bus.
CPUがプログラムを実行するか又は特定のASICにより、図示する撮影範囲特定部31、画像領域決定部32、大きさ調整部33、地図描画部34、オブジェクト生成部35、画像位置決定部36及び画像合成部37が実現される。以下、各機能を詳細に説明する。 An imaging range specifying unit 31, an image area determining unit 32, a size adjusting unit 33, a map drawing unit 34, an object generating unit 35, an image position determining unit 36, and an image shown in FIG. A combining unit 37 is realized. Hereinafter, each function will be described in detail.
まず、道路地図13の生成について説明する。地図描画部34は、現在位置を含む描画範囲(例えば数km四方)の道路地図13を生成する。 First, generation of the road map 13 will be described. The map drawing unit 34 generates a road map 13 in a drawing range (for example, several km square) including the current position.
地図描画部34は、縮尺と表示装置29の画素数に応じて定まる表示領域の道路地図13をいくつかのレイヤに分けて描画する。地図描画部34は、この表示領域に含まれるノードとノードに連結するリンクを地図DB24から読み出し、リンク長、リンク間の接続方向、幅員等に従い道路網を形成し1枚のレイヤに配置する。道路種別、幅員等に応じて各リンクの色は定められており、目的地までの案内ルート(各リンク)には所定の色が配色される。 The map drawing unit 34 draws the road map 13 of the display area determined according to the scale and the number of pixels of the display device 29 in several layers. The map drawing unit 34 reads out the nodes included in this display area and the links connected to the nodes from the map DB 24, forms a road network according to the link length, the connection direction between the links, the width, etc., and arranges them on one layer. The color of each link is determined according to the road type, width, etc., and a predetermined color is arranged on the guide route (each link) to the destination.
また、地図描画部34は、同じ表示領域におけるポイントデータから、公共施設のアイコン、宿泊施設のアイコン、ガソリンスタンドのアイコン、駅や線路のアイコンを、それぞれの位置情報に応じて別のレイヤに配置する。また、地図描画部34は別のレイヤに住所や地番の記号(文字)を配置する。また、所定のレイヤの車両の現在位置に自車両を示す自車両アイコンを配置する。 In addition, the map drawing unit 34 arranges public facility icons, accommodation facility icons, gas station icons, station and railway line icons in different layers from the point data in the same display area according to the respective position information. To do. Further, the map drawing unit 34 arranges an address or a lot number symbol (character) on another layer. Also, a host vehicle icon indicating the host vehicle is arranged at the current position of the vehicle in the predetermined layer.
また、タッチパネルの場合にはメニューボタンを表示するレイヤが用意され、地図描画部34は、予め定められた位置に各種のメニューボタンを形成したレイヤを生成する。また、このレイヤには、東西南北や時刻、等が形成される。 In the case of a touch panel, a layer for displaying menu buttons is prepared, and the map drawing unit 34 generates layers in which various menu buttons are formed at predetermined positions. In this layer, east, west, south, north, and time are formed.
このように、各レイヤを生成すると地図描画部34は、各レイヤを陰影処理して重畳して所定の解像度(例えば、640×480画素)の道路地図13を生成する。道路地図13だけを表示する場合、道路地図13のデータがVRAMに記憶され、表示装置29はVRAMのデータを読み出し所定リフレッシュレート毎に繰り返し表示する。一方、本実施例のように、道路地図13に画像11を合成して表示する場合、画像合成部37が、VRAMに道路地図13と画像11のデータを記憶することで両者を合成する。 As described above, when each layer is generated, the map drawing unit 34 generates a road map 13 having a predetermined resolution (eg, 640 × 480 pixels) by shading and superimposing each layer. When only the road map 13 is displayed, the data of the road map 13 is stored in the VRAM, and the display device 29 reads the data of the VRAM and repeatedly displays it at every predetermined refresh rate. On the other hand, when the image 11 is combined and displayed on the road map 13 as in the present embodiment, the image combining unit 37 combines the road map 13 and the image 11 data by storing them in the VRAM.
なお、例えば、ナビゲーションシステム100は、2D表示と3D表示を任意に又は交差点などの所定の場所で自動的に切り替えることができる。2D表示の場合、道路地図13の向きは北向きを上方に固定したり、進行方向を上向きに一致させるなど、運転者の設定に応じて切り替えられる。3D表示の場合は、生成した道路地図13を斜め上から見下ろした鳥瞰図に座標変換して表示する。3D表示の場合は、建物などの地物も高さや奥行きを有するように表示されるので、ポイントデータに記憶されている建物等の地物のポリゴンデータから3Dのアイコンをモデリングしレイヤに配置する。運転者や3D表示の設定から視点が指示されれば、アイコンの形状や位置から各アイコンをレンダリングして道路地図13のデータを生成できる。 For example, the navigation system 100 can automatically switch between 2D display and 3D display arbitrarily or at a predetermined place such as an intersection. In the case of 2D display, the direction of the road map 13 is switched according to the driver's setting, such as fixing the north direction upward or matching the traveling direction upward. In the case of 3D display, the generated road map 13 is coordinate-converted and displayed in a bird's-eye view looking down from above. In the case of 3D display, since features such as buildings are also displayed so as to have a height and depth, 3D icons are modeled from polygon data of the features such as buildings stored in the point data and arranged in layers. . If the viewpoint is instructed from the driver or 3D display settings, the data of the road map 13 can be generated by rendering each icon from the shape and position of the icon.
〔撮影範囲に応じた画像領域の決定〕
本実施形態のナビゲーションシステム100は、道路地図13に画像表示オブジェクト12を表示するので、画像領域決定部32は、道路地図13において撮影範囲に対応する画像領域を決定する。
[Determination of image area according to shooting range]
Since the navigation system 100 of the present embodiment displays the image display object 12 on the road map 13, the image area determination unit 32 determines an image area corresponding to the shooting range in the road map 13.
図5(a)は、撮影範囲を説明する図の一例である。撮影範囲は、自車両がマップマッピングされたリンクにおける自車両の位置を視点とするはずなので、撮影範囲特定部31は現在位置のリンクとリンク上の位置を特定する。また、撮影範囲特定部31は走行軌跡から車両の向きを特定する。撮影範囲特定部31は、この位置から図3にて説明した撮影範囲を撮影範囲に特定する。必要であれば事前に画角θ1を決定しておく。 FIG. 5A is an example of a diagram illustrating the shooting range. Since the shooting range should be based on the position of the host vehicle in the link on which the host vehicle is mapped, the shooting range specifying unit 31 specifies the link of the current position and the position on the link. In addition, the shooting range specifying unit 31 specifies the direction of the vehicle from the travel locus. The shooting range specifying unit 31 specifies the shooting range described with reference to FIG. 3 as the shooting range from this position. If necessary, the angle of view θ 1 is determined in advance.
画像領域は、この撮影範囲を道路地図13に対応させることで決定できる。撮影範囲、自車位置、車両の向き、がそれぞれ特定されれば、画像領域決定部32は、例えば次のように画像領域を決定する。
・画像領域の前後方向は、例えば、路面が撮影範囲に入る位置から前方100m程度に決定する。路面が撮影範囲に入る位置は、画角θ2、光軸の向き、カメラ25の取り付け高さから決定される。
・車幅方向は幅員程度である。
The image area can be determined by making this shooting range correspond to the road map 13. If the shooting range, the vehicle position, and the vehicle direction are specified, the image region determination unit 32 determines the image region as follows, for example.
The front-rear direction of the image area is determined, for example, to about 100 m ahead from the position where the road surface enters the shooting range. The position where the road surface enters the imaging range is determined from the angle of view θ 2 , the direction of the optical axis, and the mounting height of the camera 25.
-The vehicle width direction is about the width.
高さ方向の撮影範囲は、2D表示では考慮する必要がなく、3D表示では車高程度である。3D表示でも視点が十分に高いと画像領域の高さを無視できるので、高さ方向の撮影範囲を省略してもよい。このような画像領域が画像表示オブジェクト12として道路地図13に表示される。 The shooting range in the height direction need not be considered in 2D display, and is about the vehicle height in 3D display. Even in 3D display, if the viewpoint is sufficiently high, the height of the image area can be ignored, so the shooting range in the height direction may be omitted. Such an image region is displayed on the road map 13 as the image display object 12.
ところで、市街地では道路沿いに建物が並んでいるので、車幅方向の撮影範囲は幅員程度であるが、郊外では道路沿いに建物がなく、車幅方向の撮影範囲を幅員に限定すべきでない場合があるので、より好ましくは次のように撮影範囲を特定してから画像領域を決定する。 By the way, because buildings are lined up along the road in urban areas, the shooting range in the vehicle width direction is about the width, but in the suburbs there are no buildings along the road and the shooting range in the vehicle width direction should not be limited to the width Therefore, more preferably, the image area is determined after the imaging range is specified as follows.
図5(b)は、撮影範囲の特定を説明する図の別の一例を示す。撮影範囲特定部31は道路地図13を参照して自車両の現在位置を中心に、画角θ1の範囲を5〜10度程度の間隔で自車両より高い地物があるか否かをサーチする。一般の家屋の高さは車高よりも高いので、人工的な地物があるか否かを判定すればよい。地物が所定以上の密度で検出された場合(例えば、サーチにより3回連続して道路沿いの地物が検出された場合)、図5(a)のように撮影範囲は車幅程度にする。道路沿いの地物が検出されない場合、又は、地物がまばらな場合、撮影範囲特定部31は図5(b)のように扇状の撮影範囲を特定し、地物がある方向については最も近い地物までを撮影範囲に特定する。なお、市街地と郊外を区分しておき、車両の現在位置に応じて撮影範囲を切り替えてもよい。 FIG. 5B shows another example of a diagram illustrating the specification of the shooting range. The shooting range specifying unit 31 refers to the road map 13 and searches whether there is a feature higher than the own vehicle in the range of the angle of view θ 1 at intervals of about 5 to 10 degrees with the current position of the own vehicle as the center. To do. Since the height of a general house is higher than the vehicle height, it may be determined whether or not there is an artificial feature. When the feature is detected at a density higher than a predetermined density (for example, when a feature along the road is detected three times consecutively by the search), the shooting range is set to about the vehicle width as shown in FIG. . When the feature along the road is not detected or when the feature is sparse, the shooting range specifying unit 31 specifies the fan-shaped shooting range as shown in FIG. Specify the shooting range up to the feature. Note that the urban area and the suburbs may be divided and the shooting range may be switched according to the current position of the vehicle.
画像領域決定部32は、図5(a)の場合と同様に、この撮影範囲を道路地図13に対応させる。このように、撮影範囲を特定することで撮影範囲と画像表示オブジェクト12を一致させやすくなるので、郊外においても目視した光景と画像領域を一致させやすくすることができる。 The image area determination unit 32 associates this shooting range with the road map 13 as in the case of FIG. Thus, by specifying the shooting range, the shooting range and the image display object 12 can be easily matched, so that it is possible to easily match the visually observed scene and the image area even in the suburbs.
〔画像表示オブジェクト12の表示〕
画像領域のサイズは道路地図13の縮尺に応じたものとなるので、大きさ調整部33は、画像領域を道路地図13の縮尺に応じて調整する。すなわち、道路地図13の現在の縮尺と同じ縮尺になるよう縮小・拡大する。
[Display of Image Display Object 12]
Since the size of the image area corresponds to the scale of the road map 13, the size adjustment unit 33 adjusts the image area according to the scale of the road map 13. That is, the road map 13 is reduced / enlarged to the same scale as the current scale.
そして、地図描画部34のオブジェクト生成部35は、画像領域決定部32により決定された道路地図13の画像領域に、大きさ調整部33が調整した大きさで画像表示オブジェクト12を表示する。図6(a)は画像表示オブジェクト12の一例を示す。図6(a)は道路地図13を2D表示したものである。図6(a)では、自車両前方にカメラ25のアイコンを表示することで、そのアイコンが画像表示オブジェクト12であることを運転者に把握させている。なお、画像表示オブジェクト12は、どのレイヤに生成してもよいし新たにレイヤを設けてそこに生成してもよい。いずれにしても、適切な陰影処理により表示の有無を制御できる。 Then, the object generation unit 35 of the map drawing unit 34 displays the image display object 12 in the image region of the road map 13 determined by the image region determination unit 32 with the size adjusted by the size adjustment unit 33. FIG. 6A shows an example of the image display object 12. FIG. 6A shows a 2D display of the road map 13. In FIG. 6A, by displaying the icon of the camera 25 in front of the host vehicle, the driver is made aware that the icon is the image display object 12. The image display object 12 may be generated in any layer, or a new layer may be provided and generated there. In any case, the presence or absence of display can be controlled by appropriate shading processing.
図6(a)に図示する以外にも、画像表示オブジェクト12は、矩形領域に車線を施したもの、道路地図13が透視できるよう所定の透過率が設定されたもの、所定の色で塗りつぶして表示したもの、矩形領域の枠のみを強調したもの等、運転者や乗員が画像表示オブジェクト12であることを把握できるように表示されればよい。なお、画像表示オブジェクト12の態様は予め運転者が選択できるようになっている。 In addition to the illustration shown in FIG. 6A, the image display object 12 includes a rectangular area with a lane, a predetermined transmittance set so that the road map 13 can be seen through, and a predetermined color. What is displayed may be displayed so that the driver or the occupant can grasp that the image display object 12 is displayed, such as what is displayed or only the frame of the rectangular area is emphasized. In addition, the driver | operator can select the aspect of the image display object 12 previously.
また、画像表示オブジェクト12だけでなく、目視された光景を模式的に道路地図13に示してもよい。以下、目視された光景の道路地図13上の領域を目視エリアという。図6(b)は目視エリアと画像表示オブジェクト12が示された道路地図13の一例を示す図である。目視エリアは、運転者の視野に依存するので運転者の視野と完全に一致させることは困難であるが、画角よりも広い場合がほとんどである。また、一般的な人間の視野角は最大で180度程度であるが、走行中はこれより狭くなり、走行中は左右のAピラーの間が目視エリアと考えられる。したがって、運転席から左右のAピラーを結ぶ角度を目視エリアと見積もることができる。この目視エリアを運転席のシートの前後位置で補正すれば更に正確な目視エリアを見積もることができる。 Further, not only the image display object 12 but also a visually viewed scene may be schematically shown on the road map 13. Hereinafter, the region on the road map 13 of the visually observed scene is referred to as a viewing area. FIG. 6B is a diagram showing an example of a road map 13 in which the viewing area and the image display object 12 are shown. Since the viewing area depends on the driver's field of view, it is difficult to make it completely coincide with the driver's field of view, but in many cases it is wider than the angle of view. In addition, the general human viewing angle is about 180 degrees at the maximum, but becomes narrower during traveling, and the area between the left and right A pillars is considered as a viewing area during traveling. Therefore, the angle connecting the left and right A pillars from the driver's seat can be estimated as the viewing area. If this viewing area is corrected at the front and rear positions of the driver's seat, a more accurate viewing area can be estimated.
図示するように、目視エリアよりも画像表示オブジェクト12の方が狭いことから、目視した光景に対し画像11による撮影範囲が狭いことを運転者が視覚的に読み取ることができる。したがって、目視している光景と画像11の関連も容易に把握することができる。 As shown in the drawing, since the image display object 12 is narrower than the viewing area, the driver can visually read that the shooting range by the image 11 is narrower than the viewed scene. Therefore, it is possible to easily grasp the relationship between the scene being viewed and the image 11.
また、ナイトビューでは歩行者を検出するので、撮影範囲に歩行者がいれば画像11で歩行者が強調して表示される。この場合、歩行者までの正確な距離はステレオカメラやレーダを用いないと不明であるが、横方向における歩行者の画像11内における歩行者の位置から既知である。また、画像11内における歩行者の大きさから歩行者までのおよその距離は算出できる。例えば、歩行者の伸長(ピクセル数)に係数を乗じて歩行者までのおよその距離を算出する。このように、歩行者の位置を特定できれば、画像表示オブジェクト12に歩行者のおよその位置をアイコンで表示できる。 Further, since the pedestrian is detected in the night view, if there is a pedestrian in the shooting range, the pedestrian is highlighted and displayed in the image 11. In this case, the exact distance to the pedestrian is unknown unless a stereo camera or radar is used, but is known from the position of the pedestrian in the pedestrian image 11 in the lateral direction. Further, the approximate distance from the size of the pedestrian in the image 11 to the pedestrian can be calculated. For example, the approximate distance to the pedestrian is calculated by multiplying the extension (number of pixels) of the pedestrian by a coefficient. Thus, if the position of the pedestrian can be specified, the approximate position of the pedestrian can be displayed on the image display object 12 with an icon.
図6(c)は、歩行者アイコン14を含む画像表示オブジェクト12の一例を示す図である。歩行者アイコン14の位置から、運転者は歩行者のおよその位置を把握できる。画像表示オブジェクト12と画像11は同じ画面に表示され、画像11内で強調して表示される歩行者アイコン14のおよその位置が画像表示オブジェクト12の中で示されれば、運転者は画像11と道路地図13の対応を把握しやすくなる。 FIG. 6C is a diagram illustrating an example of the image display object 12 including the pedestrian icon 14. From the position of the pedestrian icon 14, the driver can grasp the approximate position of the pedestrian. If the image display object 12 and the image 11 are displayed on the same screen and the approximate position of the pedestrian icon 14 that is highlighted in the image 11 is indicated in the image display object 12, the driver will see the image 11. It becomes easy to grasp the correspondence of the road map 13.
〔画像11の表示〕
カメラ25が撮影した画像11の表示について説明する。表示装置29における画像11の画像表示エリア(図1では表示装置29の右上)は、予め定められていてもよいし、画像表示オブジェクト12から最も近い四隅のいずれかに自動的に決定されてもよい。画像表示エリアの大きさは例えば表示装置29のピクセル数の1/4〜1/8程度に決まっているか、又は、例えばタッチパネルを利用して画像11の枠を運転者がドラッグすることで拡大・縮小できる。
[Display of image 11]
The display of the image 11 taken by the camera 25 will be described. The image display area of the image 11 on the display device 29 (upper right of the display device 29 in FIG. 1) may be determined in advance or may be automatically determined at any of the four corners closest to the image display object 12. Good. The size of the image display area is determined to be, for example, about ¼ to 8 of the number of pixels of the display device 29, or can be enlarged or reduced by dragging the frame of the image 11 using the touch panel, for example. Can be reduced.
例えば、道路地図13を表示装置29の全面に表示した状態で、入力装置26から道路地図13内に画像11を表示する指示が入力されると(例えば、カメラ25のスイッチがオンになると)、予め定められた大きさの画像11の表示リアを、画像位置決定部36は道路地図13内に決定する。この時点で、画像表示オブジェクト12が同時に表示されるか、画像11だけが表示されるかは、ナビゲーションシステム100の設定次第である。 For example, when an instruction to display the image 11 in the road map 13 is input from the input device 26 in a state where the road map 13 is displayed on the entire surface of the display device 29 (for example, when the switch of the camera 25 is turned on). The image position determination unit 36 determines the display rear of the image 11 having a predetermined size in the road map 13. At this time, whether the image display object 12 is displayed at the same time or only the image 11 is displayed depends on the setting of the navigation system 100.
また、画像11はカメラ25が撮影した画像11よりも縮小して表示されるので、画像合成部37は画像11の大きさを画像表示エリアの大きさに応じて縮小する。画像合成部37はカメラ25が撮影した画像11のデータを、例えば、縦方向に画素の2つ毎に画素値を1つ抽出し、横方向に2つ毎に1つ抽出することでサイズを1/4に縮小する。 Further, since the image 11 is displayed in a reduced size than the image 11 taken by the camera 25, the image composition unit 37 reduces the size of the image 11 according to the size of the image display area. The image composition unit 37 extracts the size of the data of the image 11 taken by the camera 25 by, for example, extracting one pixel value for every two pixels in the vertical direction and one for every two pixels in the horizontal direction. Reduce to 1/4.
そして、画像合成部37は、道路地図13と画像11を合成して表示装置29に表示する。画像合成部37は、画像位置決定部36が決定した画像表示エリアに対応する、VRAMのアドレスを道路地図13に優先して確保する。この場合、画像表示エリアには道路地図13は表示されないが、半透明状に道路地図13を表示してもよい。また、画像合成部37は確保したアドレスに、サイズを縮小した画像11のデータを格納する。表示装置29は、走査順に画像11のデータ及び道路地図13のデータ、及び、垂直同期信号や水平同期信号を読み出して道路地図13と画像11を表示する。 Then, the image composition unit 37 composes the road map 13 and the image 11 and displays them on the display device 29. The image composition unit 37 preferentially secures the VRAM address corresponding to the image display area determined by the image position determination unit 36 in preference to the road map 13. In this case, the road map 13 is not displayed in the image display area, but the road map 13 may be displayed in a translucent manner. In addition, the image composition unit 37 stores the data of the image 11 whose size has been reduced at the secured address. The display device 29 displays the road map 13 and the image 11 by reading out the data of the image 11, the data of the road map 13, the vertical synchronization signal and the horizontal synchronization signal in the scanning order.
なお、道路地図13に画像11を表示する態様はいくつか考えられる。例えば、画像表示オブジェクト12のみ表示する、画像11のみ表示する、画像表示オブジェクト12と画像11を同時に表示する等である。本実施例では、ユーザの入力装置26の操作により切り替えることができるようになっている。カメラ25のスイッチを入れることで引出線で結ばれた画像11と画像表示オブジェクト12がいずれも表示された場合、運転者が画像11にタッチすれば画像11のみが消去され、運転者が画像表示オブジェクト12にタッチすれば画像表示オブジェクト12のみが消去される。また、例えば画像11のあった場所をタッチすると、画像11と画像表示オブジェクト12がいずれも表示される。 There are several possible ways of displaying the image 11 on the road map 13. For example, only the image display object 12 is displayed, only the image 11 is displayed, and the image display object 12 and the image 11 are simultaneously displayed. In the present embodiment, switching can be performed by a user's operation of the input device 26. When both the image 11 and the image display object 12 connected by the leader line are displayed by turning on the camera 25, when the driver touches the image 11, only the image 11 is erased and the driver displays the image. If the object 12 is touched, only the image display object 12 is deleted. Further, for example, when a place where the image 11 is present is touched, both the image 11 and the image display object 12 are displayed.
また、例えば、カメラ25のスイッチを入れることで画像11のみが表示された場合、運転者が画像11にタッチすると引出し線で結ばれた画像表示オブジェクト12が一緒に表示される。この場合、画像表示オブジェクト12にタッチすると画像表示オブジェクト12が消去され、画像11にタッチすると画像11が消去される。また、画像表示オブジェクト12だけが表示された状態で画像表示オブジェクト12にタッチすると、吹き出しのように道路地図13内に画像11が表示される。 Further, for example, when only the image 11 is displayed by switching on the camera 25, when the driver touches the image 11, the image display object 12 connected by the lead line is displayed together. In this case, when the image display object 12 is touched, the image display object 12 is deleted, and when the image 11 is touched, the image 11 is deleted. When the image display object 12 is touched with only the image display object 12 displayed, the image 11 is displayed in the road map 13 like a balloon.
なお、本実施例では道路地図13と画像11を同じ表示装置29に表示したが、道路地図と画像11を別の表示装置(例えば、道路地図を液晶ディスプレイで、画像11をHUDで)でそれぞれ表示してもよい。この場合でも、ナビゲーションシステム100が道路地図13には画像表示オブジェクト12を表示することで、運転者は撮影範囲と目視された光景の関係を把握できる。 In this embodiment, the road map 13 and the image 11 are displayed on the same display device 29. However, the road map and the image 11 are displayed on different display devices (for example, the road map is displayed on the liquid crystal display and the image 11 is displayed on the HUD). It may be displayed. Even in this case, the navigation system 100 displays the image display object 12 on the road map 13, so that the driver can grasp the relationship between the shooting range and the sight seen.
街中などで縮尺率最小表示の場合はバードビューなどの画面に、画像表示オブジェクト12を生成せずに、位置関係が合うように画像の拡大縮小変換を行い、直接貼り付けてもよい。 In the case where the scale is displayed at a minimum scale in a city or the like, the image may be scaled and converted directly so that the positional relationship is matched without generating the image display object 12 on a screen such as a bird view.
〔ナビゲーションシステム100の表示手順〕
図7は、本実施例のナビゲーションシステム100が、画像表示オブジェクト12を表示する手順を示すフローチャート図の一例である。図7のフローチャート図は、道路地図13を表示する際繰り返し実行される。
[Display Procedure of Navigation System 100]
FIG. 7 is an example of a flowchart showing a procedure for displaying the image display object 12 by the navigation system 100 of the present embodiment. The flowchart of FIG. 7 is repeatedly executed when the road map 13 is displayed.
まず、画像位置決定部36は、画像11を表示するか否かを判定する(S10)。画像11を表示するのは、例えば、運転者が入力装置26から画像11を表示する操作を入力した場合である。画像11を表示しない場合(S10のNo)、地図描画部34は、縮尺と表示装置29の画素数に応じて、レイヤ毎に道路網、施設のアイコン、住所や地番の記号(文字)、メニューアイコン等を配置すると共に、車両の現在位置に自車両アイコンを配置して道路地図13のデータを生成する(S80)。そして、画像合成部37は道路地図13のみを表示装置29に表示する(S70)。 First, the image position determination unit 36 determines whether or not to display the image 11 (S10). The image 11 is displayed when, for example, the driver inputs an operation for displaying the image 11 from the input device 26. When the image 11 is not displayed (No in S10), the map drawing unit 34 displays a road network, facility icons, address or lot number symbols (characters), menus for each layer according to the scale and the number of pixels of the display device 29. While arranging an icon etc., the own vehicle icon is arrange | positioned at the present position of a vehicle, and the data of the road map 13 are produced | generated (S80). Then, the image composition unit 37 displays only the road map 13 on the display device 29 (S70).
画像11を表示する場合(S10のYes)、撮影範囲特定部31はまず撮影範囲を特定する(S20)。撮影範囲特定部31は、周囲に高い地物があるか否かをサーチして撮影範囲を道路沿いの長方形とするか扇形状とするかを決定する。 When displaying the image 11 (Yes in S10), the shooting range specifying unit 31 first specifies the shooting range (S20). The shooting range specifying unit 31 searches whether there are high features in the surrounding area and determines whether the shooting range is a rectangle or a fan shape along the road.
また、画像領域決定部32は、道路地図13において撮影範囲に対応する画像領域を決定する(S30)。画像領域は長方形又は扇形状である。 Further, the image area determining unit 32 determines an image area corresponding to the shooting range in the road map 13 (S30). The image area is rectangular or fan-shaped.
大きさ調整部33は、道路地図13の縮尺に応じて画像領域のサイズを調整する(S40)。そして、地図描画部34は調整されたサイズの画像表示オブジェクト12を所定のレイヤに生成し道路地図13を生成する(S50)。 The size adjustment unit 33 adjusts the size of the image area according to the scale of the road map 13 (S40). And the map drawing part 34 produces | generates the image display object 12 of the adjusted size to a predetermined layer, and produces | generates the road map 13 (S50).
生成された道路地図13のデータは画像合成部37に送出され、画像合成部37は、縮小表示部が縮小した画像11と道路地図13のデータを合成する(S60)。表示装置29は、道路地図13と画像11を1つの画面で表示する(S70)。 The generated road map 13 data is sent to the image composition unit 37, and the image composition unit 37 synthesizes the image 11 reduced by the reduced display unit and the data of the road map 13 (S60). The display device 29 displays the road map 13 and the image 11 on one screen (S70).
本実施例のナビゲーションシステム100によれば、道路地図13に画像表示オブジェクト12を表示することで、道路地図13内に表示されている画像11が道路地図13上ではどの領域に相当するかを運転者は一目で把握することできる。目視した光景に対し画像11による撮影範囲が狭いことを視覚的に読み取れるので、目視している光景と画像11の関連も容易に把握することができる。 According to the navigation system 100 of the present embodiment, by displaying the image display object 12 on the road map 13, it is possible to determine which region the image 11 displayed in the road map 13 corresponds to on the road map 13. Can grasp at a glance. Since it is possible to visually read that the shooting range of the image 11 is narrow with respect to the viewed scene, the relationship between the viewed scene and the image 11 can be easily grasped.
車載されるカメラ25は画角が比較的狭いため、カメラ25の近くで車両などの物体が撮影されるほど、運転者は目視された光景と画像11との差異を大きく感じる。本実施例では、このような差異を極力低減して画像11を表示するナビゲーションシステム100について説明する。 Since the camera 25 mounted on the vehicle has a relatively narrow angle of view, the driver feels the difference between the viewed scene and the image 11 as the object such as the vehicle is photographed near the camera 25. In the present embodiment, a navigation system 100 that displays such an image 11 while reducing such differences as much as possible will be described.
図8は、本実施例のナビゲーションシステム100による画像11の表示方法を模式的に示す図の一例である。図8(a)は自車両と歩行者の距離が中程度〜遠方の場合を、図8(b)は自車両と歩行者の距離が小さい場合を、図8(c)は撮影範囲に歩行者が含まれない場合を、それぞれ示す。図8(a)に示すように、歩行者が中程度の距離から遠方にかけて存在する場合、画像11に表示される歩行者と、目視される歩行者とはそれほど違和感なく運転者が認識できる。このため、自車両と歩行者の距離が中程度〜遠方の場合、実施例1と同様に表示する。 FIG. 8 is an example of a diagram schematically illustrating a display method of the image 11 by the navigation system 100 according to the present embodiment. 8A shows a case where the distance between the host vehicle and the pedestrian is medium to far, FIG. 8B shows a case where the distance between the host vehicle and the pedestrian is small, and FIG. The case where the person is not included is shown respectively. As shown to Fig.8 (a), when a pedestrian exists from a middle distance to a distant place, a driver | operator can recognize a pedestrian displayed on the image 11 and a pedestrian seen visually without much discomfort. For this reason, when the distance between the host vehicle and the pedestrian is medium to far, the display is the same as in the first embodiment.
一方、図8(b)に示すように自車両と歩行者の距離が小さい場合、目視された歩行者と比較して、画像11の歩行者は頭部や脚部の一部が画角外となり、画面外にはみ出た状態で提示されるため、違和感を感じる原因となる。また、歩行者が目視されてから歩行者が画角に入り画像11でも確認できるようになるまでタイムラグがあるなど、運転者は目視と画像11の関係を把握しにくい。そこで、このような場合、本実施例では画像11に運転者の視線が向かないように画像処理する(以下、かかる画像処理を不喚起処理という)。こうすることで、運転者が目視された光景と画像11の違いに違和感を感じることを防止できる。 On the other hand, when the distance between the host vehicle and the pedestrian is small as shown in FIG. 8B, the pedestrian in the image 11 has a part of the head or leg outside the angle of view as compared to the pedestrian who is visually observed. Since it is presented in a state that protrudes from the screen, it causes discomfort. Further, there is a time lag until the pedestrian enters the angle of view and the image 11 can be confirmed after the pedestrian is visually observed, and the driver is difficult to grasp the relationship between the visual observation and the image 11. Therefore, in such a case, in this embodiment, image processing is performed so that the driver's line of sight does not face the image 11 (hereinafter, this image processing is referred to as non-stimulation processing). By doing so, it is possible to prevent the driver from feeling uncomfortable with the difference between the scene viewed by the driver and the image 11.
また、図8(c)に示すように撮影範囲に歩行者が存在しない場合、画像11にも歩行者が含まれないので、運転者が違和感を感じることはなく実施例1と同様に画像11を表示する。 Further, as shown in FIG. 8C, when there is no pedestrian in the shooting range, the pedestrian is not included in the image 11, so that the driver does not feel discomfort and the image 11 is the same as in the first embodiment. Is displayed.
〔歩行者の位置と不喚起処理の関係〕
図9は、本実施例のナビゲーションシステム100のハードウェア構成図の一例を示す。なお、図9において図2と同一部には同一の符号を付しその説明は省略する。本実施例のナビゲーションシステム100は、ミリ波レーダ19を有する。ミリ波レーダ19は、ミリ波帯のレーダ送受信装置をフロントグリル内に配置したもので、送信波が歩行者に反射して受信されるまでの時間により自車と歩行者の距離を検出する。また、ミリ波レーダ19は、車長方向を中心に左右方向の所定角度範囲(例えば、左右に各15度の範囲)を走査しながらパルス状に送信波を照射するので、歩行者の存在する方向も検出することができる。以下、歩行者までの距離と方向を歩行者の位置情報という。なお、歩行者の位置情報は、ミリ波レーダ19でなくレーザレーダやステレオカメラの視差情報から算出してもよい。
[Relationship between pedestrian position and non-awareness processing]
FIG. 9 shows an example of a hardware configuration diagram of the navigation system 100 of the present embodiment. In FIG. 9, the same parts as those in FIG. The navigation system 100 of this embodiment includes a millimeter wave radar 19. The millimeter wave radar 19 includes a millimeter wave band radar transmission / reception device arranged in the front grille, and detects the distance between the vehicle and the pedestrian based on the time until the transmission wave is reflected and received by the pedestrian. Further, the millimeter wave radar 19 emits a transmission wave in a pulsed manner while scanning a predetermined angle range in the left-right direction centering on the vehicle length direction (for example, a range of 15 degrees to the left and right), so there is a pedestrian The direction can also be detected. Hereinafter, the distance and direction to the pedestrian are referred to as pedestrian position information. The position information of the pedestrian may be calculated from parallax information of a laser radar or a stereo camera instead of the millimeter wave radar 19.
図10は、本実施例におけるナビゲーションシステム100の機能ブロック図の一例を示す。なお、図10において図4と同一部には同一の符号を付しその説明は省略する。本実施例のナビゲーションシステム100は、自車両の前方の状況を判定する前方状況判定部38を有する。前方状況判定部38は、ミリ波レーダ19が検出する歩行者の位置情報と、画像領域決定部32が特定した撮影範囲に基づき、前方の状況を判定する。 FIG. 10 shows an example of a functional block diagram of the navigation system 100 in the present embodiment. 10, the same parts as those in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted. The navigation system 100 according to the present embodiment includes a front situation determination unit 38 that determines the situation ahead of the host vehicle. The forward situation determination unit 38 determines the forward situation based on the position information of the pedestrian detected by the millimeter wave radar 19 and the imaging range specified by the image area determination unit 32.
図11は、撮影範囲とミリ波レーダ19の検知範囲を模式的に示す図の一例である。ミリ波レーダ19の検知範囲は左右に各15度程度であるので、一般には歩行者が撮影範囲に入る前に歩行者との距離を検出できる。なお、図11では距離S以内を近距離とする。
・歩行者Aは近距離で検出され、撮影範囲に含まれるので、運転者に違和感を与えないよう、画像11は不喚起処理される。
・歩行者Bは近距離で検出されるが、撮影範囲に含まれないので、画像11は不喚起処理されない。
・歩行者Cは近距離で検出されないので、撮影範囲に含まれても、画像11は不喚起処理されない。
・歩行者Dは近距離で検出されず撮影範囲にも含まれないので、画像11は不喚起処理されない。
FIG. 11 is an example of a diagram schematically illustrating an imaging range and a detection range of the millimeter wave radar 19. Since the detection range of the millimeter wave radar 19 is about 15 degrees to the left and right, generally, the distance from the pedestrian can be detected before the pedestrian enters the shooting range. In FIG. 11, the short distance is within the distance S.
Since the pedestrian A is detected at a short distance and is included in the shooting range, the image 11 is subjected to non-stimulation processing so as not to give the driver a sense of incongruity.
-Although the pedestrian B is detected at a short distance, since it is not included in the imaging range, the image 11 is not subjected to non-stimulation processing.
-Since the pedestrian C is not detected at a short distance, even if it is included in the shooting range, the image 11 is not subjected to the non-stimulation process.
Since the pedestrian D is not detected at a short distance and is not included in the shooting range, the image 11 is not subjected to a non-stimulation process.
このように前方状況判定部38は、距離S以内の歩行者が撮影範囲に含まれる場合、不喚起処理部39に画像11を不喚起処理するよう要求する。 Thus, when the pedestrian within the distance S is included in the shooting range, the front situation determination unit 38 requests the non-stimulation processing unit 39 to non-stimulate the image 11.
〔不喚起処理〕
不喚起処理について説明する。不喚起処理は、運転者の視線が表示装置29に向きにくくする処理である。例えば、画面のうち画像11の部分の減光、画像11の部分へのメッセージの表示、画像11そのものの表示の停止(道路地図13を全面に表示)、画像11の更なる縮小等である。画像11の一部分を減光する場合、例えば、画像11の画素値の全てを一律小さくする。こうすることで、画像11の色調を留めたまま、表示装置29の一部のみを減光したのと同様の効果が得られる。また、カメラ25が撮影する際にシャッタスピードを速くしたりゲインを小さくするなどして画像11を暗くしてもよい。
[Non-stimulation process]
The non-stimulation process will be described. The non-stimulation process is a process that makes it difficult for the driver's line of sight to face the display device 29. For example, dimming of the image 11 portion of the screen, displaying a message on the image 11 portion, stopping the display of the image 11 itself (displaying the road map 13 on the entire surface), further reducing the image 11, and the like. When dimming a part of the image 11, for example, all the pixel values of the image 11 are uniformly reduced. By doing so, the same effect as that obtained by dimming only a part of the display device 29 while maintaining the color tone of the image 11 can be obtained. Further, when the camera 25 captures an image, the image 11 may be darkened by increasing the shutter speed or decreasing the gain.
また、メッセージを表示する場合、例えば「現在、目視された光景に対し違和感の大きい画像が表示されています。」「見ないでください」「画像を参考にしないでください」等の文字を表示する。また、表示でなく、音声メッセージをスピーカから出力してもよい。 In addition, when displaying a message, for example, a character such as “Currently, an image with a sense of incongruity with the sight that is seen is displayed.” “Please do not look at” or “Please do not refer to the image” is displayed. . Further, instead of displaying, a voice message may be output from a speaker.
不喚起処理部39は、このような予め定められた態様で画像11に不喚起処理を施す。そして、画像合成部37は実施例1と同様に道路地図13に画像11を合成して表示する。 The non-stimulation processing unit 39 performs non-stimulation processing on the image 11 in such a predetermined manner. Then, the image composition unit 37 composes and displays the image 11 on the road map 13 as in the first embodiment.
図12は、本実施例のナビゲーションシステム100が、画像表示オブジェクト12を表示する手順を示すフローチャート図の一例である。図12のフローチャート図は、道路地図13を表示する際繰り返し実行される。 FIG. 12 is an example of a flowchart illustrating a procedure for displaying the image display object 12 by the navigation system 100 according to the present embodiment. The flowchart of FIG. 12 is repeatedly executed when the road map 13 is displayed.
なお、図12おいて図7と同一ステップには同一の符号を付しその説明は簡単に行う。本実施例では、撮影範囲の特定(S20)、画像領域の決定(S30)、道路地図13の縮尺に応じた画像領域のサイズの調整(S40)、道路地図13の生成(S50)までは実施例1と同様である。 In FIG. 12, the same steps as those in FIG. In this embodiment, the process is performed until the photographing range is specified (S20), the image area is determined (S30), the size of the image area is adjusted according to the scale of the road map 13 (S40), and the road map 13 is generated (S50). Similar to Example 1.
ついで、本実施例では、前方状況判定部38が、歩行者までの距離が距離S以内かつ歩行者が撮影範囲に入っているか否かを判定する(S55)。この条件を満たす場合、不喚起処理部39は、画像11の画素に対し例えば減光処理を施す(S56)。 Next, in this embodiment, the front situation determination unit 38 determines whether or not the distance to the pedestrian is within the distance S and the pedestrian is in the shooting range (S55). When this condition is satisfied, the non-emergence processing unit 39 performs, for example, a light reduction process on the pixels of the image 11 (S56).
以降の処理は実施例1と同様であり、画像合成部37は、縮小後、減光処理された画像11と道路地図13を合成する(S60)。表示装置29は、道路地図13と画像11を1つの画面で表示する(S70)。 The subsequent processing is the same as that in the first embodiment, and the image composition unit 37 synthesizes the image 11 and the road map 13 subjected to the light reduction processing after the reduction (S60). The display device 29 displays the road map 13 and the image 11 on one screen (S70).
本実施例によれば、歩行者までの距離を検出して、歩行者との距離が近い場合には画像11に不喚起処理を施すことで、運転者が目視された光景と画像11の違いに違和感を感じることを防止できる。 According to the present embodiment, the distance to the pedestrian is detected, and when the distance to the pedestrian is close, the image 11 is subjected to a non-stimulation process, so that the difference between the scene in which the driver is visually observed and the image 11 is different. You can avoid feeling uncomfortable.
11 画像
12 画像表示オブジェクト
13 道路地図
21 GPS受信機
22 車輪速センサ
23 ジャイロセンサ
24 地図DB
25 カメラ
26 入力装置
27 ナビECU
29 表示装置
100 ナビゲーションシステム
DESCRIPTION OF SYMBOLS 11 Image 12 Image display object 13 Road map 21 GPS receiver 22 Wheel speed sensor 23 Gyro sensor 24 Map DB
25 Camera 26 Input device 27 Navi ECU
29 Display device 100 Navigation system
Claims (12)
前記現在位置と自車両周囲を撮影するカメラの画角に基づき撮影範囲を特定する撮影範囲特定手段と、
前記撮影範囲に対応する道路地図上の領域を決定する画像領域決定手段と、
前記領域を示すオブジェクトを道路地図に生成するオブジェクト生成手段と、
前記オブジェクトを含む道路地図を表示する表示手段と、
を有することを特徴とするナビゲーションシステム。 A navigation system that displays the current position of the vehicle on a road map,
A shooting range specifying means for specifying a shooting range based on the current position and the angle of view of the camera shooting the surroundings of the host vehicle;
Image area determination means for determining an area on a road map corresponding to the shooting range;
Object generating means for generating an object indicating the area on a road map;
Display means for displaying a road map including the object;
A navigation system comprising:
ことを特徴とする請求項1記載のナビゲーションシステム。 The display means displays an image captured by the camera in a road map in association with the object;
The navigation system according to claim 1.
前記障害物までの距離が所定値以下、かつ、前記障害物が前記撮影範囲に含まれているか否かを判定する前方状況判定手段と、
前記障害物までの距離が所定値以下、かつ、前記障害物が前記撮影範囲に含まれていると判定された場合、視認性を低下させる処理を前記画像に施す不喚起処理手段と、
を有することを特徴とする請求項2記載のナビゲーションシステム。 Position detecting means for detecting the position of an obstacle with respect to the host vehicle;
A forward situation determination means for determining whether the distance to the obstacle is a predetermined value or less and whether the obstacle is included in the imaging range;
If the distance to the obstacle is equal to or less than a predetermined value, and it is determined that the obstacle is included in the shooting range, a non-stimulation processing unit that performs processing for reducing visibility on the image,
The navigation system according to claim 2, further comprising:
を有することを特徴とする請求項2記載のナビゲーションシステム。 Image processing means for performing processing for emphasizing the pedestrian in the image when the pedestrian is detected from the image captured by the camera;
The navigation system according to claim 2, further comprising:
ことを特徴とする請求項4記載のナビゲーションシステム。 When a pedestrian is detected from the image, the object generation means generates the object including an icon indicating a pedestrian.
The navigation system according to claim 4, wherein:
ことを特徴とする請求項1〜5いずれか1項記載のナビゲーションシステム。 The object generation means generates the object of a rectangular area in an urban area and generates the fan-shaped object in a suburb.
The navigation system according to any one of claims 1 to 5, wherein:
ことを特徴とする請求項1〜6いずれか1項記載のナビゲーションシステム。 The object generation means generates an icon of a visual area visually recognized from a driver's seat together with the object on a road map.
The navigation system according to any one of claims 1 to 6, wherein:
前記オブジェクト生成手段は、前記表示態様に応じて二次元又は三次元の前記オブジェクトを生成する、
ことを特徴とする請求項1〜7いずれか1項記載のナビゲーションシステム。 When the road map can be displayed by switching to a display mode of either 2D display or 3D display,
The object generation means generates the two-dimensional or three-dimensional object according to the display mode.
The navigation system according to claim 1, wherein:
ことを特徴とする請求項2記載のナビゲーションシステム。 The object is displayed with a leader from the image;
The navigation system according to claim 2.
前記画像への接触が検出されると、前記オブジェクト生成手段は前記オブジェクトを道路地図に生成する、
ことを特徴とする請求項2記載のナビゲーションシステム。 When the display means has a touch panel for detecting the contact position of the driver,
When contact with the image is detected, the object generation means generates the object on a road map,
The navigation system according to claim 2.
前記オブジェクト生成手段は前記オブジェクトを道路地図に生成する、
ことを特徴とする請求項2記載のナビゲーションシステム。 When the camera is turned on,
The object generating means generates the object on a road map;
The navigation system according to claim 2.
前記現在位置と自車両周囲を撮影するカメラの画角に基づき撮影範囲を特定するステップと、
前記撮影範囲に対応する道路地図上の領域を決定するステップと、
前記領域を示すオブジェクトを道路地図に生成するステップと、
前記オブジェクトを含む道路地図を表示するステップと、
を有することを特徴とする道路地図表示方法。 A road map display method for displaying a current position of a host vehicle on a display device,
Identifying a shooting range based on the current position and the angle of view of a camera that shoots around the vehicle; and
Determining an area on a road map corresponding to the shooting range;
Generating an object indicating the region in a road map;
Displaying a road map including the object;
A road map display method characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009029765A JP2010185761A (en) | 2009-02-12 | 2009-02-12 | Navigation system, road map display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009029765A JP2010185761A (en) | 2009-02-12 | 2009-02-12 | Navigation system, road map display method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010185761A true JP2010185761A (en) | 2010-08-26 |
Family
ID=42766505
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009029765A Pending JP2010185761A (en) | 2009-02-12 | 2009-02-12 | Navigation system, road map display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010185761A (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010191637A (en) * | 2009-02-17 | 2010-09-02 | Mazda Motor Corp | Driving support device for vehicle |
| WO2012086053A1 (en) * | 2010-12-24 | 2012-06-28 | パイオニア株式会社 | Image adjustment device, control method, program, and storage medium |
| WO2013046449A1 (en) * | 2011-09-30 | 2013-04-04 | トヨタ自動車株式会社 | Driving assistance system |
| JP2015507386A (en) * | 2011-11-30 | 2015-03-05 | イメージネクスト シーオー エルティディ | 3D vehicle peripheral image generation method and apparatus |
| JP2017010038A (en) * | 2016-08-18 | 2017-01-12 | 見治 西石垣 | Survey type navigation system |
| KR20170005560A (en) * | 2015-07-06 | 2017-01-16 | 엘지이노텍 주식회사 | Apparatus and method for driving information of a car, and program recorded on a recording medium performing the method |
| KR20170006982A (en) * | 2015-07-10 | 2017-01-18 | 엘지이노텍 주식회사 | Camera module, apparatus and method for driving information of a car including the same |
| JP2017085381A (en) * | 2015-10-28 | 2017-05-18 | 京セラ株式会社 | Imaging device, vehicle, and imaging method |
| CN107152935A (en) * | 2017-06-05 | 2017-09-12 | 成都车之联科技服务有限责任公司 | A kind of road live-action navigation system and road live view navigation method |
| CN110968705A (en) * | 2019-12-04 | 2020-04-07 | 敦煌研究院 | Navigation method, navigation device, navigation equipment, navigation system and storage medium |
-
2009
- 2009-02-12 JP JP2009029765A patent/JP2010185761A/en active Pending
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010191637A (en) * | 2009-02-17 | 2010-09-02 | Mazda Motor Corp | Driving support device for vehicle |
| WO2012086053A1 (en) * | 2010-12-24 | 2012-06-28 | パイオニア株式会社 | Image adjustment device, control method, program, and storage medium |
| JPWO2012086053A1 (en) * | 2010-12-24 | 2014-05-22 | パイオニア株式会社 | Image adjustment apparatus, control method, program, and storage medium |
| WO2013046449A1 (en) * | 2011-09-30 | 2013-04-04 | トヨタ自動車株式会社 | Driving assistance system |
| JP2015507386A (en) * | 2011-11-30 | 2015-03-05 | イメージネクスト シーオー エルティディ | 3D vehicle peripheral image generation method and apparatus |
| US9508189B2 (en) | 2011-11-30 | 2016-11-29 | Kss-Imagenext Co., Ltd. | Method and apparatus for creating 3D image of vehicle surroundings |
| KR102536826B1 (en) * | 2015-07-06 | 2023-05-25 | 엘지이노텍 주식회사 | Apparatus and method for driving information of a car, and program recorded on a recording medium performing the method |
| KR20170005560A (en) * | 2015-07-06 | 2017-01-16 | 엘지이노텍 주식회사 | Apparatus and method for driving information of a car, and program recorded on a recording medium performing the method |
| KR102381861B1 (en) * | 2015-07-10 | 2022-04-04 | 엘지이노텍 주식회사 | Camera module, apparatus and method for driving information of a car including the same |
| KR20170006982A (en) * | 2015-07-10 | 2017-01-18 | 엘지이노텍 주식회사 | Camera module, apparatus and method for driving information of a car including the same |
| JP2017085381A (en) * | 2015-10-28 | 2017-05-18 | 京セラ株式会社 | Imaging device, vehicle, and imaging method |
| JP2017010038A (en) * | 2016-08-18 | 2017-01-12 | 見治 西石垣 | Survey type navigation system |
| CN107152935A (en) * | 2017-06-05 | 2017-09-12 | 成都车之联科技服务有限责任公司 | A kind of road live-action navigation system and road live view navigation method |
| CN110968705A (en) * | 2019-12-04 | 2020-04-07 | 敦煌研究院 | Navigation method, navigation device, navigation equipment, navigation system and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11511627B2 (en) | Display device and computer program | |
| EP1961613B1 (en) | Driving support method and driving support device | |
| JP2010185761A (en) | Navigation system, road map display method | |
| US11535155B2 (en) | Superimposed-image display device and computer program | |
| JP4862774B2 (en) | Driving support method and driving support device | |
| US11525694B2 (en) | Superimposed-image display device and computer program | |
| JP6487231B2 (en) | Generating an extended field of view | |
| US11803053B2 (en) | Display control device and non-transitory tangible computer-readable medium therefor | |
| JP2022179574A (en) | Display control device and display control program | |
| CN111273765B (en) | Vehicle display control device, vehicle display control method and storage medium | |
| EP1878618A2 (en) | Driving support method and apparatus | |
| JP6883759B2 (en) | Display systems, display system control methods, programs, and mobiles | |
| JP7088152B2 (en) | Display control device and display control program | |
| JP4784572B2 (en) | Driving support method and driving support device | |
| JP7151073B2 (en) | Display device and computer program | |
| US20190066382A1 (en) | Driving support device, driving support method, information providing device and information providing method | |
| JP2021036226A (en) | Display control device and display control program | |
| JP2009211624A (en) | Driving support device, driving support method, and computer program | |
| JP2021006805A (en) | Display control device and display control program | |
| JP2007257286A (en) | Vehicle display system | |
| JP6627214B2 (en) | Information display device, control method, program, and storage medium | |
| JP6186905B2 (en) | In-vehicle display device and program | |
| JP2007198962A (en) | Vehicle guidance display device | |
| JPWO2017013792A1 (en) | Display control device and navigation device | |
| JP6984341B2 (en) | Superimposed image display device and computer program |