[go: up one dir, main page]

JP2004260694A - Vehicle surrounding image processing system - Google Patents

Vehicle surrounding image processing system Download PDF

Info

Publication number
JP2004260694A
JP2004260694A JP2003051013A JP2003051013A JP2004260694A JP 2004260694 A JP2004260694 A JP 2004260694A JP 2003051013 A JP2003051013 A JP 2003051013A JP 2003051013 A JP2003051013 A JP 2003051013A JP 2004260694 A JP2004260694 A JP 2004260694A
Authority
JP
Japan
Prior art keywords
bird
eye view
view image
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003051013A
Other languages
Japanese (ja)
Other versions
JP3961969B2 (en
Inventor
Tatsuya Ueki
竜也 植木
Katsuyuki Imanishi
勝之 今西
Hirohiko Yanagawa
博彦 柳川
Kunio Kato
加藤  久仁夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2003051013A priority Critical patent/JP3961969B2/en
Publication of JP2004260694A publication Critical patent/JP2004260694A/en
Application granted granted Critical
Publication of JP3961969B2 publication Critical patent/JP3961969B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately support drive of a user by providing the user with appropriate information. <P>SOLUTION: This vehicle surroundings image processing system 1 displays a synthetic birds-eye image on an on-vehicle monitor 5 by coloring the past birds-eye image in the synthetic birds-eye image generated by synthesizing the past birds-eye image with the present birds-eye image. The user is made to appropriately recognize the present status, attention to a region of the past birds-eye image is appropriately urged and the drive of the user is appropriately supported by clarifying a boundary between the past birds-eye image and the present birds-eye image. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するように構成された車両周辺画像処理システムに関する。
【0002】
【従来の技術】
従来より、車両の後部に設置されている後方カメラにより車両後方の状況を撮影し、撮影された画像を座標変換して鳥瞰図(上空から見た平面図)画像を生成し、生成された鳥瞰図画像を車両図形と共に車載モニタに表示するものが供されている(例えば特許文献1参照)。
【0003】
【特許文献1】
特開平10−211849号公報
【0004】
【発明が解決しようとする課題】
ところで、上記した特許文献1に記載したものでは、車両後方の状況を鳥瞰図画像として表示することができるので、車両と例えば駐車スペース(駐車枠)との位置関係をユーザに容易に認識させることができるものの、現在の後方カメラの撮影視野外の領域までをも車載モニタに表示することはできない。そこで、出願人は、現在の後方カメラの撮影視野外の領域までをも車載モニタに表示可能とするために、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するものを特願2001−394419号として出願した。
【0005】
特願2001−394419号のものでは、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するので、現在の後方カメラの撮影視野外の領域を過去に後方カメラが撮影していれば、過去に後方カメラにより撮影された領域を合成して表示するので、現在の後方カメラの撮影視野外の領域までをも車載モニタに表示することができる。
【0006】
しかしながら、特願2001−394419号に記載されているものでは、過去の鳥瞰図画像と現在の鳥瞰図画像とを区別して表示する構成ではないので、過去の鳥瞰図画像と現在の鳥瞰図画像とが混同してしまい、現在の状況をユーザに認識させることができないという問題がある。また、過去の鳥瞰図画像での時間経過の段階的な変化をユーザに認識させることができないという問題もある。また、現在の後方カメラの撮影視野外の領域をユーザに認識させることができるものの、過去の後方カメラの撮影視野外の領域までをもユーザに認識させることができないという問題もある。さらに、車両から障害物までの距離をユーザに認識させることができないという問題もある。
【0007】
本発明は、上記した事情に鑑みてなされたものであり、その目的は、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するものにおいて、適切な情報をユーザに提供することにより、ユーザの運転を適切に支援することができる車両周辺画像処理システムを提供することにある。
【0008】
【課題を解決するための手段】
請求項1に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0009】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像内の過去の鳥瞰図画像に所定の色を付けて合成鳥瞰図画像を表示手段に表示させる。これにより、過去の鳥瞰図画像と現在の鳥瞰図画像との境界を明確にすることにより、現在の状況を適切にユーザに認識させることができると共に、過去の鳥瞰図画像が表示されている領域に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0010】
請求項2に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0011】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像内の過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けて合成鳥瞰図画像を表示手段に表示させる。これにより、過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けることにより、過去の鳥瞰図画像での時間経過の段階的な変化をユーザに適切に認識させることができ、ユーザの運転を適切に支援することができる。
【0012】
請求項3に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0013】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、表示手段の表示領域にあって撮影手段の撮影視野外の領域に所定の色を付けて合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像を表示手段に表示させる。これにより、過去の後方カメラの撮影視野外の領域を明確にすることにより、過去の後方カメラの撮影視野外の領域までをもユーザに適切に認識させることができ、過去の後方カメラの撮影視野外の領域に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0014】
請求項4に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0015】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像に車両からの距離を示す目印を描画して合成鳥瞰図画像を表示手段に表示させる。これにより、車両からの距離を示す目印を描画することにより、車両から障害物までの距離をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0016】
請求項5に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0017】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像に車両図形の外形に沿うように枠を描画して合成鳥瞰図画像を表示手段に表示させる。これにより、車両図形の外形に沿うように枠を描画することにより、車両の位置をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0018】
【発明の実施の形態】
(第1実施例)
以下、本発明の第1実施例について、図1ないし図4を参照して説明する。尚、この第1実施例は、本発明でいう請求項1ないし請求項3に対応する。まず、図2は、車両周辺画像処理システムの構成を概略的に示している。車両周辺画像処理システム1は、車両2の後方の状況を撮影する後方カメラ3(本発明でいう撮影手段)と、車室4内の例えばダッシュボード上に配置された車載モニタ5(本発明でいう表示手段)と、画像処理を行う画像処理ユニット6とを備えて構成されている。
【0019】
図1は、車両周辺画像処理システム1の機能ブロック図を示している。車両周辺画像処理システム1は、機能ブロックとして、システム全体の動作を制御するCPU7(本発明でいう車両移動状態検出手段、鳥瞰図画像移動手段、合成鳥瞰図画像生成手段、表示制御手段)と、後方カメラ3と、鳥瞰図画像生成回路8(本発明でいう鳥瞰図画像生成手段)と、第1の画像メモリ9(本発明でいう鳥瞰図画像記憶手段)と、第2の画像メモリ10と、表示用画像メモリ11と、車載モニタ5と、ハンドル角信号入力回路12と、車速信号入力回路13と、ヨーレイト信号入力回路14と、超音波センサ信号入力回路15と、シフトポジション信号入力回路16とを備えて構成されている。
【0020】
鳥瞰図画像生成回路8は、後方カメラ3から画像が入力されると、入力された画像を座標変換して鳥瞰図画像を生成し、生成された鳥瞰図画像を第1の画像メモリ9に出力する。第1の画像メモリ9は、鳥瞰図画像生成回路8から鳥瞰図画像が入力されると、入力された鳥瞰図画像を現在の鳥瞰図画像として一時的に記憶する。
【0021】
第2の画像メモリ10は、第1の画像メモリ9から鳥瞰図画像が転送されると、転送された鳥瞰図画像を過去の鳥瞰図画像として記憶する。表示用画像メモリ11は、第1の画像メモリ9に記憶されている現在の鳥瞰図画像と第2の画像メモリ10に記憶されている過去の鳥瞰図画像とが合成された合成鳥瞰図画像を表示用画像として記憶する。車載モニタ5は、表示用画像メモリ11に表示用画像として記憶されている合成鳥瞰図画像を表示する。
【0022】
ハンドル角信号入力回路12は、ユーザのハンドル操作に関するデータをCPU7に入力させる。車速信号入力回路13は、車速に関するデータをCPU7に入力させる。ヨーレイト信号入力回路14は、車両2の旋回状況に関するデータをCPU7に入力させる。超音波センサ信号入力回路15は、車両2の周辺に存在する障害物の有無を検出し、障害物の有無に関するデータや障害物と車両2との間の距離などに関するデータをCPU7に入力させる。シフトポジション信号入力回路16は、ユーザのシフトレバー操作に関するデータをCPU7に入力させる。
【0023】
尚、上記した構成では、CPU7、鳥瞰図画像生成回路8、第1の画像メモリ9、第2の画像メモリ10、表示用画像メモリ11、ハンドル角信号入力回路12、車速信号入力回路13、ヨーレイト信号入力回路14、超音波センサ信号入力回路15およびシフトポジション信号入力回路16は、それらの全体または一部を一体化して1つのLSIで構成することも可能である。また、鳥瞰図画像を生成する専用の画像処理回路として鳥瞰図画像生成回路8を備える代わりに、CPU7がソフトウェア的に鳥瞰図画像を生成することも可能である。また、車載モニタ5は、ナビゲーション装置のディスプレイで兼用することも可能である。
【0024】
ここで、鳥瞰図画像生成回路8が鳥瞰図画像を生成する手順について簡単に説明する。尚、前提条件として、後方カメラ3は、オートフォーカス機能を有すると共に、その取付け高さや取付け角度が予め設定されているものとする。また、地面は、平面であることを計算上の前提条件としている。ここでは、後方カメラ3により撮影された画像を画素単位に分解し、車両2の後端を基準線として各画素までの距離および幅方向位置を算出し、各画素の鳥瞰変換後の位置座標を算出する。そして、算出された位置座標に基づいて各画素を再配置する。これにより、後方カメラ3により撮影された画像から鳥瞰図画像を生成することができる。
【0025】
尚、このようにして鳥瞰変換を行うことにより、鳥瞰図画像では、画素と画素との間に隙間が生じたり、画素と画素とが重なったりする場合が想定されるが、車両2を車庫入れするときなどでは、車載モニタ5に表示される画像が多少間引きされた様な画像であったとして、後方カメラ3により撮影された元々の画像(生の画像)が表示されるよりも、操作性が良いものである。
【0026】
次に、上記した構成の作用について、図3および図4を参照して説明する。 CPU7は、第1の画像メモリ9、第2の画像メモリ10および表示用画像メモリ11を初期化すると共に、各種のパラメータを初期化する(ステップS1)。次いで、CPU7は、後方カメラ3により撮影された画像が鳥瞰図画像生成回路8で座標変換されて鳥瞰図画像が生成され、鳥瞰図画像が第1の画像メモリ9に記憶された旨を検出すると(ステップS2)、鳥瞰図画像が第2の画像メモリ10に記憶されているか否かを判定する(ステップS3)。
【0027】
ここで、CPU7は、鳥瞰図画像が第2の画像メモリ10に記憶されている旨を検出すると(ステップS3にて「YES」)、ハンドル角信号入力回路12から入力されているデータ、車速信号入力回路13から入力されているデータ、ヨーレイト信号入力回路14から入力されているデータおよび超音波センサ信号入力回路15から入力されているデータに基づいて車両2が移動しているか否かを判定する(ステップS4)。
【0028】
そして、CPU7は、車両2が移動している旨を検出すると(ステップS4にて「YES」)、第2の画像メモリ10から過去の鳥瞰図画像として記憶されている鳥瞰図画像を読出し(ステップS5)、読出された鳥瞰図画像を車両2の移動状態に基づいて回転移動または平行移動させる画像処理を行う(ステップS6)。このとき、CPU7は、車両2がカーブして移動していれば、第2の画像メモリ10に記憶されている鳥瞰図画像を回転移動させる画像処理を行うことになり、車両2が直進して移動していれば、第2の画像メモリ10に記憶されている鳥瞰図画像を平行移動させる画像処理を行うことになる。
【0029】
次いで、CPU7は、第1の画像メモリ9から現在の鳥瞰図画像として記憶されている鳥瞰図画像を読出し(ステップS7)、第2の画像メモリ10から読出されて画像処理が行われた過去の鳥瞰図画像と、第1の画像メモリ9から読出された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する(ステップS8)。
【0030】
さて、ここで、CPU7は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像内の最新の過去の鳥瞰図画像に色を付ける(ステップS9)。具体的に説明すると、CPU7は、最新の過去の鳥瞰図画像に例えばR値を一定量増加させてRGBカラーフィルタをかけることにより、最新の過去の鳥瞰図画像に赤みがかった色を付ける。このとき、最新の過去の鳥瞰図画像に付ける色は、ユーザの注意を引付けるような色であることが望ましい。
【0031】
次いで、CPU7は、車載モニタ5の表示領域にあって後方カメラ3の撮影視野外の領域が存在するか否かを判定し(ステップS10)、車載モニタ5の表示領域にあって後方カメラ3の撮影視野外の領域が存在する旨を検出すると(ステップS10にて「YES」)、後方カメラ3の撮影視野外の領域に色を付ける(ステップS11)。具体的に説明すると、CPU7は、後方カメラ3の撮影視野外の領域に例えばB値を一定量増加させてRGBカラーフィルタをかけることにより、後方カメラ3の撮影視野外の領域に青みがかった色を付ける。このとき、後方カメラ3の撮影視野外の領域に付ける色も、ユーザの注意を引付けるような色であることが望ましい。
【0032】
そして、CPU7は、このようにして最新の過去の鳥瞰図画像や後方カメラ3の撮影視野外の領域に色が付けられた合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させ(ステップS12)、その合成鳥瞰図画像を第2の画像メモリ10に過去の鳥瞰図画像として記憶させ(ステップS13)、上記したステップS2に戻り、ステップS2以降の処理を繰返して行う。
【0033】
以上に説明した一連の処理により、CPU7は、図4に示すように、現在の鳥瞰図画像を車両図形17の後方の表示領域(図4では「P」にて示す領域)に表示させ、赤みがかった色が付けられた過去の鳥瞰図画像を車両図形17の側方の表示領域(図4では「Q1」,「Q2」にて示す領域)に表示させ、青みがかった色が付けられた後方カメラ3の撮影視野外の領域を所定の表示領域(図4では「R1」,「R2」にて示す領域)に表示させる。
【0034】
また、この場合、CPU7は、最新の過去の鳥瞰図画像に所定の色を付けるので、上記した一連の処理を繰返して行うことにより、過去の鳥瞰図画像を濃淡による時間経過の段階的な変化を付けて表示させることにもなる。つまり、CPU7は、過去の鳥瞰図画像内の時間経過が相対的に大きい領域については色を濃くして表示させ、過去の鳥瞰図画像内の時間経過が相対的に小さい領域については色を薄くして表示させる(図4では、色が濃い領域をハッチングを密にして示しており、色が薄い領域をハッチングを粗にして示している)。
【0035】
尚、CPU7は、鳥瞰図画像が第2の画像メモリ10に記憶されていない旨を検出すると(ステップS3にて「NO」)、第1の画像メモリ9に現在の鳥瞰図画像として記憶されている鳥瞰図画像を第2の画像メモリ10に転送させ(ステップS14)、上記したステップS2に戻り、ステップS2以降の処理を繰返して行う。
【0036】
また、CPU7は、車両2が移動していない旨を検出すると(ステップS4にて「NO」)、第2の画像メモリ10から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ9から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成することなく、第1の画像メモリ9に現在の鳥瞰図画像として記憶されている鳥瞰図画像をそのまま車両図形17の後方の表示領域に表示させ(ステップS15)、上記したステップS2に戻り、ステップS2以降の処理を繰返して行う。
【0037】
また、CPU7は、車載モニタ5の表示領域にあって後方カメラ3の撮影視野外の領域が存在していない旨を検出すると(ステップS10にて「NO」)、後方カメラ3の撮影視野外の領域に色を付けることなく、最新の過去の鳥瞰図画像のみに色が付けられた合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させ(ステップS12)、その合成鳥瞰図画像を第2の画像メモリ10に過去の鳥瞰図画像として記憶させる(ステップS13)。
【0038】
ところで、以上は、過去の鳥瞰図画像に色を付ける場合に、濃淡による時間経過の段階的な変化を付ける場合を説明したが、階調やモザイクなどによる時間経過の段階的な変化を付けても良い。また、これら過去の鳥瞰図画像に色を付ける処理および後方カメラ3の撮影視野外の領域に色を付ける処理のうちいずれかを選択的に行うようにしても良い。
【0039】
以上に説明したように第1実施例によれば、車両周辺画像処理システム1において、過去の鳥瞰図画像と現在の鳥瞰図画像とが合成されて生成された合成鳥瞰図画像内の過去の鳥瞰図画像に色を付けて合成鳥瞰図画像を表示するように構成したので、過去の鳥瞰図画像と現在の鳥瞰図画像との境界を明確にすることにより、現在の状況を適切にユーザに認識させることができると共に、過去の鳥瞰図画像が表示されている領域に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0040】
また、合成鳥瞰図画像内の過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けて合成鳥瞰図画像を表示するように構成したので、過去の鳥瞰図画像の領域での時間経過をユーザに適切に認識させることができ、ユーザの運転を適切に支援することができる。
【0041】
さらに、車載モニタ5の表示領域にあって後方カメラ5の撮影視野外の領域に色を付けて合成鳥瞰図画像を表示するように構成したので、後方カメラ5の撮影視野外の領域を明確にすることにより、過去の後方カメラ5の撮影視野外の領域をユーザに適切に認識させることができ、過去の後方カメラ5の撮影視野外の領域に対する注意を適切に促すことでき、ユーザの運転を適切に支援することができる。
【0042】
(第2実施例)
次に、本発明の第2実施例について、図5ないし図8を参照して説明する。尚、この第2実施例は、本発明でいう請求項4に対応する。ここでは、上記した第1実施例と同一部分については説明を省略し、異なる部分について説明する。
【0043】
この第2実施例では、CPU7は、第2の画像メモリ10から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ9から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成した後に(ステップS8)、生成された合成鳥瞰図画像に車両2からの距離を示す目印を描画する(ステップS21)。そして、CPU7は、このようにして車両2からの距離を示す目印が描画された合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させる(ステップS22)。
【0044】
以上に説明した一連の処理により、CPU7は、例えば車両2の後端を基準とする場合であれば、図6に示すように、車両図形17の後端を基準として車両2からの距離を示す目印(図6では「A1」〜「A4」にて示す線)を描画させ、また、例えば車両2の外形を基準とする場合であれば、図7に示すように、車両図形17の外形を基準として車両2からの距離を示す目印(図7では「B1」〜「B4」にて示す線)を描画させ、さらに、例えば車両2の所定部位に設定されているソナーの設置位置を基準とする場合であれば、図8に示すように、ソナーの設置位置(図8では左右の後端)を基準として車両2からの距離を示す目印(図8では「C1」,「C2」,「D1」,「D2」にて示す円)を描画させ、これら車両2からの距離を示す目印が描画された合成鳥瞰図画像を表示させる。
【0045】
以上に説明したように第2実施例によれば、車両周辺画像処理システム1において、過去の鳥瞰図画像と現在の鳥瞰図画像とが合成されて生成された合成鳥瞰図画像に車両2からの距離を示す目印を描画して合成鳥瞰図画像を表示するように構成したので、車両2からの距離を示す目印を描画することにより、車両2から障害物までの距離をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0046】
(第3実施例)
次に、本発明の第3実施例について、図9および図10を参照して説明する。尚、この第3実施例は、本発明でいう請求項5に対応する。ここでも、上記した第1実施例と同一部分については説明を省略し、異なる部分について説明する。
【0047】
この第3実施例では、CPU7は、第2の画像メモリ10から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ9から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成した後に(ステップS8)、生成された合成鳥瞰図画像に車両図形17の外形に沿うように枠を描画する(ステップS31)。そして、CPU7は、このようにして車両図形17の外形に沿うように枠が描画された合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させる(ステップS32)。
【0048】
以上に説明した一連の処理により、CPU7は、図10に示すように、車両図形17の外形に沿うように枠(図10では「E」にて示す)を描画させ、車両図形17の外形に沿うように枠が描画された合成鳥瞰図画像を表示させる。
【0049】
以上に説明したように第3実施例によれば、車両周辺画像処理システム1において、過去の鳥瞰図画像と現在の鳥瞰図画像とが合成されて生成された合成鳥瞰図画像に車両図形17の外形に沿うように枠を描画して合成鳥瞰図画像を表示するように構成したので、車両図形17の外形に沿うように枠を描画することにより、車両2の位置をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0050】
(その他の実施例)
本発明は、上記した実施例にのみ限定されるものではなく、以下のように変形または拡張することができる。
第1実施例、第2実施例および第3実施例のうち幾つかを組合わせた構成であっても良い。
第2実施例において、ユーザが描画モードを選択することにより、車両図形17の後端を基準として車両2からの距離を示す目印を描画する処理、車両図形17の外形を基準として車両2からの距離を示す目印を描画する処理、ソナーの設置位置を基準として車両2からの距離を示す目印を描画する処理を選択可能な構成であっても良い。
【図面の簡単な説明】
【図1】本発明の第1実施例を示す機能ブロック図
【図2】システムの全体構成を概略的に示す図
【図3】フローチャート
【図4】車載モニタの表示画面の一例を示す図
【図5】本発明の第2実施例を示すフローチャート
【図6】図4相当図
【図7】図4相当図
【図8】図4相当図
【図9】本発明の第3実施例を示すフローチャート
【図10】図4相当図
【符号の説明】
図面中、1は車両周辺画像処理システム、2は車両、3は後方カメラ(撮影手段)、5は車載モニタ(表示手段)、7はCPU(車両移動状態検出手段、鳥瞰図画像移動手段、合成鳥瞰図画像生成手段、表示制御手段)、8は鳥瞰図画像生成回路(鳥瞰図画像生成手段)、9は第1の画像メモリ(鳥瞰図画像記憶手段)である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle peripheral image processing system configured to combine a past bird's-eye view image and a current bird's-eye view image to generate and display a combined bird's-eye view image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a situation behind a vehicle is photographed by a rear camera installed at a rear part of the vehicle, a coordinate of the photographed image is converted to generate a bird's-eye view (a plan view viewed from above), and the generated bird's-eye view image is generated. Is displayed on an in-vehicle monitor together with a vehicle figure (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-10-211849
[Problems to be solved by the invention]
By the way, according to the technology described in Patent Document 1 described above, the situation behind the vehicle can be displayed as a bird's-eye view image, so that the user can easily recognize the positional relationship between the vehicle and, for example, a parking space (parking frame). Although it is possible, it is not possible to display even the area outside the field of view of the current rear camera on the vehicle-mounted monitor. Therefore, the applicant combines the past bird's-eye view image and the current bird's-eye view image to generate a composite bird's-eye view image so that the area outside the field of view of the current rear camera can be displayed on the vehicle-mounted monitor. The application to be indicated was filed as Japanese Patent Application No. 2001-394419.
[0005]
According to Japanese Patent Application No. 2001-394419, a past bird's-eye view image and a current bird's-eye view image are combined to generate and display a combined bird's-eye view image. If the camera is shooting, an area captured by the rear camera in the past is synthesized and displayed, so that even an area outside the field of view of the current rear camera can be displayed on the vehicle-mounted monitor.
[0006]
However, in the configuration described in Japanese Patent Application No. 2001-394419, since the past bird's-eye view image and the current bird's-eye view image are not separately displayed, the past bird's-eye view image and the current bird's-eye view image are confused. As a result, there is a problem that the user cannot recognize the current situation. In addition, there is a problem in that the user cannot recognize a stepwise change in the passage of time in a past bird's-eye view image. In addition, there is a problem in that the user can recognize an area outside the field of view of the current rear camera, but cannot recognize a region outside the field of view of the past rear camera. Further, there is a problem that the user cannot recognize the distance from the vehicle to the obstacle.
[0007]
The present invention has been made in view of the above circumstances, and an object of the present invention is to combine a past bird's-eye view image and a current bird's-eye view image to generate and display a combined bird's-eye view image. An object of the present invention is to provide a vehicle peripheral image processing system that can appropriately assist a user's driving by providing the system to a user.
[0008]
[Means for Solving the Problems]
According to the vehicle periphery image processing system described in claim 1, when the photographing means photographs the periphery of the vehicle, the bird's-eye view image generating means generates a bird's-eye view image by performing coordinate transformation on the image photographed by the photographing means. The storage unit stores the bird's-eye view image generated by the bird's-eye view image generation unit. When the vehicle moving state detecting means detects the moving state of the vehicle, the bird's-eye view image moving means detects the past bird's-eye view stored in the bird's-eye view image storing means based on the moving state of the vehicle detected by the vehicle moving state detecting means. The image is rotated or translated, and the combined bird's-eye view image generating means is coordinate-transformed by the bird's-eye view image generating means into a past bird's-eye view image rotated or translated by the bird's-eye view image moving means and an image taken by the photographing means. And a current bird's-eye view image generated as described above to generate a composite bird's-eye view image.
[0009]
Then, when the composite bird's-eye view image is generated in this way, the display control means adds a predetermined color to the past bird's-eye view image in the generated composite bird's-eye view image and causes the display means to display the composite bird's-eye view image. Thus, by clarifying the boundary between the past bird's-eye view image and the current bird's-eye view image, the current situation can be appropriately recognized by the user, and attention should be paid to the area where the past bird's-eye view image is displayed. It is possible to prompt the user appropriately and to appropriately support the driving of the user.
[0010]
According to the vehicle peripheral image processing system described in claim 2, when the photographing means photographs the periphery of the vehicle, the bird's-eye view image generating means performs coordinate transformation on the image photographed by the photographing means to generate a bird's-eye view image, and The storage unit stores the bird's-eye view image generated by the bird's-eye view image generation unit. When the vehicle moving state detecting means detects the moving state of the vehicle, the bird's-eye view image moving means detects the past bird's-eye view stored in the bird's-eye view image storing means based on the moving state of the vehicle detected by the vehicle moving state detecting means. The image is rotated or translated, and the combined bird's-eye view image generating means is coordinate-transformed by the bird's-eye view image generating means into a past bird's-eye view image rotated or translated by the bird's-eye view image moving means and an image taken by the photographing means. And a current bird's-eye view image generated as described above to generate a composite bird's-eye view image.
[0011]
Then, when the composite bird's-eye view image is generated in this way, the display control means attaches a stepwise change in the time lapse due to shading, gradation, mosaic, etc. to the past bird's-eye view image in the generated composite bird's-eye view image. To display the composite bird's-eye view image on the display means. This allows the user to appropriately recognize the gradual change in the time lapse in the past bird's-eye view image by adding the gradual change in the time lapse in the past bird's-eye view image by shading, gradation, mosaic, or the like. It is possible to appropriately support the driving of the user.
[0012]
According to the vehicle periphery image processing system described in claim 3, when the photographing means photographs the periphery of the vehicle, the bird's-eye view image generating means performs coordinate transformation of the image photographed by the photographing means to generate a bird's-eye view image, and The storage unit stores the bird's-eye view image generated by the bird's-eye view image generation unit. When the vehicle moving state detecting means detects the moving state of the vehicle, the bird's-eye view image moving means detects the past bird's-eye view stored in the bird's-eye view image storing means based on the moving state of the vehicle detected by the vehicle moving state detecting means. The image is rotated or translated, and the combined bird's-eye view image generating means is coordinate-transformed by the bird's-eye view image generating means into a past bird's-eye view image rotated or translated by the bird's-eye view image moving means and an image taken by the photographing means. And a current bird's-eye view image generated as described above to generate a composite bird's-eye view image.
[0013]
When the synthetic bird's-eye view image is generated in this way, the display control means applies a predetermined color to an area outside the field of view of the photographing means in the display area of the display means and generates the composite bird's-eye view image by the synthetic bird's-eye view image generating means The displayed composite bird's-eye view image is displayed on the display means. This makes it possible for the user to appropriately recognize an area outside the field of view of the past rear camera by clarifying the area outside the field of view of the past rear camera. Attention can be appropriately given to the outside area, and the driving of the user can be appropriately supported.
[0014]
According to the vehicle peripheral image processing system described in claim 4, when the photographing means photographs the periphery of the vehicle, the bird's-eye view image generating means performs coordinate transformation on the image photographed by the photographing means to generate a bird's-eye view image, The storage unit stores the bird's-eye view image generated by the bird's-eye view image generation unit. When the vehicle moving state detecting means detects the moving state of the vehicle, the bird's-eye view image moving means detects the past bird's-eye view stored in the bird's-eye view image storing means based on the moving state of the vehicle detected by the vehicle moving state detecting means. The image is rotated or translated, and the combined bird's-eye view image generating means is coordinate-transformed by the bird's-eye view image generating means into a past bird's-eye view image rotated or translated by the bird's-eye view image moving means and an image taken by the photographing means. And a current bird's-eye view image generated as described above to generate a composite bird's-eye view image.
[0015]
When the combined bird's-eye view image is generated in this way, the display control means draws a mark indicating the distance from the vehicle on the generated combined bird's-eye view image and causes the display means to display the combined bird's-eye view image. Accordingly, by drawing the mark indicating the distance from the vehicle, the user can appropriately recognize the distance from the vehicle to the obstacle, and can appropriately prompt the user to pay attention to the obstacle. Can be properly supported.
[0016]
According to the vehicle periphery image processing system described in claim 5, when the photographing means photographs the periphery of the vehicle, the bird's-eye view image generating means generates a bird's-eye view image by performing coordinate transformation on the image photographed by the photographing means. The storage unit stores the bird's-eye view image generated by the bird's-eye view image generation unit. When the vehicle moving state detecting means detects the moving state of the vehicle, the bird's-eye view image moving means detects the past bird's-eye view stored in the bird's-eye view image storing means based on the moving state of the vehicle detected by the vehicle moving state detecting means. The image is rotated or translated, and the combined bird's-eye view image generating means is coordinate-transformed by the bird's-eye view image generating means into a past bird's-eye view image rotated or translated by the bird's-eye view image moving means and an image taken by the photographing means. And a current bird's-eye view image generated as described above to generate a composite bird's-eye view image.
[0017]
When the combined bird's-eye view image is generated in this way, the display control means draws a frame along the outline of the vehicle figure on the generated combined bird's-eye view image and causes the display means to display the combined bird's-eye view image. Thus, by drawing the frame along the outer shape of the vehicle figure, the position of the vehicle can be appropriately recognized by the user, and attention to an obstacle can be appropriately promoted. Can help.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. The first embodiment corresponds to claims 1 to 3 of the present invention. First, FIG. 2 schematically shows a configuration of the vehicle periphery image processing system. The vehicle peripheral image processing system 1 includes a rear camera 3 (photographing means in the present invention) for photographing a situation behind the vehicle 2 and an in-vehicle monitor 5 (in the present invention) disposed in a vehicle compartment 4, for example, on a dashboard. Display means) and an image processing unit 6 for performing image processing.
[0019]
FIG. 1 shows a functional block diagram of the vehicle peripheral image processing system 1. The vehicle peripheral image processing system 1 includes, as functional blocks, a CPU 7 (vehicle moving state detecting means, bird's-eye view image moving means, synthetic bird's-eye view image generating means, display control means) controlling the operation of the entire system, and a rear camera. 3, a bird's-eye view image generation circuit 8 (bird's-eye view image generation means in the present invention), a first image memory 9 (bird's-eye view image storage means in the present invention), a second image memory 10, and a display image memory 11, an on-board monitor 5, a steering wheel signal input circuit 12, a vehicle speed signal input circuit 13, a yaw rate signal input circuit 14, an ultrasonic sensor signal input circuit 15, and a shift position signal input circuit 16 Have been.
[0020]
When an image is input from the rear camera 3, the bird's-eye view image generation circuit 8 generates a bird's-eye view image by performing coordinate conversion on the input image, and outputs the generated bird's-eye view image to the first image memory 9. When a bird's-eye view image is input from the bird's-eye view image generation circuit 8, the first image memory 9 temporarily stores the input bird's-eye view image as a current bird's-eye view image.
[0021]
When the bird's-eye view image is transferred from the first image memory 9, the second image memory 10 stores the transferred bird's-eye view image as a past bird's-eye view image. The display image memory 11 displays a combined bird's-eye view image in which the current bird's-eye view image stored in the first image memory 9 and the past bird's-eye view image stored in the second image memory 10 are combined. To be stored. The in-vehicle monitor 5 displays the composite bird's-eye view image stored in the display image memory 11 as the display image.
[0022]
The handle angle signal input circuit 12 causes the CPU 7 to input data regarding the handle operation of the user. The vehicle speed signal input circuit 13 causes the CPU 7 to input data relating to the vehicle speed. The yaw rate signal input circuit 14 causes the CPU 7 to input data relating to the turning state of the vehicle 2. The ultrasonic sensor signal input circuit 15 detects the presence or absence of an obstacle present around the vehicle 2 and causes the CPU 7 to input data on the presence or absence of the obstacle and data on the distance between the obstacle and the vehicle 2. The shift position signal input circuit 16 causes the CPU 7 to input data relating to the operation of the shift lever by the user.
[0023]
In the above configuration, the CPU 7, the bird's-eye view image generation circuit 8, the first image memory 9, the second image memory 10, the display image memory 11, the steering wheel angle signal input circuit 12, the vehicle speed signal input circuit 13, the yaw rate signal The input circuit 14, the ultrasonic sensor signal input circuit 15, and the shift position signal input circuit 16 can be configured as a single LSI by integrating all or part of them. Instead of providing the bird's-eye view image generation circuit 8 as a dedicated image processing circuit for generating a bird's-eye view image, the CPU 7 can also generate the bird's-eye view image by software. Further, the in-vehicle monitor 5 can also be used as a display of a navigation device.
[0024]
Here, a procedure in which the bird's-eye view image generation circuit 8 generates a bird's-eye view image will be briefly described. As a precondition, it is assumed that the rear camera 3 has an autofocus function, and its mounting height and mounting angle are set in advance. In addition, the ground is assumed to be a plane as a calculation precondition. Here, the image taken by the rear camera 3 is decomposed in pixel units, the distance to each pixel and the width direction position are calculated using the rear end of the vehicle 2 as a reference line, and the position coordinates of each pixel after bird's-eye conversion are calculated. calculate. Then, each pixel is rearranged based on the calculated position coordinates. Thereby, a bird's-eye view image can be generated from an image captured by the rear camera 3.
[0025]
By performing the bird's-eye view conversion in this manner, in the bird's-eye view image, it is assumed that a gap may occur between pixels or the pixels may overlap with each other. In some cases, it is assumed that the image displayed on the in-vehicle monitor 5 is an image that is somewhat thinned out, and the operability is lower than the original image (raw image) captured by the rear camera 3 is displayed. Good thing.
[0026]
Next, the operation of the above configuration will be described with reference to FIGS. The CPU 7 initializes the first image memory 9, the second image memory 10, and the display image memory 11, and also initializes various parameters (step S1). Next, the CPU 7 detects that the image captured by the rear camera 3 is coordinate-transformed by the bird's-eye view image generation circuit 8 to generate a bird's-eye view image, and that the bird's-eye view image is stored in the first image memory 9 (step S2). It is determined whether or not the bird's-eye view image is stored in the second image memory 10 (step S3).
[0027]
Here, when the CPU 7 detects that the bird's-eye view image is stored in the second image memory 10 (“YES” in step S3), the data input from the steering wheel angle signal input circuit 12, the vehicle speed signal input It is determined whether the vehicle 2 is moving based on the data input from the circuit 13, the data input from the yaw rate signal input circuit 14, and the data input from the ultrasonic sensor signal input circuit 15 ( Step S4).
[0028]
When detecting that the vehicle 2 is moving (“YES” in step S4), the CPU 7 reads the bird's-eye view image stored as the past bird's-eye view image from the second image memory 10 (step S5). Then, image processing for rotating or translating the read bird's-eye view image based on the moving state of the vehicle 2 is performed (step S6). At this time, if the vehicle 2 is moving in a curve, the CPU 7 performs image processing for rotating and moving the bird's-eye view image stored in the second image memory 10, and the vehicle 2 moves straight and moves. If so, the image processing for translating the bird's-eye view image stored in the second image memory 10 is performed.
[0029]
Next, the CPU 7 reads a bird's-eye view image stored as a current bird's-eye view image from the first image memory 9 (step S7), and reads a past bird's-eye view image read from the second image memory 10 and subjected to image processing. And the current bird's-eye view image read from the first image memory 9 to generate a combined bird's-eye view image (step S8).
[0030]
Now, when the composite bird's-eye view image is generated in this way, the CPU 7 colors the latest past bird's-eye view image in the generated composite bird's-eye view image (step S9). More specifically, the CPU 7 applies a reddish color to the latest past bird's-eye view image by applying an RGB color filter to the latest past bird's-eye view image, for example, by increasing the R value by a certain amount. At this time, it is desirable that the color added to the latest past bird's-eye view image be a color that draws the user's attention.
[0031]
Next, the CPU 7 determines whether or not there is an area outside the field of view of the rear camera 3 in the display area of the vehicle-mounted monitor 5 (step S10). When it is detected that an area outside the field of view is present ("YES" in step S10), the area outside the field of view of rear camera 3 is colored (step S11). More specifically, the CPU 7 increases the B value by a certain amount, for example, in a region outside the field of view of the rear camera 3 and applies an RGB color filter to the area outside the field of view of the rear camera 3 so that the bluish color is obtained. wear. At this time, it is desirable that the color applied to the region outside the field of view of the rear camera 3 also be a color that draws the user's attention.
[0032]
Then, the CPU 7 outputs the latest past bird's-eye view image and the composite bird's-eye view image in which an area outside the field of view of the rear camera 3 is colored to the display image memory 11 and causes the in-vehicle monitor 5 to display the image. (Step S12), the combined bird's-eye view image is stored in the second image memory 10 as a past bird's-eye view image (Step S13), the process returns to Step S2, and the processes after Step S2 are repeated.
[0033]
Through the series of processes described above, the CPU 7 displays the current bird's-eye view image in the display area behind the vehicle graphic 17 (the area indicated by “P” in FIG. 4) as shown in FIG. A colored past bird's-eye view image is displayed in a display area (areas indicated by “Q1” and “Q2” in FIG. 4) on the side of the vehicle graphic 17 and the rear camera 3 with a bluish color is displayed. An area outside the field of view is displayed in a predetermined display area (areas indicated by “R1” and “R2” in FIG. 4).
[0034]
Also, in this case, the CPU 7 applies a predetermined color to the latest past bird's-eye view image. Display. That is, the CPU 7 displays an area in the past bird's-eye view image where the time lapse is relatively large with a darker color and displays an area in the past bird's-eye view image where the time lapse is relatively small with a lighter color. Display is performed (in FIG. 4, a dark-colored area is indicated by dense hatching, and a light-colored area is indicated by coarse hatching).
[0035]
When detecting that the bird's-eye view image is not stored in the second image memory 10 (“NO” in step S3), the CPU 7 stores the bird's-eye view image stored in the first image memory 9 as the current bird's-eye view image. The image is transferred to the second image memory 10 (step S14), the process returns to step S2, and the processes after step S2 are repeated.
[0036]
Further, when detecting that the vehicle 2 is not moving ("NO" in step S4), the CPU 7 reads the bird's-eye view image read from the second image memory 10 and subjected to the image processing, and the first image The bird's-eye view image stored in the first image memory 9 as the current bird's-eye view image is directly displayed in the display area behind the vehicle graphic 17 without generating a combined bird's-eye view image by combining the bird's-eye view image read from the memory 9. (Step S15), the process returns to Step S2, and the processes after Step S2 are repeated.
[0037]
When the CPU 7 detects that there is no area outside the field of view of the rear camera 3 in the display area of the on-vehicle monitor 5 (“NO” in step S10), the area outside the field of view of the rear camera 3 is detected. A composite bird's-eye view image in which only the latest past bird's-eye view image is colored is output to the display image memory 11 and displayed on the in-vehicle monitor 5 without coloring the region (step S12). A second bird's-eye view image is stored in the second image memory 10 (step S13).
[0038]
By the way, the case where the past bird's-eye view image is colored is described above with the gradual change of the time lapse due to shading. good. Alternatively, one of the processing of coloring the past bird's-eye view image and the processing of coloring an area outside the field of view of the rear camera 3 may be selectively performed.
[0039]
As described above, according to the first embodiment, in the vehicle periphery image processing system 1, the past bird's-eye view image and the current bird's-eye view image are combined to generate a color in the past bird's-eye view image in the combined bird's-eye view image. , The composite bird's-eye view image is displayed, so that the boundary between the past bird's-eye view image and the current bird's-eye view image is clarified, so that the user can appropriately recognize the current situation. It is possible to appropriately call attention to the area where the bird's-eye view image is displayed, and to appropriately support the driving of the user.
[0040]
In addition, since a composite bird's-eye view image in the past bird's-eye view image is displayed by adding a gradual change of the time lapse by shading, gradation, mosaic, etc. to the past bird's-eye view image in the composite bird's-eye view image, The user can appropriately recognize the elapse of time, and can appropriately support the driving of the user.
[0041]
Further, since the composite bird's-eye view image is displayed by adding a color to the area outside the field of view of the rear camera 5 in the display area of the vehicle-mounted monitor 5, the area outside the field of view of the rear camera 5 is clarified. This makes it possible for the user to appropriately recognize an area outside the field of view of the past rear camera 5, appropriately alert the user to an area outside the field of view of the past rear camera 5, and appropriately drive the user. Can help.
[0042]
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to FIGS. This second embodiment corresponds to claim 4 of the present invention. Here, the description of the same parts as those in the first embodiment will be omitted, and different parts will be described.
[0043]
In the second embodiment, the CPU 7 combines the bird's-eye view image read from the second image memory 10 and subjected to the image processing with the bird's-eye view image read from the first image memory 9 to form a combined bird's-eye view image. Is generated (step S8), a mark indicating the distance from the vehicle 2 is drawn on the generated synthesized bird's-eye view image (step S21). Then, the CPU 7 outputs the synthesized bird's-eye view image on which the mark indicating the distance from the vehicle 2 is drawn to the display image memory 11 and displays the image on the in-vehicle monitor 5 (step S22).
[0044]
By the above-described series of processes, the CPU 7 indicates the distance from the vehicle 2 based on the rear end of the vehicle graphic 17 as shown in FIG. Markers (in FIG. 6, lines indicated by “A1” to “A4”) are drawn, and, for example, when the outer shape of the vehicle 2 is used as a reference, as shown in FIG. A mark indicating the distance from the vehicle 2 (lines indicated by “B1” to “B4” in FIG. 7) is drawn as a reference, and further, for example, a sonar installation position set at a predetermined portion of the vehicle 2 is used as a reference. If so, as shown in FIG. 8, as shown in FIG. 8, a mark (“C1”, “C2”, “C2”, “C2”, D1 ”and“ D2 ”) and draw distances from these vehicles 2. And displays the synthesized bird's-eye view marker has been drawn showing.
[0045]
As described above, according to the second embodiment, in the vehicle surrounding image processing system 1, the distance from the vehicle 2 is indicated by the synthesized bird's-eye view image generated by synthesizing the past bird's-eye view image and the current bird's-eye view image. Since the synthesized bird's-eye view image is displayed by drawing the mark, the user can appropriately recognize the distance from the vehicle 2 to the obstacle by drawing the mark indicating the distance from the vehicle 2. Therefore, it is possible to appropriately prompt attention to an obstacle, and to appropriately support the driving of the user.
[0046]
(Third embodiment)
Next, a third embodiment of the present invention will be described with reference to FIGS. The third embodiment corresponds to claim 5 of the present invention. Here, the description of the same parts as those in the first embodiment is omitted, and different parts will be described.
[0047]
In the third embodiment, the CPU 7 combines the bird's-eye view image read from the second image memory 10 and subjected to the image processing with the bird's-eye view image read from the first image memory 9 to generate a combined bird's-eye view image. Is generated (step S8), a frame is drawn on the generated composite bird's-eye view image so as to follow the outer shape of the vehicle figure 17 (step S31). Then, the CPU 7 outputs the synthesized bird's-eye view image in which the frame is drawn along the outer shape of the vehicle graphic 17 to the display image memory 11 and displays it on the in-vehicle monitor 5 (step S32).
[0048]
Through the series of processes described above, the CPU 7 draws a frame (indicated by “E” in FIG. 10) along the outer shape of the vehicle graphic 17 as shown in FIG. A composite bird's-eye view image in which a frame is drawn along the direction is displayed.
[0049]
As described above, according to the third embodiment, in the vehicle peripheral image processing system 1, the combined bird's-eye view image generated by combining the past bird's-eye view image and the current bird's-eye view image follows the outer shape of the vehicle graphic 17. The composite bird's-eye view image is displayed by drawing the frame as described above, so that the user can appropriately recognize the position of the vehicle 2 by drawing the frame along the outer shape of the vehicle graphic 17. Therefore, it is possible to appropriately prompt attention to an obstacle, and to appropriately support the driving of the user.
[0050]
(Other Examples)
The present invention is not limited to the above-described embodiment, but can be modified or expanded as follows.
A configuration in which some of the first, second, and third embodiments are combined may be employed.
In the second embodiment, when the user selects a drawing mode, a process of drawing a mark indicating a distance from the vehicle 2 based on the rear end of the vehicle graphic 17 is performed. A configuration in which a process of drawing a mark indicating a distance and a process of drawing a mark indicating a distance from the vehicle 2 based on the installation position of the sonar may be selectable.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a first embodiment of the present invention. FIG. 2 is a diagram schematically showing the entire configuration of a system. FIG. 3 is a flowchart. FIG. 4 is a diagram showing an example of a display screen of an on-vehicle monitor. FIG. 5 is a flowchart showing a second embodiment of the present invention. FIG. 6 is a diagram corresponding to FIG. 4 FIG. 7 is a diagram corresponding to FIG. 4 FIG. 8 is a diagram corresponding to FIG. 4 FIG. 9 shows a third embodiment of the present invention Flow chart [FIG. 10] FIG. 4 equivalent diagram [Description of reference numerals]
In the drawings, 1 is a vehicle peripheral image processing system, 2 is a vehicle, 3 is a rear camera (photographing means), 5 is an on-vehicle monitor (display means), 7 is a CPU (vehicle moving state detecting means, bird's-eye view image moving means, synthetic bird's-eye view) 8 is a bird's-eye view image generation circuit (bird's-eye view image generation means), 9 is a first image memory (bird's-eye view image storage means).

Claims (5)

車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像内の過去の鳥瞰図画像に所定の色を付けて合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing around the vehicle;
Bird's-eye view image generating means for generating a bird's-eye view image by performing coordinate conversion on an image shot by the shooting means,
Bird's-eye view image storage means for storing a bird's-eye view image generated by the bird's-eye view image generation means,
Vehicle moving state detecting means for detecting a moving state of the vehicle;
A bird's-eye view image moving means for rotating or translating a past bird's-eye view image stored in the bird's-eye view image storage means based on the moving state of the vehicle detected by the vehicle moving state detecting means,
A past bird's-eye view image rotated or translated by the bird's-eye view image moving means is combined with a current bird's-eye view image generated by performing coordinate transformation on the image photographed by the photographing means by the bird's-eye view image generating means. A vehicle-surrounding image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
Vehicle peripheral image processing, comprising: display control means for applying a predetermined color to a past bird's-eye view image in the synthetic bird's-eye view image image generated by the synthetic bird's-eye view image generating means and displaying the synthesized bird's-eye view image on a display means. system.
車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像内の過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けて合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing around the vehicle;
Bird's-eye view image generating means for generating a bird's-eye view image by performing coordinate conversion on an image shot by the shooting means,
Bird's-eye view image storage means for storing a bird's-eye view image generated by the bird's-eye view image generation means,
Vehicle moving state detecting means for detecting a moving state of the vehicle;
A bird's-eye view image moving means for rotating or translating a past bird's-eye view image stored in the bird's-eye view image storage means based on the moving state of the vehicle detected by the vehicle moving state detecting means,
A past bird's-eye view image rotated or translated by the bird's-eye view image moving means is combined with a current bird's-eye view image generated by performing coordinate transformation on the image photographed by the photographing means by the bird's-eye view image generating means. A vehicle-surrounding image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
Display control means for displaying a composite bird's-eye view image on a display means by adding a stepwise change in time lapse by shading, gradation, mosaic, etc. to a past bird's-eye view image in the composite bird's-eye view image image generated by the composite bird's-eye view image generating means A vehicle peripheral image processing system comprising:
車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
表示手段の表示領域にあって前記撮影手段の撮影視野外の領域に所定の色を付けて前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像を前記表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing around the vehicle;
Bird's-eye view image generating means for generating a bird's-eye view image by performing coordinate conversion on an image shot by the shooting means,
Bird's-eye view image storage means for storing a bird's-eye view image generated by the bird's-eye view image generation means,
Vehicle moving state detecting means for detecting a moving state of the vehicle;
A bird's-eye view image moving means for rotating or translating a past bird's-eye view image stored in the bird's-eye view image storage means based on the moving state of the vehicle detected by the vehicle moving state detecting means,
A past bird's-eye view image rotated or translated by the bird's-eye view image moving means is combined with a current bird's-eye view image generated by performing coordinate transformation on the image photographed by the photographing means by the bird's-eye view image generating means. A vehicle-surrounding image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
Display control means for displaying a composite bird's-eye view image generated by the composite bird's-eye view image generating means on the display area by applying a predetermined color to an area outside the field of view of the photographing means in the display area of the display means; A vehicle peripheral image processing system, characterized in that:
車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に車両からの距離を示す目印を描画して合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing around the vehicle;
Bird's-eye view image generating means for generating a bird's-eye view image by performing coordinate conversion on an image shot by the shooting means,
Bird's-eye view image storage means for storing a bird's-eye view image generated by the bird's-eye view image generation means,
Vehicle moving state detecting means for detecting a moving state of the vehicle;
A bird's-eye view image moving means for rotating or translating a past bird's-eye view image stored in the bird's-eye view image storage means based on the moving state of the vehicle detected by the vehicle moving state detecting means,
A past bird's-eye view image rotated or translated by the bird's-eye view image moving means is combined with a current bird's-eye view image generated by performing coordinate transformation on the image photographed by the photographing means by the bird's-eye view image generating means. A vehicle-surrounding image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
A vehicle peripheral image processing system, comprising: display control means for drawing a mark indicating the distance from the vehicle on the synthetic bird's-eye view image generated by the synthetic bird's-eye view image generating means and displaying the synthetic bird's-eye view image on the display means. .
車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に車両図形の外形に沿うように枠を描画して合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing around the vehicle;
Bird's-eye view image generating means for generating a bird's-eye view image by performing coordinate conversion on an image shot by the shooting means,
Bird's-eye view image storage means for storing a bird's-eye view image generated by the bird's-eye view image generation means,
Vehicle moving state detecting means for detecting a moving state of the vehicle;
A bird's-eye view image moving means for rotating or translating a past bird's-eye view image stored in the bird's-eye view image storage means based on the moving state of the vehicle detected by the vehicle moving state detecting means,
A past bird's-eye view image rotated or translated by the bird's-eye view image moving means is combined with a current bird's-eye view image generated by performing coordinate transformation on the image photographed by the photographing means by the bird's-eye view image generating means. A vehicle-surrounding image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
A vehicle peripheral image, comprising: display control means for drawing a frame on the composite bird's-eye view image image generated by the composite bird's-eye view image generation means along the outline of the vehicle figure and displaying the composite bird's-eye view image on the display means. Processing system.
JP2003051013A 2003-02-27 2003-02-27 Vehicle periphery image processing system Expired - Fee Related JP3961969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003051013A JP3961969B2 (en) 2003-02-27 2003-02-27 Vehicle periphery image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003051013A JP3961969B2 (en) 2003-02-27 2003-02-27 Vehicle periphery image processing system

Publications (2)

Publication Number Publication Date
JP2004260694A true JP2004260694A (en) 2004-09-16
JP3961969B2 JP3961969B2 (en) 2007-08-22

Family

ID=33116275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003051013A Expired - Fee Related JP3961969B2 (en) 2003-02-27 2003-02-27 Vehicle periphery image processing system

Country Status (1)

Country Link
JP (1) JP3961969B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298258A (en) * 2005-04-22 2006-11-02 Aisin Aw Co Ltd Parking supporting method and parking supporting device
JP2006327499A (en) * 2005-05-27 2006-12-07 Aisin Aw Co Ltd Parking support method and parking support device
JP2007124226A (en) * 2005-10-27 2007-05-17 Aisin Aw Co Ltd Method and apparatus for assisting parking
JP2008132938A (en) * 2006-11-29 2008-06-12 Nippon Soken Inc Driving assistance device
JP2011148369A (en) * 2010-01-20 2011-08-04 Denso Corp Driving support device
US8009869B2 (en) 2006-04-12 2011-08-30 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding monitoring system and vehicle surrounding monitoring method
JP2012001126A (en) * 2010-06-18 2012-01-05 Clarion Co Ltd Vehicle surroundings monitoring device
JP2014069723A (en) * 2012-09-28 2014-04-21 Aisin Seiki Co Ltd Parking support device and control method
JP2014129093A (en) * 2014-03-11 2014-07-10 Clarion Co Ltd Periphery monitoring device for vehicle
WO2015122124A1 (en) * 2014-02-12 2015-08-20 株式会社デンソー Vehicle periphery image display apparatus and vehicle periphery image display method
WO2016082961A1 (en) * 2014-11-25 2016-06-02 Robert Bosch Gmbh Method for characterizing camera images of a parking assistant
WO2018003193A1 (en) * 2016-06-29 2018-01-04 アイシン精機株式会社 Periphery monitoring device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298258A (en) * 2005-04-22 2006-11-02 Aisin Aw Co Ltd Parking supporting method and parking supporting device
JP2006327499A (en) * 2005-05-27 2006-12-07 Aisin Aw Co Ltd Parking support method and parking support device
JP2007124226A (en) * 2005-10-27 2007-05-17 Aisin Aw Co Ltd Method and apparatus for assisting parking
US8009869B2 (en) 2006-04-12 2011-08-30 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding monitoring system and vehicle surrounding monitoring method
JP2008132938A (en) * 2006-11-29 2008-06-12 Nippon Soken Inc Driving assistance device
JP2011148369A (en) * 2010-01-20 2011-08-04 Denso Corp Driving support device
JP2012001126A (en) * 2010-06-18 2012-01-05 Clarion Co Ltd Vehicle surroundings monitoring device
JP2014069723A (en) * 2012-09-28 2014-04-21 Aisin Seiki Co Ltd Parking support device and control method
CN106031166A (en) * 2014-02-12 2016-10-12 株式会社电装 Vehicle peripheral image display device and vehicle peripheral image display method
WO2015122124A1 (en) * 2014-02-12 2015-08-20 株式会社デンソー Vehicle periphery image display apparatus and vehicle periphery image display method
CN106031166B (en) * 2014-02-12 2018-12-25 株式会社电装 Vehicle peripheral image display device and vehicle peripheral image display method
JP2014129093A (en) * 2014-03-11 2014-07-10 Clarion Co Ltd Periphery monitoring device for vehicle
WO2016082961A1 (en) * 2014-11-25 2016-06-02 Robert Bosch Gmbh Method for characterizing camera images of a parking assistant
WO2018003193A1 (en) * 2016-06-29 2018-01-04 アイシン精機株式会社 Periphery monitoring device
JP2018006921A (en) * 2016-06-29 2018-01-11 アイシン精機株式会社 Periphery monitoring device
CN109314767A (en) * 2016-06-29 2019-02-05 爱信精机株式会社 Peripheral monitoring device

Also Published As

Publication number Publication date
JP3961969B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
JP4254887B2 (en) Image display system for vehicles
KR101446897B1 (en) Vehicle periphery monitoring device
JP5251947B2 (en) Image display device for vehicle
JP5035284B2 (en) Vehicle periphery display device
CN110877572A (en) Periphery monitoring device
JP4364471B2 (en) Image processing apparatus for vehicle
JP2014089513A (en) Image generation apparatus and image generation program
KR20120118073A (en) Vehicle periphery monitoring device
WO2002089484A1 (en) Method and apparatus for synthesizing/displaying images of cameras installed in vehicle
JP2004254219A (en) Vehicular surrounding image processing apparatus and program, and recording medium
JP3961969B2 (en) Vehicle periphery image processing system
US20220144187A1 (en) Camera system for a trailer hitch system
JP4611899B2 (en) Camera lens dirt detection device and image display system
JP2008279875A (en) Parking support device
JP2019028920A (en) Display control device
US20090204326A1 (en) Method and System for Supporting the Driver of a Motor Vehicle in Recognizing the Surroundings of the Motor Vehicle
JP4552525B2 (en) Image processing apparatus for vehicle
JP2012001126A (en) Vehicle surroundings monitoring device
CN113840755B (en) Method for generating vehicle surrounding environment image and device for generating vehicle surrounding environment image
JP5195776B2 (en) Vehicle periphery monitoring device
US10821900B2 (en) Image processing device
JP2002330428A (en) Image display control method and device for vehicle-mounted camera
JP2012065228A (en) Image processing apparatus, image display system, and image display method
JP4679816B2 (en) Vehicle periphery display control device
JP2007302238A (en) Image processing apparatus for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070517

R150 Certificate of patent or registration of utility model

Ref document number: 3961969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees