JP2017199130A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2017199130A JP2017199130A JP2016088203A JP2016088203A JP2017199130A JP 2017199130 A JP2017199130 A JP 2017199130A JP 2016088203 A JP2016088203 A JP 2016088203A JP 2016088203 A JP2016088203 A JP 2016088203A JP 2017199130 A JP2017199130 A JP 2017199130A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- unit
- processing apparatus
- relative position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】車載カメラを用いて取得した画像中に、低輝度又は高輝度の領域が存在するか否かを判断することができる画像処理装置、画像処理方法、及びプログラムを提供すること。【解決手段】画像処理装置1は、画像取得ユニット7と、判断ユニット11とを備える。画像取得ユニットは、カメラを用いて、第1の相対位置にある領域を表す第1の画像、及び、第1の相対位置よりも車両の進行方向側に位置する第2の相対位置にある領域を表す第2の画像を取得する。判断ユニットは、第1の画像と、第1の画像よりも早く取得され、第1の画像と重複する領域を表す第2の画像について、輝度、及び/又は、所定の色成分の強さを対比することで、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域が第1の画像に存在するか否かを判断する。【選択図】図2
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
従来、車載カメラを用いて車両の周辺の画像を取得し、その画像を用いて様々な処理を行う技術が知られている。例えば、取得した画像においてレーンマーカを認識する技術が知られている。
また、以下のような画像処理が知られている。まず、車載カメラを用いて、車両の周辺の画像を、時間差をおいて複数取得する。次に、複数の画像のそれぞれを鳥瞰図画像に変換する。次に、複数の鳥瞰図画像を合成して合成画像を作成する。このような画像処理は、特許文献1に開示されている。
車載カメラを用いて取得した画像中に、周囲に比べて輝度が低い領域や、周囲に比べて輝度が高い領域が存在することがある。周囲に比べて輝度が低い領域としては、例えば、車両の影の領域がある。また、周囲に比べて輝度が高い領域としては、例えば、ヘッドライト等の照明光が照射された領域等がある。車載カメラを用いて取得した画像中に、周囲に比べて輝度が低い領域や、周囲に比べて輝度が高い領域が存在する場合、画像を用いた処理を適切に行えないことがある。
本発明は、こうした問題に鑑みてなされたものであり、カメラを用いて取得した画像中に、周囲に比べて輝度が低い領域や、周囲に比べて輝度が高い領域が存在するか否かを判断することができる画像処理装置、画像処理方法、及びプログラムを提供することを目的としている。
本開示の画像処理装置(1)は、車両(27)に搭載されたカメラ(19、21、57、59)を用いて、車両に対して第1の相対位置(37、41、64、66)にある領域を表す第1の画像(45、63、65)、及び、第1の相対位置よりも車両の進行方向側に位置する第2の相対位置(39、43)にある領域を表す第2の画像(47、49、69、71)を取得する画像取得ユニット(7)と、第1の画像と、第1の画像よりも早く取得され、第1の画像と重複する領域を表す第2の画像(47、69)とについて、輝度、及び/又は、所定の色成分の強さを対比することで、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域(55)が第1の画像に存在するか否かを判断する判断ユニット(11)とを備える。
本開示の画像処理装置によれば、第1の画像内に、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域が存在するか否かを容易に判断することができる。
本開示の画像処理方法は、車両(27)に搭載されたカメラ(19、21、57、59)を用いて、車両に対して第1の相対位置(37、41、64、66)にある領域を表す第1の画像(45、63、65)、及び、第1の相対位置よりも車両の進行方向側に位置する第2の相対位置(39、43)にある領域を表す第2の画像(47、49、69、71)を取得し(S1、S4、S6、S21、S24、S26、S41、S44、S46)、第1の画像と、第1の画像よりも早く取得され、第1の画像と重複する領域を表す第2の画像(47、69)とについて、輝度、及び/又は、所定の色成分の強さを対比することで、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域(55)が第1の画像に存在するか否かを判断する(S8〜S13、S28〜S31、S48〜S51)。
本開示の画像処理方法は、車両(27)に搭載されたカメラ(19、21、57、59)を用いて、車両に対して第1の相対位置(37、41、64、66)にある領域を表す第1の画像(45、63、65)、及び、第1の相対位置よりも車両の進行方向側に位置する第2の相対位置(39、43)にある領域を表す第2の画像(47、49、69、71)を取得し(S1、S4、S6、S21、S24、S26、S41、S44、S46)、第1の画像と、第1の画像よりも早く取得され、第1の画像と重複する領域を表す第2の画像(47、69)とについて、輝度、及び/又は、所定の色成分の強さを対比することで、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域(55)が第1の画像に存在するか否かを判断する(S8〜S13、S28〜S31、S48〜S51)。
本開示の画像処理方法によれば、第1の画像内に、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域が存在するか否かを容易に判断することができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
本発明の実施形態を図面に基づき説明する。
<第1実施形態>
1.画像処理装置1の構成
画像処理装置1の構成を、図1〜図3に基づき説明する。画像処理装置1は、車両に搭載される車載装置である。以下では、画像処理装置1を搭載する車両を自車両とする。画像処理装置1は、CPU3と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ5とする)と、を有する周知のマイクロコンピュータを中心に構成される。画像処理装置1の各種機能は、CPU3が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ5が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。
<第1実施形態>
1.画像処理装置1の構成
画像処理装置1の構成を、図1〜図3に基づき説明する。画像処理装置1は、車両に搭載される車載装置である。以下では、画像処理装置1を搭載する車両を自車両とする。画像処理装置1は、CPU3と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ5とする)と、を有する周知のマイクロコンピュータを中心に構成される。画像処理装置1の各種機能は、CPU3が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ5が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。
画像処理装置1は、CPU3がプログラムを実行することで実現される機能の構成として、図2に示すように、画像取得ユニット7と、車両信号処理ユニット9と、判断ユニット11と、変換ユニット12と、合成ユニット13と、表示停止ユニット15と、表示ユニット17と、を備える。画像処理装置1を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。
自車両は、画像処理装置1に加えて、フロントカメラ19、リアカメラ21、ディスプレイ23、及び車載ネットワーク25を備える。図3に示すように、フロントカメラ19は、自車両27の前部に搭載されている。フロントカメラ19は、自車両27から見て前方にある風景を撮影し、画像を作成する。また、リアカメラ21は、自車両27の後部に搭載されている。リアカメラ21は、自車両27から見て後方にある風景を撮影し、画像を作成する。
自車両27を上方から見たとき、フロントカメラ19の光軸29及びリアカメラ21の光軸31は、自車両27の前後軸と平行である。また、光軸29及び光軸31は俯角を有する。自車両27を基準としたとき、光軸29及び光軸31は常に一定である。そのため、自車両27の傾きがなく、道路が平坦であれば、フロントカメラ19が撮影する画像に含まれる範囲33、及びリアカメラ21が撮影する画像に含まれる範囲35は、自車両27に対し、常に一定の位置にある。範囲33、35には、路面が含まれる。
範囲33のうち、自車両27に近い部分を第1の相対位置37とし、第1の相対位置37よりも自車両27から遠い部分を第2の相対位置39とする。自車両27の進行方法が前方である場合、第2の相対位置39は、第1の相対位置37よりも進行方向側に位置する。第1の相対位置37及び第2の相対位置39は、それぞれ一定の大きさを有する。
範囲35のうち、自車両27に近い部分を第1の相対位置41とし、第1の相対位置41よりも自車両27から遠い部分を第2の相対位置43とする。自車両27の進行方法が後方である場合、第2の相対位置43は、第1の相対位置41よりも進行方向側に位置する。第1の相対位置41及び第2の相対位置43は、それぞれ一定の大きさを有する。
ディスプレイ23は、図3に示すように、自車両27の車室内に設けられている。自車両27のドライバはディスプレイ23を視認可能である。ディスプレイ23は、画像処理装置1により制御され、画像を表示する。
車載ネットワーク25は、画像処理装置1に接続している。画像処理装置1は、車載ネットワーク25から、自車両の挙動を表す車両信号を取得することができる。車両信号は、具体的には、自車両の車速を表す信号である。車載ネットワーク25としては、例えば、CAN(登録商標)が挙げられる。
2.画像処理装置1が実行する画像処理
画像処理装置1が一定の周期Iで繰り返し実行する画像処理を、図4〜図7に基づき説明する。周期Iの単位は時間である。以下では、図4に示す処理を1回実行することを、1サイクルということがある。
画像処理装置1が一定の周期Iで繰り返し実行する画像処理を、図4〜図7に基づき説明する。周期Iの単位は時間である。以下では、図4に示す処理を1回実行することを、1サイクルということがある。
なお、ここでは、自車両が後進する場合を例に挙げて説明する。自車両が前進する場合の処理も、リアカメラ21で取得した画像の代わりにフロントカメラ19で取得した画像を用いる点以外は同様である。
図4のステップ1では、画像取得ユニット7が、フロントカメラ19及びリアカメラ21を用いて画像を取得する。
ステップ2では、車両信号処理ユニット9が、車載ネットワーク25から車両信号を取得する。
ステップ2では、車両信号処理ユニット9が、車載ネットワーク25から車両信号を取得する。
ステップ3では、車両信号処理ユニット9が、前記ステップ2で取得した車両信号を、それを取得した時刻と関連付けてメモリ5に記憶する。
ステップ4では、変換ユニット12が、前記ステップ1で取得した画像を鳥瞰図画像に変換する。鳥瞰図画像に変換する方法として、周知の方法を用いることができる。鳥瞰図画像に変換する方法の例として、例えば、特開平10−211849号公報に記載されている方法等を用いることができる。
ステップ4では、変換ユニット12が、前記ステップ1で取得した画像を鳥瞰図画像に変換する。鳥瞰図画像に変換する方法として、周知の方法を用いることができる。鳥瞰図画像に変換する方法の例として、例えば、特開平10−211849号公報に記載されている方法等を用いることができる。
ステップ5では、変換ユニット12が、前記ステップ4で変換した鳥瞰図画像をメモリ5に記憶する。
ステップ6では、図5に示すように、画像取得ユニット7が、前記ステップ4で作成した鳥瞰図画像40の一部であって、第1の相対位置41にあった領域を表す画像(以下では、第1の画像45とする)を取得する。第1の画像45は、リアカメラ21が撮影を行った時点において、第1の相対位置41にあった領域を表す画像である。なお、図5におけるDは自車両27の進行方向を表す。図5における進行方向Dは、自車両27が後進する方向である。図5におけるFは自車両27の前端を表し、Rは自車両27の後端を表す。
ステップ6では、図5に示すように、画像取得ユニット7が、前記ステップ4で作成した鳥瞰図画像40の一部であって、第1の相対位置41にあった領域を表す画像(以下では、第1の画像45とする)を取得する。第1の画像45は、リアカメラ21が撮影を行った時点において、第1の相対位置41にあった領域を表す画像である。なお、図5におけるDは自車両27の進行方向を表す。図5における進行方向Dは、自車両27が後進する方向である。図5におけるFは自車両27の前端を表し、Rは自車両27の後端を表す。
ステップ7では、合成ユニット13が、図6に示す第2の合成画像47を、以下の方法で作成する。
図5に示すように、前記ステップ4で作成する鳥瞰図画像40の一部であって、第2の相対位置43にある領域を表す画像を、第2の画像49とする。第2の画像49は、リアカメラ21が撮影を行った時点において、第2の相対位置43にあった領域を表す画像である。以下では、第2の画像49のうち、今回のサイクルで作成されたものを49(i)と表記し、j回前のサイクルで作成されたものを49(i−j)と表記する。jは1以上の自然数である。
図5に示すように、前記ステップ4で作成する鳥瞰図画像40の一部であって、第2の相対位置43にある領域を表す画像を、第2の画像49とする。第2の画像49は、リアカメラ21が撮影を行った時点において、第2の相対位置43にあった領域を表す画像である。以下では、第2の画像49のうち、今回のサイクルで作成されたものを49(i)と表記し、j回前のサイクルで作成されたものを49(i−j)と表記する。jは1以上の自然数である。
合成ユニット13は、第2の画像49(i−j)が表す領域の位置を算出する。第2の画像49(i−j)が表す領域の位置は、自車両27を基準とする相対的な位置である。第2の画像49(i−j)が表す領域の位置は、第2の画像49(i)が表す領域の位置から、ΔXjだけ、方向Dとは反対方向に移動した位置である。第2の画像49(i)が表す領域の位置は、現時点における第2の相対位置43に等しい。
ΔXjとは、第2の画像49(i−j)を作成した時点から現時点までに自車両27が方向Dに進行した距離である。合成ユニット13は、前記ステップ3で取得し、前記ステップ4で記憶した車両信号を用いて、ΔXjを算出することができる。
次に、合成ユニット13は、第2の画像49(i−j)のうち、第1の画像45と、表す領域が重複する第2の画像49(i−j)を選択する。図6に示す例では、第2の画像49(i−1)〜49(i−5)が、第1の画像45と、表す領域が重複する。
次に、合成ユニット13は、上記のように選択した第2の画像49(i−j)を全て組み合わせて、第2の合成画像47を作成する。なお、第2の合成画像47に含まれる第2の画像49(i−j)は、今回のサイクルで取得した第1の画像45よりも早く取得された画像である。
ステップ8では、判断ユニット11が、今回のサイクルで取得した第1の画像45の輝度と、前記ステップ7で作成した第2の合成画像47の輝度とを対比する。
ステップ9では、第1の画像45の輝度と、第2の合成画像47の輝度との差分が、予め設定された閾値より大きいか否かを判断ユニット11が判断する。差分が閾値より大きい場合はステップ10に進み、差分が閾値以下である場合はステップ16に進む。
ステップ9では、第1の画像45の輝度と、第2の合成画像47の輝度との差分が、予め設定された閾値より大きいか否かを判断ユニット11が判断する。差分が閾値より大きい場合はステップ10に進み、差分が閾値以下である場合はステップ16に進む。
ステップ10では、判断ユニット11が、第1の画像45と、第2の合成画像47とのそれぞれについて、輝度のチェックを行う。
ステップ11では、前記ステップ10での輝度のチェックの結果に基づき、第1の画像45と、第2の合成画像47とのそれぞれについて、影又は照明光に特有の特徴が表れているか否かを判断ユニット11が判断する。
ステップ11では、前記ステップ10での輝度のチェックの結果に基づき、第1の画像45と、第2の合成画像47とのそれぞれについて、影又は照明光に特有の特徴が表れているか否かを判断ユニット11が判断する。
影に特有の特徴とは、影のある領域の輝度が予め設定された閾値以下、及び/又は、所定の色成分の強さが予め設定された閾値以上であるという特徴である。照明光に特有の特徴とは、照明光のある領域の輝度が予め設定された閾値以上であるという特徴である。
第1の画像45に影又は照明光に特有の特徴が表れており、第2の合成画像47には影又は照明光に特有の特徴が表れていない場合は、ステップ12に進み、それ以外の場合はステップ17に進む。
ステップ12では、判断ユニット11が、カウント値を1つだけ増す。なお、カウント値は、本ステップ12で1つだけ増し、後述するステップ16で0にリセットされる値である。
ステップ13では、カウント値が予め設定された閾値を超えたか否かを判断ユニット11が判断する。カウント値が閾値を超えた場合はステップ14に進み、カウンタ値が閾値以下である場合はステップ17に進む。
ステップ14では、表示停止ユニット15が、ディスプレイ23に表示する画像として、後述する第1の合成画像ではなく、背景画像を選択する。背景画像は、予めメモリ5に記憶されている画像である。
ステップ15では、表示ユニット17が、背景画像をディスプレイ23に表示する。背景画像を表示する範囲は、後述するステップ18で第1の合成画像を表示する範囲と同じである。
前記ステップ9で否定判断した場合はステップ16に進む。ステップ16では、判断ユニット11が、カウント値を0にリセットする。
ステップ17では、合成ユニット13が、第1の合成画像を作成する。第1の合成画像の作成方法は、基本的には第2の合成画像47の作成方法と同様である。ただし、第1の合成画像を作成する場合は、第2の画像49(i−j)ではなく、過去のサイクルにおいて取得した第1の画像45(i−j)を用いて作成する。第1の画像45(i−j)は、j回前のサイクルにおいて作成した第1の画像である。
ステップ17では、合成ユニット13が、第1の合成画像を作成する。第1の合成画像の作成方法は、基本的には第2の合成画像47の作成方法と同様である。ただし、第1の合成画像を作成する場合は、第2の画像49(i−j)ではなく、過去のサイクルにおいて取得した第1の画像45(i−j)を用いて作成する。第1の画像45(i−j)は、j回前のサイクルにおいて作成した第1の画像である。
第1の合成画像の具体的な作成方法は以下のとおりである。合成ユニット13は、第1の画像45(i−j)が表す領域の位置を算出する。第1の画像45(i−j)が表す領域の位置は、自車両27を基準とする相対的な位置である。第1の画像45(i−j)が表す領域の位置は、第1の相対位置41から、ΔXjだけ、方向Dとは反対方向に移動した位置である。
次に、合成ユニット13は、第1の画像45(i−j)のうち、自車両27が占める領域と重複する第1の画像45(i−j)を選択する。図7に示す例では、第1の画像45(i−1)〜45(i−6)が、自車両27が占める領域と重複する。
次に、合成ユニット13は、上記のように選択した第1の画像45(i−j)を全て組み合わせて、第1の合成画像51を作成する。
ステップ18では、表示ユニット17が、前記ステップ17で作成した第1の合成画像51をディスプレイ23に表示する。第1の合成画像51を表示する範囲は、自車両27が占める範囲である。
ステップ18では、表示ユニット17が、前記ステップ17で作成した第1の合成画像51をディスプレイ23に表示する。第1の合成画像51を表示する範囲は、自車両27が占める範囲である。
なお、図7に示す例では、第1の合成画像51の下側に、第1の画像45(i)を表示する。第1の画像45(i)は、今回のサイクルで作成した第1の画像45である。また、図7に示す例では、第1の合成画像51の上側に、今回のサイクルにおいてフロントカメラ19を用いて取得した画像を鳥瞰図画像に変換した画像53を表示する。また、図7に示す例では、自車両27を、コンピュータグラフィックにより表示する。
3.画像処理装置1が奏する効果
(1A)図5に示すように、第1の相対位置41にある領域を表す第1の画像45内に影の領域55が存在する場合がある。この影は、自車両27の影であってもよいし、その他の物標の影であってもよい。影の領域55は、その周囲に比べて輝度が低い特定領域に対応する。
(1A)図5に示すように、第1の相対位置41にある領域を表す第1の画像45内に影の領域55が存在する場合がある。この影は、自車両27の影であってもよいし、その他の物標の影であってもよい。影の領域55は、その周囲に比べて輝度が低い特定領域に対応する。
第1の画像45内に影の領域55が存在する場合でも、第2の相対位置43にある領域を表す第2の画像49内には、影の領域55は存在しにくい。また、第2の画像49を合成して作成される第2の合成画像47内にも、影の領域55は存在しにくい。
画像処理装置1は、第1の画像45の輝度と、第2の合成画像47の輝度とを対比することで、第1の画像45内に、影の領域55が存在するか否かを容易に判断することができる。
また、画像処理装置1は、同様の対比により、第1の画像45内に、照明光が照射されている領域が存在するか否かを容易に判断することができる。照明光が照射されている領域は、その周囲に比べて輝度が高い特定領域に対応する。照明光としては、例えば、他の車両のヘッドライトの光が挙げられる。
(1B)画像処理装置1は、第1の合成画像51を作成し、ディスプレイ23に表示することができる。ただし、第1の合成画像51を構成する第1の画像45に、影の領域、又は、照明光が照射された領域が存在する場合、第1の合成画像51の表示を停止する。そのことにより、影の領域、又は、照明光が照射された領域を含む第1の合成画像51を表示してしまうことを抑制できる。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
自車両は、図8に示すように、さらに、右カメラ57、及び左カメラ59を備える。右カメラ57は、自車両の右側における風景を撮影し、画像を作成する。左カメラ59は、自車両の左側における風景を撮影し、画像を作成する。
画像処理装置1は、CPU3がプログラムを実行することで実現される機能の構成として、図9に示すように、画像取得ユニット7と、車両信号処理ユニット9と、判断ユニット11と、変換ユニット12と、合成ユニット13と、認識ユニット56と、認識停止ユニット58と、を備える。
2.画像処理装置1が実行する処理
画像処理装置1が実行する処理を図10〜図12に基づき説明する。なお、ここでは、自車両が前進する場合を例に挙げて説明する。
画像処理装置1が実行する処理を図10〜図12に基づき説明する。なお、ここでは、自車両が前進する場合を例に挙げて説明する。
図10におけるステップ21〜25の処理は、基本的には、第1実施形態におけるステップ1〜5の処理と同様である。
ただし、ステップ21では、フロントカメラ19、リアカメラ21、右カメラ57、及び左カメラ59からそれぞれ画像を取得する。
ただし、ステップ21では、フロントカメラ19、リアカメラ21、右カメラ57、及び左カメラ59からそれぞれ画像を取得する。
また、ステップ24では、フロントカメラ19、リアカメラ21、右カメラ57、及び左カメラ59から取得した画像のそれぞれを鳥瞰図画像に変換する。図11に、フロントカメラ19から取得した画像を変換した鳥瞰図画像61と、リアカメラ21から取得した画像を変換した鳥瞰図画像40と、右カメラ57から取得した画像を変換した鳥瞰図画像63と、左カメラ59から取得した画像を変換した鳥瞰図画像65と、を示す。
ステップ26では、画像取得ユニット7が、前記ステップ24で作成した鳥瞰図画像63、65を取得する。鳥瞰図画像63、65は、第1の画像に対応する。また、自車両27に対する、鳥瞰図画像63の相対位置64と、自車両27に対する、鳥瞰図画像65の相対位置66とは、第1の相対位置に対応する。
ステップ27では、合成ユニット13が、図12に示す第2の合成画像69を、以下の方法で作成する。
図11に示すように、鳥瞰図画像61の一部であって、第2の相対位置39にある領域を表す画像を、第2の画像71とする。以下では、第2の画像71のうち、今回のサイクルで作成されたものを71(i)と表記し、j回前のサイクルで作成されたものを71(i−j)と表記する。jは1以上の自然数である。
図11に示すように、鳥瞰図画像61の一部であって、第2の相対位置39にある領域を表す画像を、第2の画像71とする。以下では、第2の画像71のうち、今回のサイクルで作成されたものを71(i)と表記し、j回前のサイクルで作成されたものを71(i−j)と表記する。jは1以上の自然数である。
合成ユニット13は、第2の画像71(i−j)が表す領域の位置を算出する。第2の画像71(i−j)が表す領域の位置は、自車両27を基準とする相対的な位置である。第2の画像71(i−j)が表す領域の位置は、第2の画像71(i)が表す領域の位置から、ΔXjだけ、方向Dとは反対方向に移動した位置である。第2の画像71(i)が表す領域の位置は、現時点における第2の相対位置39に等しい。
ΔXjとは、第2の画像71(i−j)を作成した時点から現時点までに自車両27が方向Dに進行した距離である。合成ユニット13は、前記ステップ23で取得し、前記ステップ24で記憶した車両信号を用いて、ΔXjを算出することができる。
次に、合成ユニット13は、第2の画像71(i−j)のうち、鳥瞰図画像63、65と、表す領域が重複する第2の画像71(i−j)を選択する。図12に示す例では、第2の画像71(i−5)〜71(i−10)が、鳥瞰図画像63、65と、表す領域が重複する。次に、合成ユニット13は、上記のように選択した第2の画像71(i−j)を全て組み合わせて、第2の合成画像69を作成する。
ステップ28では、判断ユニット11が、前記ステップ26で取得した鳥瞰図画像63、65の輝度と、前記ステップ27で作成した第2の合成画像69の輝度とを対比する。
また、ステップ29では、鳥瞰図画像63、65の輝度と、第2の合成画像69の輝度との差分が、予め設定された閾値より大きいか否かを判断ユニット11が判断する。差分が閾値より大きい場合はステップ30に進み、差分が閾値以下である場合はステップ34に進む。
また、ステップ29では、鳥瞰図画像63、65の輝度と、第2の合成画像69の輝度との差分が、予め設定された閾値より大きいか否かを判断ユニット11が判断する。差分が閾値より大きい場合はステップ30に進み、差分が閾値以下である場合はステップ34に進む。
ステップ30では、判断ユニット11が、鳥瞰図画像63、65と、第2の合成画像69とのそれぞれについて、輝度のチェックを行う。
ステップ31では、前記ステップ30での輝度のチェックの結果に基づき、鳥瞰図画像63、65と、第2の合成画像69とのそれぞれについて、影に特有の特徴が表れているか否かを判断ユニット11が判断する。鳥瞰図画像63、65には影に特有の特徴が表れており、第2の合成画像69には影に特有の特徴が表れていない場合は、ステップ32に進み、それ以外の場合はステップ34に進む。
ステップ31では、前記ステップ30での輝度のチェックの結果に基づき、鳥瞰図画像63、65と、第2の合成画像69とのそれぞれについて、影に特有の特徴が表れているか否かを判断ユニット11が判断する。鳥瞰図画像63、65には影に特有の特徴が表れており、第2の合成画像69には影に特有の特徴が表れていない場合は、ステップ32に進み、それ以外の場合はステップ34に進む。
ステップ32では、認識停止ユニット58が、レーンマーカの認識を停止する。レーンマーカとは、走行車線を区画するものを意味する。レーンマーカとして、例えば、白線等が挙げられる。
ステップ33では、認識停止ユニット58が、ディスプレイ23にエラー表示を行う。そのエラー表示は、レーンマーカを認識できないことを意味する。
前記ステップ29又は前記ステップ31で否定判断した場合はステップ34に進む。ステップ34では、認識ユニット56が、周知の方法により、レーンマーカを認識する処理を行う。その処理の概略は以下のとおりである。図11に、レーンマーカ72の例を示す。
前記ステップ29又は前記ステップ31で否定判断した場合はステップ34に進む。ステップ34では、認識ユニット56が、周知の方法により、レーンマーカを認識する処理を行う。その処理の概略は以下のとおりである。図11に、レーンマーカ72の例を示す。
鳥瞰図画像63、65において、特徴点を検出する。特徴点とは、輝度変化が予め設定された閾値より大きい点である。次に、特徴点を通る近似曲線を算出する。次に、近似曲線のうち、レーンマーカらしさが所定の閾値以上であるものを、レーンマーカとして認識する。
ステップ35では、認識ユニット56が、前記ステップ34における認識結果を他の装置に出力する。他の装置は、レーンマーカの認識結果を、運転支援処理に使用することができる。運転支援処理としては、例えば、レーンキープアシスト等が挙げられる。
3.画像処理装置1が奏する効果
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)に加え、以下の効果が得られる。
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)に加え、以下の効果が得られる。
(2A)画像処理装置1は、図11に示すように、鳥瞰図画像63、65に影の領域55が存在する場合、レーンマーカ72の認識を停止する。そのことにより、影の領域55に起因して、レーンマーカ72の認識を誤ってしまうことを抑制できる。
<第3実施形態>
1.第2実施形態との相違点
第3実施形態は、基本的な構成は第2実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第2実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
<第3実施形態>
1.第2実施形態との相違点
第3実施形態は、基本的な構成は第2実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第2実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
画像処理装置1は、CPU3がプログラムを実行することで実現される機能の構成として、図13に示すように、画像取得ユニット7と、車両信号処理ユニット9と、判断ユニット11と、変換ユニット12と、合成ユニット13と、認識ユニット56と、条件変更ユニット73と、を備える。
2.画像処理装置1が実行する処理
画像処理装置1が実行する処理を図14に基づき説明する。図14におけるステップ41〜51の処理は、第2実施形態におけるステップ21〜31の処理と同様である。
画像処理装置1が実行する処理を図14に基づき説明する。図14におけるステップ41〜51の処理は、第2実施形態におけるステップ21〜31の処理と同様である。
ステップ52では、鳥瞰図画像63、65における影の領域の座標を、条件変更ユニット73が算出する。
ステップ53では、条件変更ユニット73が、後述するステップ54で特徴点を検出するときの閾値を変更する。すなわち、鳥瞰図画像63、65のうち、影の領域内については、特徴点を検出するときの閾値を通常の値より大きくする。なお、影の領域外では、特徴点を検出するときの閾値の値は通常の値である。特徴点を検出するときの閾値は、レーンマーカを認識するときの設定条件に対応する。
ステップ53では、条件変更ユニット73が、後述するステップ54で特徴点を検出するときの閾値を変更する。すなわち、鳥瞰図画像63、65のうち、影の領域内については、特徴点を検出するときの閾値を通常の値より大きくする。なお、影の領域外では、特徴点を検出するときの閾値の値は通常の値である。特徴点を検出するときの閾値は、レーンマーカを認識するときの設定条件に対応する。
ステップ54では、認識ユニット56が、鳥瞰図画像63、65において特徴点を検出する。このとき、特徴点の検出に用いる閾値の値は、前記ステップ53で変更した値とする。
ステップ55では、認識ユニット56が、前記ステップ54で検出した特徴点のうち、影の領域の境界線上にあるものを除去する。
ステップ56では、認識ユニット56が、特徴点を通る近似曲線を算出する。近似曲線の算出に用いる特徴点は、前記ステップ54で検出され、前記ステップ55で除去されずに残ったものである。
ステップ56では、認識ユニット56が、特徴点を通る近似曲線を算出する。近似曲線の算出に用いる特徴点は、前記ステップ54で検出され、前記ステップ55で除去されずに残ったものである。
ステップ57では、認識ユニット56が、近似曲線のうち、レーンマーカらしさが所定の閾値以上であるものを、レーンマーカとして認識する。
ステップ58では、認識ユニット56が、前記ステップ57、又は後述するステップ59における認識結果を他の装置に出力する。
ステップ58では、認識ユニット56が、前記ステップ57、又は後述するステップ59における認識結果を他の装置に出力する。
前記ステップ49、又は前記ステップ51で否定判断した場合はステップ59に進む。ステップ59では、認識ユニット56が、通常の設定でレーンマーカの認識を行う。通常の設定とは、鳥瞰図画像63、65の全体において、特徴点の検出に用いる閾値の値を通常の値にすることを意味する。また、通常の設定とは、影の領域の境界線上にある特徴点を除外する処理を行わない設定を意味する。
3.画像処理装置1が奏する効果
以上詳述した第3実施形態によれば、前述した第1実施形態の効果(1A)に加え、以下の効果が得られる。
以上詳述した第3実施形態によれば、前述した第1実施形態の効果(1A)に加え、以下の効果が得られる。
(3A)画像処理装置1は、鳥瞰図画像63、65に影の領域55が存在する場合、レーンマーカを認識するときの設定条件を、影の領域55が存在しない場合とは異なるものとする。そのことにより、影の領域に起因して、レーンマーカの認識を誤ってしまうことを抑制できる。
(3B)画像処理装置1は、前記ステップ53において、影の領域55内で特徴点を検出するときの閾値を通常の値より大きくする。また、前記ステップ55において、検出した特徴点のうち、影の領域55の境界線上にある特徴点を除外する。そのことにより、影の領域55に起因して、レーンマーカの認識を誤ってしまうことを一層抑制できる。
<他の実施形態>
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
<他の実施形態>
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)第1実施形態における前記ステップ8では、第1の画像45の輝度と、第2の画像49(i−j)の輝度とを対比してもよい。また、前記ステップ9では、第1の画像45の輝度と、第2の画像49(i−j)の輝度との差分が、予め設定された閾値より大きいか否かを判断してもよい。
また、第2実施形態における前記ステップ28、第3実施形態における前記ステップ48では、鳥瞰図画像63、65の輝度と、第2の画像71(i−j)の輝度とを対比してもよい。また、第2実施形態における前記ステップ29、第3実施形態における前記ステップ49では、鳥瞰図画像63、65の輝度と、第2の画像71(i−j)の輝度との差分が、予め設定された閾値より大きいか否かを判断してもよい。
(2)第1実施形態における前記ステップ8で対比する画像は、鳥瞰図画像に変換する前の、第1の相対位置41を表す画像と、鳥瞰図画像に変換する前の、第2の相対位置43を表す画像であってもよい。
第2実施形態における前記ステップ28、第3実施形態における前記ステップ48で対比する画像は、鳥瞰図画像に変換する前の、右カメラ57及び左カメラ59から取得した画像と、鳥瞰図画像に変換する前の、第2の相対位置39を表す画像であってもよい。
(3)第1実施形態の前記ステップ8では、第1の画像45における所定の色成分CIの強さと、第2の合成画像47における、同じ色成分CIの強さとを対比してもよい。
そして、前記ステップ9では、第1の画像45と、第2の合成画像47との、色成分CIの強さにおける差分が、予め設定された閾値より大きいか否かを判断ユニット11が判断してもよい。色成分CIの強さにおける差分が閾値より大きい場合はステップ10に進み、色成分CIの強さにおける差分が閾値以下である場合はステップ16に進む。
そして、前記ステップ9では、第1の画像45と、第2の合成画像47との、色成分CIの強さにおける差分が、予め設定された閾値より大きいか否かを判断ユニット11が判断してもよい。色成分CIの強さにおける差分が閾値より大きい場合はステップ10に進み、色成分CIの強さにおける差分が閾値以下である場合はステップ16に進む。
また、第2実施形態における前記ステップ28、29、第3実施形態における前記ステップ48、49においても、上記のように、所定の色成分CIの強さを対比し、その所定の色成分CIの強さにおける差分に基づき、判断を行ってもよい。
色成分CIとしては、例えば、青色成分等が挙げられる。
(4)第1実施形態の前記ステップ8では、第1の画像45と第2の合成画像47とについて、輝度の対比と、所定の色成分CIの強さの対比とをそれぞれ行ってもよい。
(4)第1実施形態の前記ステップ8では、第1の画像45と第2の合成画像47とについて、輝度の対比と、所定の色成分CIの強さの対比とをそれぞれ行ってもよい。
そして、前記ステップ9では、第1の画像45と、第2の合成画像47との、輝度の差分と、色成分CIの強さにおける差分とに基づき、判断を行ってもよい。例えば、輝度の差分と、色成分の強さの差分とが、いずれも、閾値より大きい場合はステップ10に進み、それ以外の場合はステップ16に進むようにすることができる。
あるいは、輝度の差分と、色成分の強さの差分とのうち、一方でも、閾値より大きい場合はステップ10に進み、それ以外の場合はステップ16に進むようにすることができる。
また、第2実施形態における前記ステップ28、29、第3実施形態における前記ステップ48、49においても、上記のように、輝度の対比と、所定の色成分CIの強さの対比との両方を行い、それらの対比の結果に基づき、判断を行ってもよい。
(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(6)上述した画像処理装置1の他、当該画像処理装置1を構成要素とするシステム、当該画像処理装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法、合成画像作成方法、レーンマーカ認識方法等、種々の形態で本発明を実現することもできる。
1…画像処理装置、7…画像取得ユニット、11…判断ユニット、19…フロントカメラ、21…リアカメラ、27…自車両、37、41…第1の相対位置、39、43…第2の相対位置、45…第1の画像、47、69…第2の合成画像、49、71…第2の画像、55…影の領域、57…右カメラ、59…左カメラ、63、65…鳥瞰図画像
Claims (11)
- 車両(27)に搭載されたカメラ(19、21、57、59)を用いて、前記車両に対して第1の相対位置(37、41、64、66)にある領域を表す第1の画像(45、63、65)、及び、前記第1の相対位置よりも前記車両の進行方向側に位置する第2の相対位置(39、43)にある領域を表す第2の画像(47、49、69、71)を取得する画像取得ユニット(7)と、
前記第1の画像と、前記第1の画像よりも早く取得され、前記第1の画像と重複する領域を表す前記第2の画像(47、69)とについて、輝度、及び/又は、所定の色成分の強さを対比することで、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域(55)が前記第1の画像に存在するか否かを判断する判断ユニット(11)と、
を備える画像処理装置(1)。 - 請求項1に記載の画像処理装置であって、
前記特定領域は、物標の影の領域、又は、照明光が照射された領域である画像処理装置。 - 請求項1又は2に記載の画像処理装置であって、
前記第1の画像取得ユニットを用いて取得した前記第1の画像を鳥瞰図画像に変換する変換ユニット(12)と、
複数の前記鳥瞰図画像を合成して合成画像(51)を作成する合成ユニット(13)と、
前記合成画像を表示する表示ユニット(17)と、
前記第1の画像に前記特定領域が存在すると前記判断ユニットが判断した場合、前記合成画像の表示を停止する表示停止ユニット(15)と、
をさらに備える画像処理装置。 - 請求項1又は2に記載の画像処理装置であって、
前記第1の画像においてレーンマーカ(72)を認識する認識ユニット(56)と、
前記第1の画像に前記特定領域が存在すると前記判断ユニットが判断した場合、前記認識ユニットによる前記レーンマーカの認識を停止する認識停止ユニット(58)と、
をさらに備える画像処理装置。 - 請求項1又は2に記載の画像処理装置であって、
前記第1の画像においてレーンマーカ(72)を認識する認識ユニット(56)と、
前記第1の画像に前記特定領域が存在すると前記判断ユニットが判断した場合、前記認識ユニットが前記レーンマーカを認識するときの設定条件を、前記第1の画像に前記特定領域が存在しないと前記判断ユニットが判断した場合とは異なる条件とする条件変更ユニット(73)と、
をさらに備える画像処理装置。 - 車両(27)に搭載されたカメラ(19、21、57、59)を用いて、前記車両に対して第1の相対位置(37、41、64、66)にある領域を表す第1の画像(45、63、65)、及び、前記第1の相対位置よりも前記車両の進行方向側に位置する第2の相対位置(39、43)にある領域を表す第2の画像(47、49、69、71)を取得し(S1、S4、S6、S21、S24、S26、S41、S44、S46)、
前記第1の画像と、前記第1の画像よりも早く取得され、前記第1の画像と重複する領域を表す前記第2の画像(47、69)とについて、輝度、及び/又は、所定の色成分の強さを対比することで、周囲に比べて輝度が高い、又は、周囲に比べて輝度が低い特定領域(55)が前記第1の画像に存在するか否かを判断する(S8〜S13、S28〜S31、S48〜S51)画像処理方法。 - 請求項6に記載の画像処理方法であって、
前記特定領域は、物標の影の領域、又は、照明光が照射された領域である画像処理方法。 - 請求項6又は7に記載の画像処理方法であって、
前記第1の画像を鳥瞰図画像に変換し(S4)、
複数の前記鳥瞰図画像を合成して合成画像(51)を作成し(S17)、
前記合成画像を表示し(S18)、
前記第1の画像に前記特定領域が存在する場合、前記合成画像の表示を停止する(S11〜S15)画像処理方法。 - 請求項6又は7に記載の画像処理方法であって、
前記第1の画像においてレーンマーカ(72)を認識し(S34、S57、S59)
前記第1の画像に前記特定領域が存在する場合、前記レーンマーカの認識を停止する(S31、S32)画像処理方法。 - 請求項6又は7に記載の画像処理方法であって、
前記第1の画像においてレーンマーカ(72)を認識し(S34、S57、S59)、
前記第1の画像に前記特定領域が存在すると判断した場合、前記レーンマーカを認識するときの設定条件を、前記第1の画像に前記特定領域が存在しないと判断した場合とは異なる条件とする(S51〜S55)画像処理方法。 - 請求項1〜5のいずれか1項に記載の画像処理装置における各ユニットとしてコンピュータを機能させるプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016088203A JP2017199130A (ja) | 2016-04-26 | 2016-04-26 | 画像処理装置、画像処理方法、及びプログラム |
| US16/096,172 US20190138839A1 (en) | 2016-04-26 | 2017-04-25 | Image processing apparatus, image processing method, and program |
| PCT/JP2017/016365 WO2017188245A1 (ja) | 2016-04-26 | 2017-04-25 | 画像処理装置、画像処理方法、及びプログラム |
| CN201780025744.0A CN109074649A (zh) | 2016-04-26 | 2017-04-25 | 图像处理装置、图像处理方法以及程序 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016088203A JP2017199130A (ja) | 2016-04-26 | 2016-04-26 | 画像処理装置、画像処理方法、及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017199130A true JP2017199130A (ja) | 2017-11-02 |
| JP2017199130A5 JP2017199130A5 (ja) | 2018-03-29 |
Family
ID=60159832
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016088203A Pending JP2017199130A (ja) | 2016-04-26 | 2016-04-26 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20190138839A1 (ja) |
| JP (1) | JP2017199130A (ja) |
| CN (1) | CN109074649A (ja) |
| WO (1) | WO2017188245A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016183890A (ja) * | 2015-03-26 | 2016-10-20 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4306363A1 (en) * | 2022-07-15 | 2024-01-17 | Ficosa Adas, S.L.U. | System and method for providing a composite image of a vehicle and its surroundings |
| CN116373745A (zh) * | 2023-05-18 | 2023-07-04 | 蔚来汽车科技(安徽)有限公司 | 辅助驾驶中盲区透明显示方法、系统、电子设备及存储介质 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008146404A (ja) * | 2006-12-11 | 2008-06-26 | Toyota Motor Corp | 車載用画像認識装置 |
| JP2009266003A (ja) * | 2008-04-25 | 2009-11-12 | Hitachi Ltd | 物体認識装置、および物体認識方法 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006224873A (ja) * | 2005-02-18 | 2006-08-31 | Denso Corp | 車両周辺監視装置 |
| CN101442618A (zh) * | 2008-12-31 | 2009-05-27 | 葛晨阳 | 用于车辆辅助驾驶的360度环形视频合成方法 |
| WO2012007993A1 (ja) * | 2010-07-14 | 2012-01-19 | 三菱電機株式会社 | 画像合成装置 |
| US10089537B2 (en) * | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
| CN103810686A (zh) * | 2014-02-27 | 2014-05-21 | 苏州大学 | 无缝拼接全景辅助驾驶系统及方法 |
| JP6330383B2 (ja) * | 2014-03-12 | 2018-05-30 | 株式会社デンソー | 合成画像生成装置、および合成画像生成プログラム |
| CN204258976U (zh) * | 2014-12-10 | 2015-04-08 | 泉州市宇云电子科技有限公司 | 一种车载全景可视系统 |
| EP3337166B1 (en) * | 2015-08-10 | 2020-01-01 | JVC Kenwood Corporation | Vehicular display apparatus and vehicular display method |
-
2016
- 2016-04-26 JP JP2016088203A patent/JP2017199130A/ja active Pending
-
2017
- 2017-04-25 WO PCT/JP2017/016365 patent/WO2017188245A1/ja not_active Ceased
- 2017-04-25 CN CN201780025744.0A patent/CN109074649A/zh not_active Withdrawn
- 2017-04-25 US US16/096,172 patent/US20190138839A1/en not_active Abandoned
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008146404A (ja) * | 2006-12-11 | 2008-06-26 | Toyota Motor Corp | 車載用画像認識装置 |
| JP2009266003A (ja) * | 2008-04-25 | 2009-11-12 | Hitachi Ltd | 物体認識装置、および物体認識方法 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016183890A (ja) * | 2015-03-26 | 2016-10-20 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20190138839A1 (en) | 2019-05-09 |
| CN109074649A (zh) | 2018-12-21 |
| WO2017188245A1 (ja) | 2017-11-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4544233B2 (ja) | 車両検出装置及びヘッドランプ制御装置 | |
| JP5680573B2 (ja) | 車両の走行環境認識装置 | |
| JP2016013793A (ja) | 画像表示装置、画像表示方法 | |
| JP5921983B2 (ja) | 車載撮像装置 | |
| JP5065172B2 (ja) | 車両灯火判定装置及びプログラム | |
| JP2012208887A (ja) | 対象物追跡装置および対象物追跡システム | |
| JP6094252B2 (ja) | 道路標識認識装置 | |
| JP2012221103A (ja) | 車両用画像処理装置 | |
| JP2012027773A (ja) | 擬似濃淡画像生成装置及びプログラム | |
| WO2013168744A1 (ja) | 車両の光源を検出する方法及び装置 | |
| WO2017188245A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| JP2014106739A (ja) | 車載画像処理装置 | |
| JP6152261B2 (ja) | 車載用駐車枠認識装置 | |
| US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
| JP2010286995A (ja) | 車両用画像処理システム | |
| JP5166933B2 (ja) | 車両認識装置、及び車両 | |
| KR101511586B1 (ko) | 터널 인식에 의한 차량 제어장치 및 제어방법 | |
| JP5712821B2 (ja) | 撮影表示制御システム | |
| JP2012103748A (ja) | 道路区画線認識装置 | |
| KR101709009B1 (ko) | 어라운드 뷰 왜곡 보정 시스템 및 방법 | |
| EP3396620A1 (en) | Display control device and display control method | |
| JP5310162B2 (ja) | 車両灯火判定装置 | |
| JP6405765B2 (ja) | 撮像装置及び判定方法 | |
| JP2013009041A (ja) | 車両用撮影表示制御システム | |
| JP6335065B2 (ja) | 車外環境認識装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180219 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180223 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190423 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191015 |