JP2018163530A - Object detection device, object detection method, and object detection program - Google Patents
Object detection device, object detection method, and object detection program Download PDFInfo
- Publication number
- JP2018163530A JP2018163530A JP2017060434A JP2017060434A JP2018163530A JP 2018163530 A JP2018163530 A JP 2018163530A JP 2017060434 A JP2017060434 A JP 2017060434A JP 2017060434 A JP2017060434 A JP 2017060434A JP 2018163530 A JP2018163530 A JP 2018163530A
- Authority
- JP
- Japan
- Prior art keywords
- image
- matching
- vehicle
- strong contrast
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 112
- 238000000034 method Methods 0.000 claims abstract description 90
- 238000012937 correction Methods 0.000 claims abstract description 49
- 238000012545 processing Methods 0.000 claims abstract description 48
- 230000010354 integration Effects 0.000 claims description 17
- 238000013459 approach Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 2
- 238000012790 confirmation Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 21
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】検知する対象物に対して外光の反射が生じている場合であっても、対象物を安定して検知することができる対象物検知装置、検知方法及び検知プログラムを提供する。【解決手段】外界認識装置の車両検知部1001において、対象画像から複数のマッチング画像を作成するマッチング画像作成部101と、各マッチング画像に対して、画像中に周囲に比して輝度が高い領域である強コントラスト領域が存在するか否かを判定する強コントラスト領域判定部102と、強コントラスト領域が存在すると判定された場合に、強コントラスト領域に対してコントラストが低減されるように輝度を補正し、補正マッチング画像を作成する強コントラスト補正部106と、補正マッチング画像を用いて、車両の存在を判定するためのマッチング処理を行う車両検出部103と、マッチング処理の処理結果に基づいて、対象画像中の車両の位置を特定する車両位置確定部108と、を備える。【選択図】図2An object detection device, a detection method, and a detection program capable of stably detecting an object even when external light is reflected on the object to be detected. In a vehicle detection unit 1001 of an external environment recognition device, a matching image generation unit 101 that generates a plurality of matching images from a target image, and an area having a higher luminance than the surroundings in each matching image And a strong contrast region determination unit 102 for determining whether or not a strong contrast region exists, and when it is determined that a strong contrast region exists, the brightness is corrected so that the contrast is reduced with respect to the strong contrast region. Then, based on the processing result of the matching process, the strong contrast correction unit 106 that creates the corrected matching image, the vehicle detection unit 103 that performs the matching process for determining the presence of the vehicle using the corrected matching image, And a vehicle position determining unit 108 for specifying the position of the vehicle in the image. [Selection] Figure 2
Description
本発明は、画像における対象物を検知する対象物検知装置等に関する。 The present invention relates to an object detection device that detects an object in an image.
近年、車両同士の衝突や、人と車両の衝突などの事故を未然に避けるため、車両周辺の状況を車載カメラで動画を撮影し、他車両や人が急接近するなどの危険を感知した際は、ドライバーに警報を出力すると共に、自動ブレーキをかけるなど車両の挙動を自動で制御する技術が進展している。特に、車両の予防安全や自動運転制御を行うためには、周辺車両の接近を常に監視し続ける必要がある。 In recent years, in order to avoid accidents such as collisions between vehicles and collisions between people and vehicles, when shooting a video of the situation around the vehicle with an in-vehicle camera and detecting dangers such as sudden approach of other vehicles or people In addition to outputting warnings to drivers, technologies to automatically control vehicle behavior, such as applying automatic braking, have been developed. In particular, in order to perform preventive safety and automatic driving control of a vehicle, it is necessary to constantly monitor the approach of surrounding vehicles.
画像解析による車両検知方法としては、様々な手法が提案されているが、事前に複数の車両形状特徴を抽象表現化(車両特徴モデル化)して記憶しておき、入力された画像中に、抽象表現化された車両形状特徴と一致する箇所が存在するか否か、或いは、画像中の任意の範囲を抽象化した形状と、抽象化した車両形状とが一致するか否かを調べる画像マッチング手法が広く知られている。 Various methods have been proposed as a vehicle detection method based on image analysis, and a plurality of vehicle shape features are abstractly expressed (vehicle feature model) and stored in advance, Image matching that checks whether there is a location that matches the abstracted vehicle shape feature, or whether the abstracted shape of any range in the image matches the abstracted vehicle shape The technique is widely known.
ところで、太陽光や街灯など強い外光が周辺に存在する時、検知しようとしている車両に反射して車両の一部に白飛びが生じる領域(周囲に対してコントラストが強い領域:強コントラスト領域ともいう。)が発生する場合がある。この様な場合において、画像マッチング手法を用いると、白とびが発生している車両の画像部分が、事前に記憶している車両形状特徴と一致しないため、車両が存在するにも関わらず、車両が不検知となる問題が生じていた。 By the way, when strong external light such as sunlight or street light is present in the surrounding area, it is reflected on the vehicle to be detected and a part of the vehicle is overexposed (a region having a strong contrast to the surroundings: both a strong contrast region) May occur). In such a case, if the image matching method is used, the image portion of the vehicle in which the overexposure occurs does not match the vehicle shape feature stored in advance, so that the vehicle exists even though the vehicle exists. There was a problem that was undetected.
この問題に対する技術として、特許文献1には、検知対象である車両形状の一部を示す輪郭線の特徴量を示す車両形状テンプレートデータを記憶するステップにおいて、光源の条件(ストロボ等の照明の使用の有無、太陽光の状態、順光、逆光など)を意図的に変化させて作成したテンプレートデータを追加することで、想定外の強コントラスト領域が発生した際に対処する方法が開示されている。 As a technique for this problem, Patent Document 1 discloses a light source condition (use of illumination such as a strobe) in the step of storing vehicle shape template data indicating a feature amount of a contour line indicating a part of a vehicle shape to be detected. A method for coping with unexpected strong contrast regions by adding template data created by intentionally changing the presence / absence of light, the state of sunlight, forward light, backlight, etc.) .
上述した特許文献1に開示された技術では、意図的に車両に外光が反射している状態を作り出してテンプレートデータに追加することで、検知車両の画像の白飛びに対処するようにしている。しかしながら、検知車両の向き、周囲の建物の状況(外光の二次反射の存在)、時間帯等に応じて、太陽光や街灯光の影響による反射パターンは無限に存在し、それら全てについての特徴表現をテンプレートデータとするのは困難を極める。仮に、一部の反射パターンをテンプレート化したとしても、反射パターンが無限に存在することから、実際の検知車両の状態と一致する確率は低く、安定した車両検知を実行することは困難である。また、検知する対象物が車両である場合に限らず、同様な状況は、他の対象物を検知する場合にも発生する。 In the technique disclosed in Patent Literature 1 described above, a state in which external light is intentionally reflected on the vehicle is intentionally created and added to the template data to deal with whiteout of the image of the detected vehicle. . However, depending on the direction of the detection vehicle, the situation of surrounding buildings (existence of secondary reflection of external light), the time zone, etc., there are an infinite number of reflection patterns due to the influence of sunlight and streetlights. It is extremely difficult to use feature expression as template data. Even if some of the reflection patterns are made into templates, the reflection patterns exist infinitely, so the probability of matching with the actual state of the detected vehicle is low, and it is difficult to perform stable vehicle detection. The same situation occurs not only when the object to be detected is a vehicle, but also when other objects are detected.
本発明は、上記事情に鑑みなされたものであり、その目的は、検知する対象物に対して外光の反射が生じている場合であっても、対象物を安定して検知することのできる技術を提供することにある。 The present invention has been made in view of the above circumstances, and the object of the present invention is to stably detect an object even when external light is reflected on the object to be detected. To provide technology.
上記目的を達成するため、一観点に係る対象物検知装置は、所定の対象画像から対象物を検出する対象物検知装置であって、対象画像から、対象物の存在を判定するためのマッチング処理に用いるための複数のマッチング画像を作成するマッチング画像作成部と、複数のマッチング画像のそれぞれに対して、マッチング画像中に周囲に比して輝度が高い領域である強コントラスト領域が存在するか否かを判定する強コントラスト領域判定部と、マッチング画像中に強コントラスト領域が存在すると判定された場合に、マッチング画像中の強コントラスト領域に対して、コントラストが低減されるように輝度を補正して、補正マッチング画像を作成する強コントラスト補正部と、マッチング画像又は補正マッチング画像を用いて、対象物の存在を判定するためのマッチング処理を行うマッチング処理部と、マッチング処理の処理結果に基づいて、対象画像中の対象物の位置を特定する対象物位置特定部と、を備える。 In order to achieve the above object, an object detection apparatus according to one aspect is an object detection apparatus that detects an object from a predetermined object image, and a matching process for determining the presence of the object from the object image A matching image creation unit that creates a plurality of matching images for use in the image processing, and whether or not there is a strong contrast region that has a higher brightness than the surroundings in the matching image for each of the plurality of matching images A strong contrast region determination unit that determines whether or not a strong contrast region exists in the matching image, and corrects the luminance so that the contrast is reduced with respect to the strong contrast region in the matching image. The presence of an object using a strong contrast correction unit that creates a corrected matching image and a matching image or a corrected matching image It includes a matching processing section that performs a matching process for determining, based on the processing result of the matching process, and the object position specifying unit for specifying a position of the object in the target image.
本発明によれば、検知する対象物に対して外光の反射が生じている場合であっても、対象物を安定して検知することができる。 According to the present invention, it is possible to stably detect an object even when external light is reflected on the object to be detected.
実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Embodiments will be described with reference to the drawings. The embodiments described below do not limit the invention according to the claims, and all the elements and combinations described in the embodiments are essential for the solution of the invention. Is not limited.
図1は、外界認識装置を含む車載システムの全体構成図である。 FIG. 1 is an overall configuration diagram of an in-vehicle system including an external environment recognition device.
車載システム10は、対象物検知装置の一例としての外界認識装置1000と、車載カメラ1010と、制御部1011と、メモリ1012と、自車両制御部1013と、を備えている。外界認識装置1000と、車載カメラ1010と、制御部1011と、メモリ1012と、自車両制御部1013とは、例えば、バス1018を介して接続されている。 The in-vehicle system 10 includes an external environment recognition device 1000 as an example of an object detection device, an in-vehicle camera 1010, a control unit 1011, a memory 1012, and a host vehicle control unit 1013. The external environment recognition apparatus 1000, the in-vehicle camera 1010, the control unit 1011, the memory 1012, and the host vehicle control unit 1013 are connected via a bus 1018, for example.
車載カメラ1010は、車載システム10が搭載されている車両(自車両)の周囲の画像(例えば、動画像)を撮影する。車載カメラ1010は、周辺車両を認識しやすいように自車両の任意の箇所に設置されている。具体的には、車載カメラ1010は、車両外部のフロントバンパー、リアバンパー、左右のサイドミラー等に設置してもよい。車載カメラ1010は、特定の領域のみの車両を認識することを目的に一台で設置してもよいし、自車両の周辺の全体を認識できるように複数台設置するようにしてもよい。また、車載カメラ1010は、自車両の車内に設置するようにしても良い。車載カメラ1010は、例えば、魚眼カメラであり、周囲の画像を魚眼カメラ画像として撮影する。ここで、車載カメラ1010を魚眼カメラとすると、撮影範囲を広くすることができ、少ない画像により広範囲をカバーすることができるので、車両検知処理においては、処理対象とする画像数を低減することができ、車両検知処理の処理負荷を軽減することができる。 The in-vehicle camera 1010 captures an image (for example, a moving image) around a vehicle (own vehicle) on which the in-vehicle system 10 is mounted. The in-vehicle camera 1010 is installed at an arbitrary location of the host vehicle so that the surrounding vehicle can be easily recognized. Specifically, the in-vehicle camera 1010 may be installed on a front bumper, a rear bumper, left and right side mirrors, etc. outside the vehicle. One on-vehicle camera 1010 may be installed for the purpose of recognizing a vehicle only in a specific area, or a plurality of in-vehicle cameras 1010 may be installed so that the entire periphery of the host vehicle can be recognized. Moreover, you may make it install the vehicle-mounted camera 1010 in the vehicle of the own vehicle. The in-vehicle camera 1010 is, for example, a fisheye camera, and captures surrounding images as fisheye camera images. Here, if the in-vehicle camera 1010 is a fisheye camera, the shooting range can be widened, and a wide range can be covered with a small number of images. Therefore, in the vehicle detection process, the number of images to be processed can be reduced. And the processing load of the vehicle detection process can be reduced.
メモリ1012は、車載カメラ1010により撮影された画像を一時的に保持する。制御部1011は、車載カメラ1010と外界認識装置1000との間の画像の入出力、外界認識装置1000と自車両制御部1013との間の各種情報(後述する認識結果情報や警告情報等)の入出力を制御する。自車両制御部1013は、車両全体を統括制御する。例えば、自車両制御部1013は、外界認識装置1000から認識結果情報や、警告情報等を受信した場合には、その情報に基づいて、車両の制御(制動制御等)を実行する。 The memory 1012 temporarily holds an image taken by the in-vehicle camera 1010. The control unit 1011 inputs and outputs images between the in-vehicle camera 1010 and the external recognition device 1000, and various information (such as recognition result information and warning information described later) between the external recognition device 1000 and the host vehicle control unit 1013. Control input and output. The own vehicle control unit 1013 performs overall control of the entire vehicle. For example, when the vehicle control unit 1013 receives recognition result information, warning information, or the like from the external environment recognition device 1000, the vehicle control unit 1013 performs vehicle control (braking control or the like) based on the information.
外界認識装置1000は、車両検知部1001と、周辺状態認識部1004と、警報処理部1008と、ドライバー通知部1009とを有する。本実施形態では、外界認識装置1000は、プロセッサとメモリとを備えるコンピュータであり、各機能部は、外界認識装置1000に備えられたプロセッサが、外界認識装置1000に備えられたメモリに格納されたプログラムを実行することにより構成される。 The external environment recognition apparatus 1000 includes a vehicle detection unit 1001, a surrounding state recognition unit 1004, an alarm processing unit 1008, and a driver notification unit 1009. In this embodiment, the external environment recognition apparatus 1000 is a computer including a processor and a memory, and each functional unit is stored in a memory included in the external environment recognition apparatus 1000 by a processor included in the external environment recognition apparatus 1000. It is configured by executing a program.
車両検知部1001は、車載カメラ1010により撮影された画像を入力し、車両を検出する車両検知処理を実行する。車両検知処理については、後述する。車両検知部1001は、車両検知処理の処理結果に基づいて、車両の接近または衝突の危険を表す車両接近信号や、検出した車両の位置を示す車両位置情報や、車両検知ができなかったことを示す検知FAIL信号を周辺状態認識部1004に出力する。 The vehicle detection unit 1001 inputs an image captured by the in-vehicle camera 1010 and executes a vehicle detection process for detecting the vehicle. The vehicle detection process will be described later. Based on the processing result of the vehicle detection process, the vehicle detection unit 1001 detects a vehicle approach signal indicating the risk of approaching or colliding with the vehicle, vehicle position information indicating the position of the detected vehicle, or failure in vehicle detection. The detected FAIL signal is output to the peripheral state recognition unit 1004.
周辺状態認識部1004は、自車両周辺の状態(自車両周辺の車両の状態を含む)を認識する認識処理を実行する周辺認識部1005を有する。周辺認識部1005が実行する認識処理としては、例えば、車載カメラ1010により撮影された画像の解析処理を行って、自車両の近傍および遠方の周辺空間における、バイク、自転車を含む他車両および歩行者の有無、自車両の走行や駐車の妨げになる障害物体の有無を検知して認識する処理や、自車両の近傍および遠方のバイク、自転車を含む他車両および歩行者の急接近を検知して、自車両との衝突を予測する処理や、自車両と障害物との衝突を予測する処理がある。この場合には、周辺認識部1005は、認識結果の情報(認識結果情報)を警報処理部1008に出力する。また、周辺認識部1005による認識処理としては、走行中に自車両が車線を逸脱したことを示す警告情報を警報処理部1008に出力する車線逸脱警報処理や、自車両のドライバーからの死角に人や他車両が入り込んだことを示す警告情報を警報処理部1008に出力する死角警報処理がある。 The surrounding state recognition unit 1004 includes a surrounding recognition unit 1005 that executes a recognition process for recognizing a state around the host vehicle (including a state of the vehicle around the host vehicle). As the recognition process executed by the periphery recognition unit 1005, for example, an analysis process of an image taken by the in-vehicle camera 1010 is performed, and other vehicles and pedestrians including motorbikes and bicycles in the vicinity of the host vehicle and in a distant peripheral space. Detecting and recognizing the presence or absence of obstacles that hinder the running or parking of the host vehicle, and detecting the sudden approach of other vehicles and pedestrians including motorcycles and bicycles in the vicinity and far away of the host vehicle There are a process for predicting a collision with the host vehicle and a process for predicting a collision between the host vehicle and an obstacle. In this case, the peripheral recognition unit 1005 outputs information on the recognition result (recognition result information) to the alarm processing unit 1008. The recognition processing by the periphery recognition unit 1005 includes lane departure warning processing for outputting warning information indicating that the host vehicle has deviated from the lane during traveling to the warning processing unit 1008, and a blind spot from the driver of the host vehicle. There is a blind spot alarm process that outputs warning information indicating that another vehicle has entered the alarm processing unit 1008.
また、周辺認識部1005は、車両検知部1001から検知FAIL信号が入力されていて、車載カメラ1010から入力されている画像が暗いなどして車両の検知が困難な状態である場合には、正確な画像認識処理が困難であり、誤認識が生じ易い状態であるために、自身の動作と、車両検知部1001の動作とを一時的または連続して停止させる制御を行う。この際、周辺認識部1005は、周辺認識部1005が動作停止状態であることを示す通知情報(汚れ通知情報)をドライバー通知部1009に出力する。 In addition, the periphery recognition unit 1005 is accurate when the detection FAIL signal is input from the vehicle detection unit 1001 and it is difficult to detect the vehicle because the image input from the in-vehicle camera 1010 is dark. Since it is difficult to perform image recognition processing and misrecognition is likely to occur, control is performed to temporarily or continuously stop its own operation and the operation of the vehicle detection unit 1001. At this time, the periphery recognition unit 1005 outputs notification information (dirt notification information) indicating that the periphery recognition unit 1005 is in an operation stop state to the driver notification unit 1009.
警報処理部1008は、周辺認識部1005から認識結果情報や警報信号を受信した場合に、受信した認識結果情報や警報信号を自車両制御部1013に送信する。これにより、自車両制御部1013が認識結果情報や警報信号に基づいて、適切な制御を実行することができる。 When the warning processing unit 1008 receives the recognition result information and the warning signal from the periphery recognition unit 1005, the warning processing unit 1008 transmits the received recognition result information and the warning signal to the own vehicle control unit 1013. Thereby, the own vehicle control part 1013 can perform suitable control based on recognition result information or a warning signal.
ドライバー通知部1009は、例えば、LED1014、スピーカ1015、ディスプレイ1016、カーナナビゲーションシステム(カーナビ)1017等と接続されており、周辺認識部1005からドライバーに通知すべき通知情報を受け取った場合に、LED1014を点灯させ、スピーカ1015により音声出力させ、ディスプレイ1016に表示出力させ、カーナナビゲーションシステム(カーナビ)1017に表示出力させる等することにより、ドライバーへ通知情報を通知する処理を行う。これにより、ドライバーに対して通知情報を適切に通知することができる。 The driver notification unit 1009 is connected to, for example, the LED 1014, the speaker 1015, the display 1016, the carna navigation system (car navigation) 1017, and the like. When the notification information to be notified to the driver is received from the periphery recognition unit 1005, the driver notification unit 1009 A process of notifying the driver of the notification information is performed by turning on the light, causing the speaker 1015 to output sound, causing the display 1016 to perform display output, and causing the carna navigation system (car navigation) 1017 to perform display output. Thereby, notification information can be appropriately notified to the driver.
次に、外界認識装置1000の車両検知部1001の機能構成について説明する。 Next, the functional configuration of the vehicle detection unit 1001 of the external environment recognition apparatus 1000 will be described.
図2は、外界認識装置の車両検知部の機能構成図である。 FIG. 2 is a functional configuration diagram of the vehicle detection unit of the external recognition apparatus.
車両検知部1001は、画像歪補正部100と、マッチング画像作成部101と、強コントラスト領域判定部102と、マッチング処理部の一例としての車両検出部103と、対象物追跡部の一例としての車両追跡部104と、車両位置統合部105と、強コントラスト補正部106と、強コントラスト領域追跡部107と、確定判定部及び接近判断部の一例としての車両確定部108と、を備える。ここで、車両追跡部104、車両位置統合部105、強コントラスト領域追跡部107、及び車両確定部108が、対象物位置特定部の一例である。 The vehicle detection unit 1001 includes an image distortion correction unit 100, a matching image creation unit 101, a strong contrast region determination unit 102, a vehicle detection unit 103 as an example of a matching processing unit, and a vehicle as an example of an object tracking unit. A tracking unit 104, a vehicle position integration unit 105, a strong contrast correction unit 106, a strong contrast region tracking unit 107, and a vehicle determination unit 108 as an example of a determination determination unit and an approach determination unit are provided. Here, the vehicle tracking unit 104, the vehicle position integration unit 105, the strong contrast region tracking unit 107, and the vehicle determination unit 108 are examples of the object position specifying unit.
画像歪補正部100は、車載カメラ1010により撮影された動画の1フレームの画像を周期的に入力する。ここで、本実施形態では、フレーム画像は、魚眼カメラ画像となっている。画像歪補正部100は、魚眼カメラ画像の所定の領域の画像を、歪のない画像(歪補正画像:対象画像)に変換し、マッチング画像作成部101に渡す。 The image distortion correction unit 100 periodically inputs an image of one frame of a moving image taken by the in-vehicle camera 1010. Here, in the present embodiment, the frame image is a fisheye camera image. The image distortion correction unit 100 converts an image of a predetermined area of the fisheye camera image into an image without distortion (distortion correction image: target image) and passes the image to the matching image creation unit 101.
マッチング画像作成部101は、画像歪補正部100から受け取った画像(歪補正画像)から、この画像よりもサイズが小さく、車両を検出するためのマッチングに使用するためのマッチング画像を逐次作成し、作成したマッチング画像を強コントラスト領域判定部102に逐次渡す。 The matching image creation unit 101 sequentially creates a matching image that is smaller in size than this image and is used for matching for detecting a vehicle, from the image (distortion correction image) received from the image distortion correction unit 100, The created matching image is sequentially transferred to the strong contrast region determination unit 102.
強コントラスト領域判定部102は、マッチング画像中に強コントラスト領域(例えば、太陽光や街灯など強い外光の影響で周囲の画素よりも相対的に輝度が高く、画像の一部が白飛びした状態の領域を含む領域)があるか否かを判定する。強コントラスト領域判定部102は、マッチング画像中に強コントラスト領域がある場合には、マッチング画像を強コントラスト補正部106に渡す一方、マッチング画像中に強コントラスト領域がない場合には、マッチング画像を車両検出部103に渡す。 The strong contrast region determination unit 102 is a state in which a matching image has a high contrast region (for example, the brightness is relatively higher than that of surrounding pixels due to the influence of strong external light such as sunlight or a streetlight, and a part of the image is whiteout) It is determined whether or not there is an area including the area (1). When there is a strong contrast region in the matching image, the strong contrast region determination unit 102 passes the matching image to the strong contrast correction unit 106. On the other hand, when there is no strong contrast region in the matching image, the strong contrast region determination unit 102 It passes to the detection unit 103.
強コントラスト補正部106は、強コントラスト領域があるマッチング画像を強コントラスト領域判定部102から受け取った場合には、マッチング画像中の強コントラスト領域に対して、コントラストを低減するためのシャドウ化処理(コントラスト低減処理)を実施して、強コントラスト領域に対してシャドウ化処理を施した画像(補正マッチング画像)を車両検出部103に渡すとともに、強コントラスト領域追跡部107に強コントラスト領域の位置情報(例えば、歪補正画像中の位置の情報)を渡す。 When the strong contrast correction unit 106 receives a matching image having a strong contrast region from the strong contrast region determination unit 102, the strong contrast correction unit 106 performs a shadowing process (contrast for reducing the contrast on the strong contrast region in the matching image). The image (corrected matching image) obtained by performing the shadowing process on the strong contrast region is passed to the vehicle detection unit 103, and the strong contrast region tracking unit 107 is provided with position information (for example, a strong contrast region). , Position information in the distortion-corrected image).
車両検出部103は、強コントラスト領域判定部102から受け取ったマッチング画像、又は、強コントラスト補正部106から受け取った補正マッチング画像と、車両特徴モデルとのマッチング処理を行って、マッチング画像(補正マッチング画像)中に車両の可能性が高い車両候補が存在するか否かを判定する車両検出処理を実行する。本実施形態では、車両検出部103は、マッチング処理におけるマッチング画像(又は補正マッチング画像)と車両特徴モデルとの適合度合いに基づいて、マッチング画像(又は補正マッチング画像)中の物体が車両である可能性を示すスコア(評価値)を特定し、このスコアが所定の閾値以上か否かに基づいて、車両候補が存在するか否かを判定している。なお、本実施形態では、車両検出部103で検出された車両候補は、車両確定部108による判断を経て、車両であると確定されることとなる。 The vehicle detection unit 103 performs a matching process between the matching image received from the strong contrast region determination unit 102 or the corrected matching image received from the strong contrast correction unit 106 and the vehicle feature model, and the matching image (corrected matching image). ) To execute a vehicle detection process for determining whether or not a vehicle candidate having a high possibility of a vehicle exists. In the present embodiment, the vehicle detection unit 103 may determine that the object in the matching image (or the corrected matching image) is a vehicle based on the degree of matching between the matching image (or the corrected matching image) and the vehicle feature model in the matching process. A score (evaluation value) indicating sex is specified, and whether or not a vehicle candidate exists is determined based on whether or not this score is equal to or greater than a predetermined threshold. In the present embodiment, the vehicle candidate detected by the vehicle detection unit 103 is determined to be a vehicle through the determination by the vehicle determination unit 108.
車両検出部103は、同一の歪補正画像から作成された各マッチング画像(又は補正マッチング画像)に対する車両候補の検出有無に従って、歪補正画像における車両候補の位置情報を車両追跡部104に通知する。 The vehicle detection unit 103 notifies the vehicle tracking unit 104 of positional information of the vehicle candidate in the distortion corrected image according to whether or not the vehicle candidate is detected for each matching image (or corrected matching image) created from the same distortion correction image.
車両追跡部104は、車両検出部103から通知される複数フレーム画像のそれぞれに対応する歪補正画像における車両候補の位置情報に基づいて、同一の車両候補の時間経過に伴う位置を追跡し、追跡結果(車両候補追跡結果)を車両位置統合部105に通知する。 The vehicle tracking unit 104 tracks and tracks the position of the same vehicle candidate over time based on the position information of the vehicle candidate in the distortion corrected image corresponding to each of the plurality of frame images notified from the vehicle detection unit 103. The result (vehicle candidate tracking result) is notified to the vehicle position integration unit 105.
強コントラスト領域追跡部107は、強コントラスト補正部106から渡される複数フレームのそれぞれに対応する歪補正画像おける強コントラスト領域の位置に基づいて、同一の強コントラスト領域の時間経過に伴う位置を追跡し、追跡結果(強コントラスト領域追跡結果)を車両位置統合部105に通知する。 The strong contrast region tracking unit 107 tracks the position of the same strong contrast region over time based on the position of the strong contrast region in the distortion corrected image corresponding to each of a plurality of frames passed from the strong contrast correcting unit 106. The tracking result (strong contrast region tracking result) is notified to the vehicle position integration unit 105.
車両位置統合部105は、車両追跡部104の車両候補追跡結果と、強コントラスト領域追跡部107の強コントラスト領域追跡結果とを統合することにより、マッチング画像(又は補正マッチング画像)中の物体が車両である可能性を示すスコアを調整する。具体的には、車両位置統合部105は、車両追跡部104の追跡結果と、強コントラスト領域追跡部107の追跡結果とが同じ物体に対応する追跡結果である場合には、この物体が車両である可能性を示すスコアに所定値を加算する。 The vehicle position integration unit 105 integrates the vehicle candidate tracking result of the vehicle tracking unit 104 and the strong contrast region tracking result of the strong contrast region tracking unit 107 so that the object in the matching image (or the corrected matching image) is the vehicle. Adjust the score to indicate that Specifically, when the tracking result of the vehicle tracking unit 104 and the tracking result of the strong contrast region tracking unit 107 are tracking results corresponding to the same object, the vehicle position integration unit 105 is a vehicle. A predetermined value is added to a score indicating a certain possibility.
車両確定部108は、車両位置統合部105によって調整されたスコアが所定の閾値(車両検出部13において車両候補を判定する際の閾値よりも大きい値)以上であるか否かを判定し、スコアが閾値以上である場合には車両候補が車両であると確定し、その車両の歪補正画像中の位置を確定する一方、それ以外の場合には、車両候補は車両ではないと確定する。車両確定部108は、車両候補が車両であると確定すると、その車両の画像中の位置に基づいて、その車両と自車両との間の距離を算出し、自車両との間の距離が予め設定された距離(注意・警報距離)よりも短いか否かを判定し、自車両との間の距離が注意・警報距離よりも短い場合には、その車両の位置を示す車両位置情報および車両が近接していることを示す車両接近信号を周辺状態認識部104に出力する。また、車両確定部108は、連続して入力されるフレーム画像に対する車両検知処理による検知結果が、検知(車両が検知されたこと)と、不検知(車両が検知されなかったこと)とが短期間(例えば、1フレームごと)で切り替わるような状態、すなわち、実際には起こりえないような状態になった場合には、車両検知処理の信頼性が低下している判断して、適切な車両検知が行えていないことを示す検知FAIL信号を周辺状態認識部104に出力する。 The vehicle determination unit 108 determines whether or not the score adjusted by the vehicle position integration unit 105 is equal to or greater than a predetermined threshold (a value larger than the threshold when the vehicle detection unit 13 determines a vehicle candidate). Is equal to or greater than the threshold value, it is determined that the vehicle candidate is a vehicle and the position of the vehicle in the distortion correction image is determined. In other cases, the vehicle candidate is determined not to be a vehicle. When the vehicle determination unit 108 determines that the vehicle candidate is a vehicle, the vehicle determination unit 108 calculates the distance between the vehicle and the host vehicle based on the position in the image of the vehicle, and the distance from the host vehicle is determined in advance. It is determined whether or not the distance is shorter than the set distance (caution / alarm distance). If the distance to the host vehicle is shorter than the attention / alarm distance, the vehicle position information indicating the position of the vehicle and the vehicle Is output to the surrounding state recognition unit 104. Further, the vehicle determination unit 108 detects that the detection result by the vehicle detection process for the continuously input frame images is short-term between detection (a vehicle was detected) and non-detection (a vehicle was not detected). When the state is switched between (for example, every frame), that is, in a state that cannot actually occur, it is determined that the reliability of the vehicle detection process has decreased, and the appropriate vehicle A detection FAIL signal indicating that the detection cannot be performed is output to the peripheral state recognition unit 104.
次に、画像歪補正部100による処理について詳細に説明する。 Next, processing performed by the image distortion correction unit 100 will be described in detail.
図3は、魚眼カメラ画像と、その画像の歪補正を説明する図である。図3(a)は、自車両の右サイドミラーに設置した車載カメラ1010により撮影された動画の1フレームの魚眼カメラ画像を示している。図3(b)は、魚眼カメラ画像の歪を補正した画像の一例を示している。 FIG. 3 is a diagram for explaining a fisheye camera image and distortion correction of the image. FIG. 3A shows a 1-frame fisheye camera image of a moving image taken by the in-vehicle camera 1010 installed on the right side mirror of the host vehicle. FIG. 3B shows an example of an image obtained by correcting the distortion of the fisheye camera image.
図3(a)に示す、車載カメラ1010により撮影された動画の1フレームの魚眼カメラ画像200においては、左側が自車両の前方(フロント方向)となり、右側が自車両の後方(リア方向)となる。魚眼カメラ画像200の中央には、路面204が映り、上部には、空などの背景205が映り、下部には、自車両のボディ203が映り、右側には、後方からの接近車両202が映っている。ここで、本実施形態では、例えば、魚眼カメラ画像200における、自車両の後方の一部(例えば、自車両に対して右後方側)が映る領域201を、車両の検知を行う車両検知領域201として設定している。 In the one-frame fisheye camera image 200 of the moving image taken by the in-vehicle camera 1010 shown in FIG. 3A, the left side is the front (front direction) of the host vehicle, and the right side is the rear (rear direction) of the host vehicle. It becomes. The road surface 204 is shown in the center of the fisheye camera image 200, the background 205 such as the sky is shown in the upper part, the body 203 of the host vehicle is shown in the lower part, and the approaching vehicle 202 from the rear is shown on the right side. It is reflected. Here, in the present embodiment, for example, in the fisheye camera image 200, a region 201 in which a part of the rear of the host vehicle (for example, the right rear side with respect to the host vehicle) is shown is a vehicle detection region that detects the vehicle. 201 is set.
魚眼カメラ画像200は、撮像範囲が広範囲となっているが、図示するように、画像が歪んだ状態となっている。特に、魚眼カメラ画像200の上下左右端に近い程(遠方領域となる程)、画像の解像度が侠角レンズ画像よりも低くなる傾向がある。 The fish-eye camera image 200 has a wide imaging range, but the image is distorted as shown in the figure. In particular, the closer to the top, bottom, left and right edges of the fisheye camera image 200 (the farther the region is), the lower the resolution of the image than the depression lens image.
このように、魚眼カメラ画像200は、画像が歪んでいるので、マッチング処理を行う車両検知に使用するには適していない。そこで、本実施形態では、画像歪補正部100が、魚眼カメラ画像200の車両検知領域201の画像を図3(b)に示すように、歪のない画像(歪補正画像)206に補正している。魚眼カメラ画像における歪を補正する方法としては、例えば、既知の魚眼レンズの歪特性から実際の空間写像に変換する非線形局部幾何補正法や、歪係数を簡易的に表現した線形局部幾何補正法などを用いることができるが、その他の方法を用いてもよい。 Thus, since the image is distorted, the fisheye camera image 200 is not suitable for use in vehicle detection for performing matching processing. Therefore, in the present embodiment, the image distortion correction unit 100 corrects the image of the vehicle detection area 201 of the fisheye camera image 200 to an image without distortion (distortion correction image) 206 as shown in FIG. ing. Examples of a method for correcting distortion in a fisheye camera image include a nonlinear local geometric correction method that converts a distortion characteristic of a known fisheye lens into an actual spatial mapping, and a linear local geometric correction method that simply represents a distortion coefficient. However, other methods may be used.
本実施形態では、画像歪補正部100は、図3(a)に示す近接車両202、背景205、及び路面204が、図3(b)の接近車両209、背景207、及び路面208のように、すなわち、実際の空間写像と同等に見えるように補正している。 In this embodiment, the image distortion correction unit 100 is configured such that the approaching vehicle 202, the background 205, and the road surface 204 illustrated in FIG. 3A are similar to the approaching vehicle 209, the background 207, and the road surface 208 illustrated in FIG. That is, the correction is made so that it looks equivalent to the actual spatial mapping.
次に、マッチング画像作成部101による処理について詳細に説明する。 Next, processing by the matching image creation unit 101 will be described in detail.
図4は、マッチング画像の生成例を説明する図である。図4(a)は、入力画像からマッチング画像を生成する方法を説明する図である。図4(b)は、マッチング画像による車両の検知の概略を説明する図である。 FIG. 4 is a diagram illustrating an example of generating a matching image. FIG. 4A illustrates a method for generating a matching image from an input image. FIG. 4B is a diagram illustrating an outline of vehicle detection based on a matching image.
マッチング画像とは、後述するマッチング処理において、予め外界認識装置100の図示しないメモリに記憶してある車両特徴モデルと比較するための画像であり、本実施形態では、画像歪補正部100から受け取る入力画像よりも小さいサイズの画像である。このマッチング画像から抽出した車両特徴と、車両特徴モデルとを比較して一致している度合いを調べることで、車両の存在有無を検知することができる。 The matching image is an image for comparison with a vehicle feature model stored in advance in a memory (not shown) of the external recognition device 100 in a matching process described later. In this embodiment, the input is received from the image distortion correction unit 100. The image is smaller than the image. The presence or absence of the vehicle can be detected by comparing the vehicle feature extracted from the matching image with the vehicle feature model and checking the degree of matching.
マッチング画像作成部101は、図4(a)に示すように、入力画像300(図3(b)の歪補正画像206に対応)に対して、マッチング画像301として切り出す範囲を、左上から右下方向に向かってラスタースキャン状に移動させることにより、複数のマッチング画像を作成している。より具体的には、マッチング画像作成部101は、マッチング画像を切り出す範囲を、左上の原点を基準にした所定のサイズの範囲とし、次に、水平方向に少しずらした位置を基準とした範囲とし、切り出す範囲が入力画像300の右端に到達するまでこれを繰り返し、切り出す範囲が入力画像300の右端に到達したら、垂直方向に少しずらした位置且つ左端を基準とした範囲としていくようにして、結果として線302に示すように移動させる。これにより、入力画像300の全体にわたって、マッチング画像を切り出すことができ、入力画像300において、後述する車両の検知の処理対象としていない領域が生じないようにすることができる。なお、入力画像300からマッチング画像を作成する方法は、これに限られず、入力画像300において切り出されていない領域が生じなければ、任意の方法でよい。 As shown in FIG. 4A, the matching image creating unit 101 sets the range to be cut out as the matching image 301 for the input image 300 (corresponding to the distortion corrected image 206 in FIG. 3B) from the upper left to the lower right. A plurality of matching images are created by moving in a raster scan direction. More specifically, the matching image creating unit 101 sets a range where the matching image is cut out as a range of a predetermined size with respect to the origin at the upper left, and then a range based on a position slightly shifted in the horizontal direction. This is repeated until the cut-out range reaches the right end of the input image 300. When the cut-out range reaches the right end of the input image 300, the result is obtained by setting the position slightly shifted in the vertical direction and using the left end as a reference range. As shown by a line 302. As a result, the matching image can be cut out over the entire input image 300, and an area that is not a target of vehicle detection processing, which will be described later, can be prevented from occurring in the input image 300. Note that the method of creating a matching image from the input image 300 is not limited to this, and any method may be used as long as an uncut region does not occur in the input image 300.
このようにマッチング画像を作成することにより、図4(b)に示すように、車両305、背景306、及び路面307が含まれている入力画像300から切り出される複数のマッチング画像中に、車両305が含まれているマッチング画像304を含めることができる。このため、各マッチング画像に対して車両検出処理を実行することにより、車両305が含まれているマッチング画像304において、車両を検知することができる。したがって、入力画像300のいずれの位置に車両が映っていても、車両の存在を適切に検出することができる。 By creating the matching image in this way, as shown in FIG. 4B, the vehicle 305 is included in a plurality of matching images cut out from the input image 300 including the vehicle 305, the background 306, and the road surface 307. Can be included. For this reason, a vehicle can be detected in the matching image 304 including the vehicle 305 by executing the vehicle detection process on each matching image. Therefore, regardless of the position of the input image 300, the presence of the vehicle can be detected appropriately.
次に、車両検出部103による処理について詳細に説明する。 Next, the process by the vehicle detection unit 103 will be described in detail.
車両検出部103は、マッチング画像作成部101により作成されたマッチング画像、又は、強コントラスト補正部106により作成された補正マッチング画像から得た画像特徴と、車両特徴モデルとの一致度合いを示すスコアを特定し、スコアが所定の閾値以上であれば、車両(車両候補)が存在していると認知する。なお、スコアが所定値未満の場合には、車両検出部103は、車両(車両候補)が存在していないと認知する。 The vehicle detection unit 103 obtains a score indicating the degree of coincidence between the image feature obtained from the matching image created by the matching image creation unit 101 or the corrected matching image created by the strong contrast correction unit 106 and the vehicle feature model. If it is specified and the score is equal to or greater than a predetermined threshold, it is recognized that a vehicle (vehicle candidate) exists. When the score is less than the predetermined value, the vehicle detection unit 103 recognizes that there is no vehicle (vehicle candidate).
車両検出部103による車両検出処理に用いる画像特徴としては、例えば、HaarLike特徴を用いることができる。なお、車両検出に用いる画像特徴は、HaarLike特徴以外の表現方法を用いてもよい。 As an image feature used for vehicle detection processing by the vehicle detection unit 103, for example, a HaarLike feature can be used. Note that the image feature used for vehicle detection may use an expression method other than the HaarLike feature.
ここで、HaarLike特徴とは、対象物の複数個のエッジ周辺に関する画像状態を白黒の2値化したパタンデータに置き換えて特徴表現する方法のことである。似た形状の車両同士であれば、車両画像のエッジ周辺の2値化パタンデータも似た数値になることが知られており、マッチング画像を用いた車両検出にこの特徴を利用することができる。 Here, the HaarLike feature is a method of expressing a feature by replacing the image state related to the periphery of a plurality of edges of an object with black and white binarized pattern data. It is known that the binarized pattern data around the edges of the vehicle image have similar numerical values if the vehicles have similar shapes, and this feature can be used for vehicle detection using a matching image. .
図5は、マッチング画像を使ったマッチング処理を説明する図である。図5(a)は、メモリに記憶されている車両特徴モデルのHaarLike特徴の例である。図5(b)は、マッチング画像の車両に光が反射している領域(強コントラスト領域)が存在していない場合のHaarLike特徴の例である。図5(c)は、マッチング画像の車両に光が反射している領域(強コントラスト領域)が存在している場合のHaarLike特徴の例である。 FIG. 5 is a diagram for explaining a matching process using a matching image. FIG. 5A is an example of the HaarLike feature of the vehicle feature model stored in the memory. FIG. 5B is an example of the HaarLike feature when there is no region (high contrast region) where light is reflected in the vehicle of the matching image. FIG. 5C is an example of the HaarLike feature in the case where there is a region (high contrast region) where light is reflected on the vehicle of the matching image.
HaarLike特徴は、画像エッジ上の任意の位置に設定してよいが、本実施形態では、車両特徴モデルのHaarLike特徴として、例えば、図5(a)に示すように、車両400の上部401、左部402、及び右部403の3か所に設定しているものとする。ここで、車両特徴モデルについては、上部401の上段が1、下段が0となり、左部402の左段が1、右段が0となり、右部403の左段が0、右段が1となったものとする。 The HaarLike feature may be set at an arbitrary position on the image edge. However, in this embodiment, as the HaarLike feature of the vehicle feature model, for example, as shown in FIG. It is assumed that the setting is made in three places, a part 402 and a right part 403. Here, for the vehicle feature model, the upper part of the upper part 401 is 1, the lower part is 0, the left part of the left part 402 is 1, the right part is 0, the left part of the right part 403 is 0, and the right part is 1. Suppose that
例えば、図5(b)に示すように、マッチング画像の車両に光が反射している領域(強コントラスト領域)が存在していない場合においては、HaarLike特徴は、車両404の上部405の上段が1、下段が0となり、左部406の左段が1、右段が0となり、右部407の左段が0、右段が1となる。この場合には、図5(a)に示す車両特徴モデルの各値と一致することとなり、車両検出部103により、マッチング画像と、車両特徴モデルとの一致の度合いを示すスコアが高く特定され、車両候補が存在すると判定される。 For example, as shown in FIG. 5B, in the case where there is no region (high contrast region) where light is reflected on the vehicle in the matching image, the HaarLike feature is the upper part of the upper portion 405 of the vehicle 404. 1, the lower stage is 0, the left stage of the left part 406 is 1, the right stage is 0, the left part of the right part 407 is 0, and the right stage is 1. In this case, each value of the vehicle feature model shown in FIG. 5A matches, and the vehicle detection unit 103 specifies a high score indicating the degree of matching between the matching image and the vehicle feature model, It is determined that there is a vehicle candidate.
一方、図5(c)に示すように、マッチング画像の車両に光413が反射している領域(強コントラスト領域)412が存在している場合においては、HaarLike特徴は、車両408の上部409の上段が1、下段が0となり、左部410の左段が1、右段が0となり、右部411の左段が1、右段が1となる。この場合には、右部411の画像特徴が図5(a)の車両特徴モデルの画像特徴と異なるため、車両検出部103により、マッチング画像と、車両特徴モデルとの一致の度合いを示すスコアが低く特定され、マッチング画像に車両が存在するにもかかわらず、車両候補が存在しないと誤判定されてしまう。本実施形態においては、マッチング画像の車両に光413が反射している領域(強コントラスト領域)412が存在している場合においては、マッチング画像の強コントラスト領域を補正することにより、誤判定されることが低減されるようにしている。この点については、後述する。 On the other hand, as shown in FIG. 5C, in the case where a region (high contrast region) 412 where the light 413 is reflected exists in the vehicle of the matching image, the HaarLike feature is displayed on the upper portion 409 of the vehicle 408. The upper part is 1, the lower part is 0, the left part of the left part 410 is 1, the right part is 0, the left part of the right part 411 is 1, and the right part is 1. In this case, since the image feature of the right part 411 is different from the image feature of the vehicle feature model of FIG. 5A, the vehicle detection unit 103 generates a score indicating the degree of matching between the matching image and the vehicle feature model. Although it is specified low, it is erroneously determined that no vehicle candidate exists even though the vehicle exists in the matching image. In the present embodiment, when a region (strong contrast region) 412 where the light 413 is reflected exists in the vehicle of the matching image, an erroneous determination is made by correcting the strong contrast region of the matching image. So that it is reduced. This point will be described later.
次に、強コントラスト領域判定部102による処理について詳細に説明する。 Next, processing performed by the strong contrast region determination unit 102 will be described in detail.
図6は、強コントラスト領域を特定する処理を説明する図である。 FIG. 6 is a diagram for explaining processing for specifying a strong contrast region.
ここで、強コントラスト領域判定部102に、図6(a)に示すような、車両501の一部分に強コントラスト領域502が存在しているマッチング画像500が入力された場合における強コントラスト領域を検知する処理について説明する。 Here, the strong contrast region determination unit 102 detects the strong contrast region when the matching image 500 in which the strong contrast region 502 exists in a part of the vehicle 501 is input as shown in FIG. Processing will be described.
強コントラスト領域判定部102は、マッチング画像500について、画像中の相対的に明るい画素(所定のしきい値以上の輝度の画素)について、値を1とし、相対的に暗い画素(所定のしきい値よりも輝度が低い画素)については、値を0とした、図6(b)に示すような2値化画像503を生成する。なお、図6(b)の2値化画像503においては、値1の画素は、白く、値0の画素は、黒く示されている。なお、強コントラスト領域判定部102において、使用するしきい値としては、一定としてもよく、画像毎に変えてもよい。 In the matching image 500, the strong contrast region determination unit 102 sets a value of 1 for a relatively bright pixel in the image (a pixel having a luminance equal to or higher than a predetermined threshold), and a relatively dark pixel (a predetermined threshold). For a pixel whose luminance is lower than the value), a binary image 503 as shown in FIG. In the binarized image 503 in FIG. 6B, the pixel having the value 1 is white and the pixel having the value 0 is black. In the strong contrast region determination unit 102, the threshold value to be used may be constant or may be changed for each image.
次いで、強コントラスト領域判定部102は、背景などの車両以外のテクスチャの影響を受けることを抑制するために、2値化画像503の周辺部分505を参照しないようにマスク(画素の値を0)する。 Next, the strong contrast region determination unit 102 masks (pixel value is 0) so as not to refer to the peripheral portion 505 of the binarized image 503 in order to suppress the influence of textures other than the vehicle such as the background. To do.
次いで、強コントラスト領域判定部102は、2値化画像503中のそれぞれの明部分(値1の画素の塊部分)についてラベリングを行い、それぞれの明部分の面積を特定し、明部分の面積が所定のしきい値以下の明部分は、値を0に変更する。次に、強コントラスト領域判定部102は、マッチング画像500における画素のヒストグラムから算出した所定レベルの輝度(例えば、全体輝度分布の95%以上となる輝度)以上の画素が存在する明部分(506等)のみを残し、それ以外の明部分の値を0に変更する。強コントラスト領域判定部102は、以上の処理によって得られた図6(d)の2値化画像503中の明部分506を含む領域(例えば、明部分506を含む矩形領域)が、外光による光反射の結果生じた強コントラスト領域であると特定する。このような処理により、マッチング処理において、影響の大きい強コントラスト領域を適切に特定することができる。 Next, the strong contrast region determination unit 102 performs labeling on each bright portion (a lump portion of pixels having a value of 1) in the binarized image 503, identifies the area of each bright portion, and the area of the bright portion is The value is changed to 0 for the bright part below the predetermined threshold value. Next, the strong contrast region determination unit 102 has a bright portion (506 or the like) in which pixels having a predetermined level of luminance (for example, luminance that is 95% or more of the entire luminance distribution) calculated from the pixel histogram in the matching image 500 exist. ) Only, and change the value of the other bright parts to 0. The strong contrast region determination unit 102 uses a region in which the bright portion 506 (for example, a rectangular region including the bright portion 506) in the binarized image 503 in FIG. The region is identified as a strong contrast region resulting from light reflection. By such processing, it is possible to appropriately specify a strong contrast region having a large influence in the matching processing.
なお、マッチング画像における強コントラスト領域を特定する方法は、上記に限られず、相対的に明るい領域を特定することができれば、任意の方法でよい。例えば、マッチング画像の平均の輝度よりも高い、所定のしきい値以上の画素を含む領域を強コントラスト領域として特定するようにしてもよい。また、近接する画素との輝度の違いが所定の割合以上である画素を含む領域を強コントラスト領域として特定するようにしてもよい。 Note that the method of specifying the strong contrast region in the matching image is not limited to the above, and any method may be used as long as a relatively bright region can be specified. For example, an area that includes pixels that are higher than the average luminance of the matching image and that are equal to or higher than a predetermined threshold value may be specified as the high contrast area. In addition, an area including pixels whose luminance difference from neighboring pixels is a predetermined ratio or more may be specified as a high contrast area.
次に、強コントラスト補正部106の処理について詳細に説明する。 Next, the processing of the strong contrast correction unit 106 will be described in detail.
図7は、強コントラスト領域のコントラストの補正の概要を説明する図である。 FIG. 7 is a diagram for explaining the outline of the contrast correction in the strong contrast region.
ここで、強コントラスト補正部106に、図7(a)に示すような、車両601の一部分に強コントラスト領域602が存在しているマッチング画像600が入力された場合におけるコントラストを補正する処理について説明する。 Here, the processing for correcting the contrast when the matching image 600 in which the strong contrast region 602 exists in a part of the vehicle 601 as shown in FIG. 7A is input to the strong contrast correction unit 106 will be described. To do.
強コントラスト補正部106は、図7(b)に示す強コントラスト領域判定部102により特定された明部分を含む強コントラスト領域604に対して、マッチング画像600の強コントラスト領域604以外のコントラストレベル(シャドウ化レベル)と同等となるように強コントラスト領域604の輝度を補正する処理(シャドウ化処理)を行い、図7(c)に示すように、この領域の補正後の画像606をもとのマッチング画像600に組み込むことにより、補正マッチング画像605を作成する。 The strong contrast correction unit 106 performs contrast levels (shadows) other than the strong contrast region 604 of the matching image 600 with respect to the strong contrast region 604 including the bright portion specified by the strong contrast region determination unit 102 illustrated in FIG. A process (shadowing process) for correcting the luminance of the strong contrast area 604 so as to be equivalent to the image level) is performed. As shown in FIG. 7C, matching is performed based on the corrected image 606 in this area. A correction matching image 605 is created by incorporating it in the image 600.
次に、強コントラスト補正部106のシャドウ化処理について詳細に説明する。 Next, the shadowing process of the strong contrast correction unit 106 will be described in detail.
図8は、強コントラスト領域のコントラストの補正方法の具体例を示す図である。 FIG. 8 is a diagram showing a specific example of a method for correcting the contrast of the strong contrast region.
ここで、シャドウ化処理とは、マッチング画像中の強コントラスト領域に対して強コントラスト領域以外のコントラストレベルと同等となるように画像の輝度を補正する処理のことである。 Here, the shadowing process is a process for correcting the luminance of the image so that the high contrast region in the matching image is equivalent to the contrast level other than the strong contrast region.
まず、強コントラスト補正部106は、マッチング画像700から検知した強コントラスト領域701の画像を切り出して一次的に図示しないメモリに記憶する。次に、マッチング画像702の強コントラスト領域701以外の領域について輝度ヒストグラム704を求める。 First, the strong contrast correction unit 106 cuts out an image of the strong contrast region 701 detected from the matching image 700 and temporarily stores it in a memory (not shown). Next, a luminance histogram 704 is obtained for regions other than the strong contrast region 701 of the matching image 702.
次いで、強コントラスト補正部106は、求めた輝度ヒストグラム(値0〜255)について、輝度の低いほう(値0)から所定の割合(A%)に属する第1画素群705と、輝度が高いほうから所定の割合(C%)に属する第2画素群707と、それ以外の全体の所定の割合(B%)となる第3画素群706とに区分し、第3画素群706の画素の平均輝度(基準平均輝度)を求める。 Next, the strong contrast correction unit 106, for the obtained luminance histogram (value 0 to 255), the first pixel group 705 belonging to a predetermined ratio (A%) from the lower luminance (value 0) and the higher luminance Are divided into a second pixel group 707 belonging to a predetermined ratio (C%) and a third pixel group 706 having a predetermined ratio (B%) other than that, and the average of the pixels of the third pixel group 706 Find the brightness (reference average brightness).
次いで、強コントラスト領域701は、強コントラスト領域701の画像の各画素の平均輝度が、第3画素群706の画素の基準平均輝度と同等となるように、各画素の輝度を補正することにより、コントラスト補正画像708を作成する(この処理がシャドウ化処理に相当する)。この結果、コントラスト補正画像708は、強コントラスト領域701の画像よりも、全体が暗い状態の画像となる。 Next, the strong contrast region 701 corrects the luminance of each pixel so that the average luminance of each pixel of the image of the strong contrast region 701 is equal to the reference average luminance of the pixels of the third pixel group 706. A contrast-corrected image 708 is created (this process corresponds to a shadowing process). As a result, the contrast corrected image 708 is an image that is darker than the image of the strong contrast region 701.
次いで、強コントラスト補正部106は、マッチング画像700の強コントラスト領域701にコントラスト補正画像708をはめ込むことにより、補正後マッチング画像709を作成する。ここで、上記した処理において、強コントラスト領域701以外の画像の輝度ヒストグラムの暗い部分(第1画素群705)と、明るい部分(第2画素群707)との輝度を、マッチング画像700の強コントラスト領域710以外の平均輝度の算出に利用しないようにしているのは、暗い部分と明るい部分とには、極端な輝度値の部分が存在する可能性があり、算出される平均輝度値への影響が強く、強コントラスト領域701の画像を適切な輝度の画像に補正することができない虞があるためである。なお、マッチング画像700の強コントラスト領域710以外のすべての画素についての平均輝度を基準平均輝度とするようにしてもよい。 Next, the strong contrast correction unit 106 creates a corrected matching image 709 by fitting the contrast correction image 708 into the strong contrast region 701 of the matching image 700. Here, in the processing described above, the luminance of the dark portion (first pixel group 705) and the bright portion (second pixel group 707) of the luminance histogram of the image other than the strong contrast region 701 is set to the strong contrast of the matching image 700. The reason for not using the average brightness other than the area 710 is that there may be an extreme brightness value portion between the dark portion and the bright portion, and this affects the calculated average brightness value. This is because there is a possibility that the image of the strong contrast region 701 cannot be corrected to an image with appropriate luminance. Note that the average luminance for all pixels other than the strong contrast region 710 of the matching image 700 may be set as the reference average luminance.
次に、強コントラスト領域判定部102による他の処理を詳細に説明する。 Next, another process by the strong contrast region determination unit 102 will be described in detail.
図9は、強コントラスト領域の補正を行うか否かを判定する判定処理を説明する図である。 FIG. 9 is a diagram illustrating a determination process for determining whether or not to correct a strong contrast region.
強コントラスト補正部106により、強コントラスト領域に対してシャドウ化処理を行う場合に、マッチング画像800の面積に対して強コントラスト領域の面積が大きすぎると、強コントラスト領域以外の面積が小さすぎて、その平均輝度に大きな偏りが生じてしまい、強コントラスト領域を補正する基準とする平均輝度(シャドウ化レベル)としては適切な値とはならない。 When performing the shadowing process on the strong contrast region by the strong contrast correction unit 106, if the area of the strong contrast region is too large with respect to the area of the matching image 800, the area other than the strong contrast region is too small. A large deviation occurs in the average luminance, and the average luminance (shadowing level) as a reference for correcting the high contrast region is not an appropriate value.
この対策として、本実施形態では、強コントラスト領域判定部102は、マッチング画像800に対してシャドウ化処理の対象となる強コントラスト領域802の面積を求め、マッチング画像800と、強コントラスト領域802との面積比を参照して、シャドウ化処理を実行するか否かを判断する。具体的には、強コントラスト領域判定部102は、強コントラスト領域802の面積が所定の面積比 (例えば、マッチング画像800の面積の1/N:Nは、1より大きい数) 以下の場合には、強コントラスト補正部106に、強コントラスト領域802に対してシャドウ化処理を実行させて補正マッチング画像804を作成させ、結果として、車両検出部103において、補正マッチング画像804を使用してマッチング処理を実行させる一方、強コントラスト領域802の面積が所定の面積比を超える場合には、車両検出部103にマッチング画像800を送信して、車両検出部103において、マッチング画像800を使用してマッチング処理を実行させる。 As a countermeasure against this, in the present embodiment, the strong contrast region determination unit 102 obtains the area of the strong contrast region 802 to be subjected to the shadowing process with respect to the matching image 800, and the matching image 800 and the strong contrast region 802 are obtained. With reference to the area ratio, it is determined whether or not to execute the shadowing process. Specifically, the strong contrast region determination unit 102 determines that the area of the strong contrast region 802 is equal to or smaller than a predetermined area ratio (for example, 1 / N of the area of the matching image 800: N is a number greater than 1). Then, the strong contrast correction unit 106 performs shadowing processing on the strong contrast region 802 to create a corrected matching image 804. As a result, the vehicle detection unit 103 uses the corrected matching image 804 to perform matching processing. On the other hand, when the area of the strong contrast region 802 exceeds a predetermined area ratio, the matching image 800 is transmitted to the vehicle detection unit 103, and the matching processing is performed using the matching image 800 in the vehicle detection unit 103. Let it run.
次に、強コントラスト領域追跡部107による処理を詳細に説明する。 Next, processing by the strong contrast region tracking unit 107 will be described in detail.
図10は、強コントラスト領域の位置の追跡を説明する図である。 FIG. 10 is a diagram for explaining the tracking of the position of the strong contrast region.
本実施形態の車両検知処理においては、入力画像単体を用いて車両検知を行うことにより得られる車両位置の他に、連続する複数フレームに対応する画像における車両位置を時系列に繋ぎ合わせる車両追跡処理を行うことで、車両位置の検出精度を向上させている。また、本実施形態では、強コントラスト領域の位置を検知することにより、さらに車両位置の検出精度を安定させている。また、強コントラスト領域についても車両位置の追跡と同様に、連続する複数フレームに対応する画像を用いて、強コントラスト領域の位置を時系列に繋ぎ合わせる追跡処理を行うことで、強コントラスト領域の位置の検出精度を向上させ、結果として、車両位置の検出精度を向上させている。 In the vehicle detection process of the present embodiment, in addition to the vehicle position obtained by performing vehicle detection using a single input image, a vehicle tracking process that connects the vehicle positions in images corresponding to a plurality of consecutive frames in time series. As a result, the detection accuracy of the vehicle position is improved. In the present embodiment, the detection accuracy of the vehicle position is further stabilized by detecting the position of the strong contrast region. In addition, for the strong contrast region, as in the case of tracking the vehicle position, the tracking process for connecting the positions of the strong contrast region in time series is performed by using images corresponding to a plurality of continuous frames, so that the position of the strong contrast region is As a result, the detection accuracy of the vehicle position is improved.
強コントラスト領域追跡部107は、連続する複数フレームに対応する歪補正画像(900,902,904)のそれぞれに強コントラスト領域(901,903,905)が存在する場合に、各強コントラスト領域の重心を求めて、各フレームに対応する歪補正画像間における対応する強コントラスト領域同士を接続して、各強コントラスト領域の位置を記憶する。なお、車両位置統合部105は、車両追跡部104により得られた追跡結果と、強コントラスト領域追跡部107により得られた強コントラスト領域の追跡結果とに基づいて、最終的な車両位置を決定(確定)する。例えば、車両追跡部104により得られた追跡結果が示す車両の移動した位置と、強コントラスト領域追跡部107により得られた追跡結果が示す強コントラスト領域の移動した位置とがほぼ一致していれば、車両追跡部104が追跡していた車両候補が車両である可能性が高いと判断でき、その検出位置の信頼度は高いと判断できる。 The strong contrast region tracking unit 107, when there is a strong contrast region (901, 903, 905) in each of the distortion corrected images (900, 902, 904) corresponding to a plurality of consecutive frames, Are obtained by connecting the corresponding strong contrast regions between the distortion corrected images corresponding to the respective frames, and storing the positions of the respective strong contrast regions. The vehicle position integration unit 105 determines the final vehicle position based on the tracking result obtained by the vehicle tracking unit 104 and the tracking result of the strong contrast region obtained by the strong contrast region tracking unit 107 ( Determine. For example, if the moving position of the vehicle indicated by the tracking result obtained by the vehicle tracking section 104 and the moving position of the strong contrast area indicated by the tracking result obtained by the strong contrast area tracking section 107 are substantially the same. It can be determined that the possibility that the vehicle candidate tracked by the vehicle tracking unit 104 is a vehicle is high and the reliability of the detected position is high.
次に、車両検知処理の動作について説明する。 Next, the operation of the vehicle detection process will be described.
図11は、外界認識装置による車両検知処理のフローチャートである。 FIG. 11 is a flowchart of a vehicle detection process performed by the external environment recognition apparatus.
外界認識装置1000は、車両のイグニションがON(オン)になったか否かを判定し(ステップS1100)、イグニッションがONになっていない、すなわち、イグニションがOFFである場合(ステップS1100:NO)には、イグニッションがONになるまで待機する。 The external environment recognition apparatus 1000 determines whether or not the ignition of the vehicle is turned on (step S1100), and when the ignition is not turned on, that is, when the ignition is off (step S1100: NO). Waits until the ignition is turned on.
一方、イグニションがONになった場合(ステップS1100:YES)には、外界認識装置1000は、自身の初期化を行う(ステップS1101)。すなわち、外界認識装置1000は、車載カメラ1010からの画像の入力を開始し、車両検知処理に関する各パラメータの初期値を設定し、車両を検知するためのマッチング処理に必要なテンプレートデータ(車両特徴モデル)の読み出し等を実行する。以降、外界認識装置1000は、車両を実際に検知するための処理(ステップS1102からステップS1120)を繰り返し実行することとなる。 On the other hand, when the ignition is turned on (step S1100: YES), the external recognition apparatus 1000 initializes itself (step S1101). That is, the external environment recognition apparatus 1000 starts input of an image from the in-vehicle camera 1010, sets initial values of parameters related to vehicle detection processing, and template data (vehicle feature model) necessary for matching processing for detecting the vehicle. ) Is read out. Thereafter, the external environment recognition apparatus 1000 repeatedly executes a process (steps S1102 to S1120) for actually detecting the vehicle.
画像歪補正部100は、車載カメラ1010により撮像された魚眼カメラ画像を入力し(ステップS1102)、魚眼カメラ画像中の車両検知領域を取り出して、この車両検知領域の画像に対して歪補正処理を実行し、処理後の画像(歪補正画像)をマッチング画像作成部101に渡す(ステップS1103)。 The image distortion correction unit 100 inputs the fisheye camera image captured by the in-vehicle camera 1010 (step S1102), extracts the vehicle detection area in the fisheye camera image, and corrects the distortion of the image in the vehicle detection area. The process is executed, and the processed image (distortion corrected image) is transferred to the matching image creating unit 101 (step S1103).
次いで、マッチング画像作成部101は、画像歪補正部100から入力された歪補正画像に基づいて、複数個のマッチング画像を作成する(ステップS1104)。 Next, the matching image creating unit 101 creates a plurality of matching images based on the distortion corrected image input from the image distortion correcting unit 100 (step S1104).
次いで、強コントラスト領域判定部102は、各マッチング画像に強コントラスト領域が存在するか否かを判定する(ステップS1105)。判定の結果、マッチング画像に強コントラスト領域が存在しない場合(ステップS1106:NO)には、強コントラスト領域判定部102は、マッチング画像を、車両検出対象の画像(対象画像)として、車両検出部103に渡す(ステップS1111)。 Next, the strong contrast region determination unit 102 determines whether or not a strong contrast region exists in each matching image (step S1105). If the strong contrast region does not exist in the matching image as a result of the determination (step S1106: NO), the strong contrast region determining unit 102 uses the matching image as the vehicle detection target image (target image). (Step S1111).
一方、マッチング画像に強コントラスト領域が存在する場合(ステップS1106:YES)には、強コントラスト領域判定部102は、強コントラスト領域の面積がマッチング画像の面積の1/N以下であるか否かを判定する(ステップS1107)。この結果、強コントラスト領域の面積がマッチング画像の面積の1/N以下でない場合、すなわち、強コントラスト領域の面積がマッチング画像の面積の1/Nよりも大きい場合(ステップA1107:NO)には、強コントラスト領域判定部102は、マッチング画像を車両検出対象の画像(対象画像)として、車両検出部103に渡す(ステップS1111)。 On the other hand, when a strong contrast region exists in the matching image (step S1106: YES), the strong contrast region determination unit 102 determines whether or not the area of the strong contrast region is 1 / N or less of the area of the matching image. Determination is made (step S1107). As a result, when the area of the strong contrast region is not 1 / N or less of the area of the matching image, that is, when the area of the strong contrast region is larger than 1 / N of the area of the matching image (step A1107: NO), The strong contrast region determination unit 102 passes the matching image as a vehicle detection target image (target image) to the vehicle detection unit 103 (step S1111).
一方、強コントラスト領域の面積がマッチング画像の面積の1/N以下である場合(ステップS1107:YES)には、強コントラスト領域判定部102は、マッチング画像の強コントラスト領域以外の領域の輝度ヒストグラムに基づいて、シャドウ化処理におけるシャドウ化レベルを設定し、強コントラスト領域に対してシャドウ化処理を実行し(ステップS1109)、強コントラスト領域を補正した補正マッチング画像を対象画像として、車両検出部103に渡す(ステップS1110)。 On the other hand, when the area of the strong contrast area is 1 / N or less of the area of the matching image (step S1107: YES), the strong contrast area determination unit 102 uses the luminance histogram of the area other than the strong contrast area of the matching image. Based on this, the shadowing level in the shadowing process is set, the shadowing process is executed for the strong contrast area (step S1109), and the corrected matching image obtained by correcting the strong contrast area is set as the target image to the vehicle detection unit 103. Pass (step S1110).
次いで、車両検出部103は、全ての対象画像に対して車両検知処理を実行し(ステップS1112)、車両候補が存在するか否かを判定する(ステップS1113)。 Next, the vehicle detection unit 103 executes vehicle detection processing for all target images (step S1112), and determines whether or not a vehicle candidate exists (step S1113).
この結果、全ての対象画像において車両候補が存在しない場合(ステップS1113:NO)には、車両検出部103は、処理をステップS1102に進める。 As a result, when there are no vehicle candidates in all target images (step S1113: NO), the vehicle detection unit 103 advances the process to step S1102.
一方、車両候補が存在する場合(ステップS1113:YES)には、車両追跡部104は、車両検出部103から通知される車両候補の位置情報に基づいて、複数フレームに対応する歪補正画像における同一の車両候補の時間経過に伴う位置の追跡を行い、車両候補の位置を車両位置P1として車両位置統合部105に通知する(ステップS1114)。 On the other hand, when there is a vehicle candidate (step S1113: YES), the vehicle tracking unit 104 is the same in the distortion-corrected image corresponding to a plurality of frames based on the position information of the vehicle candidate notified from the vehicle detection unit 103. The position of the vehicle candidate is tracked as time elapses, and the position of the vehicle candidate is notified to the vehicle position integration unit 105 as the vehicle position P1 (step S1114).
次いで、車両追跡部104は、強コントラスト領域のシャドウ化処理を行った補正マッチング画像において、車両候補が検知されたか否かを判定し(ステップS1115)、補正マッチング画像により車両候補が検知されていない場合(ステップS1115:NO)には、処理をステップS1117に進める一方、補正マッチング画像により車両候補が検知された場合(ステップS1115:YES)には、その補正マッチング画像の強コントラスト領域の位置に基づいて、複数フレームに対応する歪補正画像における同一の強コントラスト領域の時間経過に伴う位置の追跡を行い、強コントラスト領域の位置を車両位置P2として、車両位置統合部105に通知する(ステップS1116)。なお、複数のフレームの歪補正画像間の強コントラスト領域が同一であるか否かは、強コントラスト領域の形状が相似形であることや、強コントラスト領域の縦横比の割合がほぼ同一であること等により判定することができる。 Next, the vehicle tracking unit 104 determines whether or not a vehicle candidate is detected in the corrected matching image that has been subjected to the shadowing process in the high contrast region (step S1115), and no vehicle candidate is detected from the corrected matching image. In the case (step S1115: NO), the process proceeds to step S1117. On the other hand, when a vehicle candidate is detected from the corrected matching image (step S1115: YES), the process is based on the position of the strong contrast region of the corrected matching image. Thus, the position of the same strong contrast region in the distortion-corrected image corresponding to a plurality of frames is tracked as time elapses, and the vehicle position integration unit 105 is notified of the position of the strong contrast region as the vehicle position P2 (step S1116). . It should be noted that whether or not the strong contrast regions between the distortion-corrected images of a plurality of frames are the same is that the shape of the strong contrast region is similar or the ratio of the aspect ratio of the strong contrast region is substantially the same. Etc. can be determined.
次いで、車両位置統合部105は、車両追跡部104からの車両結果(車両位置P1)と、強コントラスト領域追跡部107からの追跡結果(車両位置P2)とを統合することにより、マッチング画像(又は補正マッチング画像)中の物体が車両である可能性を示すスコアを調整する。具体的には、車両位置統合部105は、車両追跡部104の車両位置P1と、強コントラスト領域追跡部107の車両位置P2とが同じ位置と判定できる場合には、車両検知部103によってこの車両候補に対して検出された際のスコアを所定値だけ上昇させ、車両確定部108に通知する。なお、車両位置P2がない場合や、車両位置P1と車両位置P2とが同じ位置とみなせない場合には、車両位置統合部105は、車両検知部103によってこの車両候補に対して検出された際のスコアをそのまま車両確定部108に通知する。次いで、車両確定部108は、車両位置統合部105から通知されたスコアに基づいて、車両候補の物体が車両であるか否かを確定する(ステップS1117)。具体的には、車両確定部108は、通知された車両候補のスコアが、所定の閾値(車両検知部103が使用した閾値よりも高い値)以上であるか否かを判定し、スコアが閾値以上であれば、車両候補を車両として確定する一方、スコアが閾値未満であれば車両でないと確定する。 Next, the vehicle position integration unit 105 integrates the vehicle result (vehicle position P1) from the vehicle tracking unit 104 and the tracking result (vehicle position P2) from the strong contrast region tracking unit 107, thereby matching images (or The score indicating the possibility that the object in the corrected matching image) is a vehicle is adjusted. Specifically, when the vehicle position integration unit 105 can determine that the vehicle position P1 of the vehicle tracking unit 104 and the vehicle position P2 of the strong contrast region tracking unit 107 are the same position, the vehicle detection unit 103 causes the vehicle detection unit 103 to The score when detected with respect to the candidate is increased by a predetermined value, and the vehicle determination unit 108 is notified. When there is no vehicle position P2 or when the vehicle position P1 and the vehicle position P2 cannot be regarded as the same position, the vehicle position integration unit 105 detects the vehicle candidate by the vehicle detection unit 103. The score is notified to the vehicle determination unit 108 as it is. Next, the vehicle determination unit 108 determines whether or not the vehicle candidate object is a vehicle based on the score notified from the vehicle position integration unit 105 (step S1117). Specifically, the vehicle determination unit 108 determines whether or not the notified vehicle candidate score is equal to or higher than a predetermined threshold (a value higher than the threshold used by the vehicle detection unit 103), and the score is the threshold. If it is above, while a vehicle candidate is decided as a vehicle, if a score is less than a threshold value, it will be decided that it is not a vehicle.
次いで、車両確定部108は、確定した車両(検知車両)の位置に基づいて、自車両と検知車両との間の距離を算出し(ステップS1118)、検知車両が自車両に接近中、且つ自車両との距離が所定の閾値以下であるか否かを判定する(ステップS1119)。 Next, the vehicle determination unit 108 calculates the distance between the host vehicle and the detected vehicle based on the determined position of the vehicle (detected vehicle) (step S1118), and the detected vehicle is approaching the host vehicle and It is determined whether or not the distance to the vehicle is equal to or less than a predetermined threshold (step S1119).
この結果、検知車両が自車両に接近中、且つ自車両との距離が所定の閾値以下である場合(ステップS1119:YES)には、車両確定部108は、検知車両の位置情報と、車両が近接していることを示す車両接近信号を周辺状態認識部1004に出力し、処理をステップS1121に進める。一方、検知車両が自車両に接近中、且つ自車両との距離が所定の閾値以下でない場合(ステップS1119:NO)には、車両確定部108は、処理をステップS1121に進める。 As a result, when the detected vehicle is approaching the host vehicle and the distance from the host vehicle is equal to or smaller than the predetermined threshold (step S1119: YES), the vehicle determination unit 108 detects the position information of the detected vehicle, the vehicle A vehicle approach signal indicating proximity is output to the peripheral state recognition unit 1004, and the process proceeds to step S1121. On the other hand, when the detected vehicle is approaching the host vehicle and the distance from the host vehicle is not equal to or smaller than the predetermined threshold (step S1119: NO), the vehicle determination unit 108 advances the process to step S1121.
ステップS1121では、車両検知部1001は、イグニッションOFF(オフ)などによって、外界認識装置1000の動作が終了となる状況が発生したか否かを判断し(ステップS1121)、装置の動作を終了する状況となっていなければ(ステップS1121:NO)、処理をステップS1102に進める一方、装置の動作を終了する状況であれば(ステップS1121:YES)であれば、車両検知処理を終了する。 In step S1121, the vehicle detection unit 1001 determines whether or not a situation in which the operation of the external world recognition apparatus 1000 ends due to an ignition OFF (off) or the like (step S1121), and the situation in which the operation of the apparatus ends. If not (step S1121: NO), the process proceeds to step S1102, while if the situation is that the operation of the apparatus is to be terminated (step S1121: YES), the vehicle detection process is terminated.
上記実施形態によると、強コントラスト領域判定部102が複数のマッチング画像のそれぞれに対して、マッチング画像中に強コントラスト領域が存在するか否かを判定し、強コントラスト補正部106がマッチング画像中に強コントラスト領域が存在すると判定された場合に、マッチング画像中の強コントラスト領域に対して、コントラストが低減されるように輝度を補正して、補正マッチング画像を作成し、車両検出部103が補正マッチング画像を用いて、車両の存在を判定するためのマッチング処理を行い、車両追跡部104がマッチング処理の処理結果に基づいて、対象画像中の車両の位置を特定するようにしたので、画像中に強コントラスト領域が存在している場合であっても、適切に車両の存在を判定することができる。 According to the above embodiment, the strong contrast region determination unit 102 determines whether or not a strong contrast region exists in the matching image for each of the plurality of matching images, and the strong contrast correction unit 106 includes the matching image in the matching image. If it is determined that a strong contrast region exists, the luminance is corrected so that the contrast is reduced with respect to the strong contrast region in the matching image, and a corrected matching image is created. Since the matching process for determining the presence of the vehicle is performed using the image, and the vehicle tracking unit 104 identifies the position of the vehicle in the target image based on the processing result of the matching process, Even if a strong contrast region exists, the presence of the vehicle can be determined appropriately.
また、上記実施形態によると、車両追跡部104により追跡された車両候補の位置の変化と、強コントラスト領域追跡部107により追跡された強コントラスト領域の位置の変化とに基づいて、車両確定部108が、車両候補が車両であるか否かを確定するようにしたので、強コントラスト領域となってしまっている車両を適切に車両であると確定することができる。すなわち、車両検出部103によるマッチング処理のみでは、車両である可能性が低く判定されてしまう車両を適切に車両として確定することができる。 Further, according to the embodiment, based on the change in the position of the vehicle candidate tracked by the vehicle tracking unit 104 and the change in the position of the strong contrast region tracked by the strong contrast region tracking unit 107, the vehicle determination unit 108. However, since it is determined whether or not the vehicle candidate is a vehicle, it is possible to appropriately determine that the vehicle in the strong contrast region is a vehicle. In other words, only the matching process performed by the vehicle detection unit 103 can appropriately determine a vehicle that is determined to have a low possibility of being a vehicle as a vehicle.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で、適宜変形して実施することが可能である。 In addition, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the meaning of this invention, it can change suitably and can implement.
例えば、上記実施形態では、車載カメラとして、魚眼カメラを用いていたが、本発明はこれに限られず、非魚眼カメラとしてもよい。 For example, in the above-described embodiment, a fish-eye camera is used as the in-vehicle camera, but the present invention is not limited to this and may be a non-fish-eye camera.
また、上記実施形態では、マッチングにより検出された車両の位置(位置の変化)と、強コントラスト領域の位置(位置の変化)とに基づいて、物体が車両であるか否かのスコアを変え、当該スコアに基づいて物体が車両であるか否かを確定させるようにしていたが、本発明はこれに限られず、マッチングによって得られたスコアのみによって、物体が車両であるか否かを確定するようにしてもよい。 Moreover, in the said embodiment, based on the position (change of position) of the vehicle detected by matching, and the position (change of position) of a strong contrast area | region, the score of whether an object is a vehicle is changed, Whether or not the object is a vehicle is determined based on the score, but the present invention is not limited to this, and it is determined whether or not the object is a vehicle based only on the score obtained by matching. You may do it.
また、上記実施形態では、外界認識装置1000を車載システム10に搭載して、車両の周囲をセンシングするための用途に利用する例を示していたが、本発明はこれに限られず、外界認識装置を車載システム以外の別のシステムに搭載して、別の用途で利用するようにしてもよく、例えば、監視カメラの画像から対象物を検出する用途に利用するようにしてもよい。 Moreover, in the said embodiment, although the external environment recognition apparatus 1000 was mounted in the vehicle-mounted system 10 and the example utilized for the application for sensing the circumference | surroundings of a vehicle was shown, this invention is not limited to this, An external environment recognition apparatus May be mounted in another system other than the in-vehicle system and used for other purposes, for example, for use in detecting an object from an image of a surveillance camera.
また、上記実施形態では、検知する対象物を車両とした例を示していたが、本発明はこれに限られず、例えば、人、自転車、電車、航空機、船等の車両以外の物体を対象物としてもよい。 Moreover, in the said embodiment, although the example which made the target object to detect detect a vehicle, this invention is not limited to this, For example, objects other than vehicles, such as a person, a bicycle, a train, an aircraft, a ship, are targets. It is good.
また、上記実施形態では、外界認識装置の各機能部を、プロセッサがプログラムを実行することにより構成される例を示していたが、本発明はこれに限られず、各機能部の一部又は全部を、例えば集積回路等のハードウェアによって構成するようにしてもよい。また、上記実施形態において、機能部を構成するプログラムは、プログラムコードを記録した記録媒体により提供されてもよい。この場合には、記録媒体のプログラムをコンピュータのプロセッサが読み出して実行することにより、機能部を実現することができる。プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM,ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いてよい。また、機能部を構成するプログラムを、ネットワークを介して配信することによって、コンピュータのハードディスクやメモリ等の記憶部又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが記憶部や記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 In the above embodiment, an example is shown in which each function unit of the external recognition device is configured by a processor executing a program. However, the present invention is not limited to this, and part or all of each function unit is configured. May be configured by hardware such as an integrated circuit. In the above embodiment, the program constituting the functional unit may be provided by a recording medium on which a program code is recorded. In this case, the functional unit can be realized by the computer processor reading and executing the program of the recording medium. As a storage medium for supplying the program code, for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, SSD (Solid State Drive), optical disk, magneto-optical disk, CD-R, magnetic tape, non-volatile A memory card, ROM, or the like may be used. Further, the program constituting the functional unit is distributed via a network to be stored in a storage unit such as a hard disk or a memory of a computer or a storage medium such as a CD-RW or CD-R, and stored in a processor included in the computer. The program code stored in the storage unit or the storage medium may be read and executed.
10…車載システム、100…画像歪補正部、101…マッチング画像作成部、102…強コントラスト領域判定部、103…車両検出部、104…車両追跡部、105…車両位置統合部、106…強コントラスト補正部、107…強コントラスト領域追跡部、108…車両確定部、1000…外界認識装置、1001…車両検知部、1004…周辺状態認識部、1008…警報処理部、1009…ドライバー通知部、1010…車載カメラ
DESCRIPTION OF SYMBOLS 10 ... In-vehicle system, 100 ... Image distortion correction part, 101 ... Matching image creation part, 102 ... Strong contrast area | region determination part, 103 ... Vehicle detection part, 104 ... Vehicle tracking part, 105 ... Vehicle position integration part, 106 ... Strong contrast Correction unit 107 ... Strong contrast area tracking unit 108 ... Vehicle determination unit 1000 1000 External recognition device 1001 Vehicle detection unit 1004 Peripheral state recognition unit 1008 Alarm processing unit 1009 Driver notification unit 1010 Car camera
Claims (15)
前記対象画像から、前記対象物の存在を判定するためのマッチング処理に用いるための複数のマッチング画像を作成するマッチング画像作成部と、
前記複数のマッチング画像のそれぞれに対して、前記マッチング画像中に周囲に比して輝度が高い領域を含む強コントラスト領域が存在するか否かを判定する強コントラスト領域判定部と、
前記マッチング画像中に強コントラスト領域が存在すると判定された場合に、前記マッチング画像中の前記強コントラスト領域に対して、コントラストが低減されるように輝度を補正する処理を実行して、補正マッチング画像を作成する強コントラスト補正部と、
前記マッチング画像又は前記補正マッチング画像を用いて、前記対象物の存在を判定するためのマッチング処理を行うマッチング処理部と、
前記マッチング処理の処理結果に基づいて、前記対象画像中の前記対象物の位置を特定する対象物位置特定部と、
を備える対象物検知装置。 An object detection device for detecting an object from a predetermined object image,
A matching image creating unit that creates a plurality of matching images for use in matching processing for determining the presence of the object from the target image;
For each of the plurality of matching images, a strong contrast region determination unit that determines whether or not there is a strong contrast region including a region having a higher brightness than the surroundings in the matching image;
When it is determined that a strong contrast region exists in the matching image, a correction matching image is executed by correcting the luminance of the strong contrast region in the matching image so that the contrast is reduced. A strong contrast correction unit for creating
A matching processing unit that performs a matching process for determining the presence of the object using the matching image or the corrected matching image;
An object position specifying unit for specifying the position of the object in the target image based on the processing result of the matching process;
An object detection apparatus comprising:
請求項1に記載の対象物検知装置。 The object detection device according to claim 1, wherein the strong contrast correction unit reduces the contrast based on luminance of a pixel group in a region other than the strong contrast region of the matching image.
請求項2に記載の対象物検知装置。 The strong contrast correction unit is configured to select a pixel group belonging to a predetermined ratio from a higher luminance of the pixel to a pixel group in a region other than the strong contrast region of the matching image, and a predetermined luminance from a lower luminance of the pixel. And a reference average brightness that is an average brightness of a plurality of pixels excluding the pixel group belonging to the ratio of, and so that the average brightness of the strong contrast area becomes the reference average brightness. The object detection apparatus according to claim 2, wherein the contrast is reduced by adjusting the luminance.
前記強コントラスト領域の面積を測定し、前記面積が前記マッチング画像に対して所定の割合以下である場合には、前記強コントラスト領域に対して補正を行った前記補正マッチング画像を用いて前記マッチング処理を行い、前記面積が前記マッチング画像に対して所定の割合を超える場合には、前記マッチング画像を用いて前記マッチング処理を行う
請求項1から請求項3のいずれか一項に記載の対象物検知装置。 The matching processing unit
When the area of the strong contrast region is measured and the area is equal to or less than a predetermined ratio with respect to the matching image, the matching processing is performed using the corrected matching image corrected for the strong contrast region. The object detection according to any one of claims 1 to 3, wherein when the area exceeds a predetermined ratio with respect to the matching image, the matching processing is performed using the matching image. apparatus.
請求項1から請求項4のいずれか一項に記載の対象物検知装置。 The strong contrast region determination unit binarizes the luminance of each pixel in the matching image with a predetermined luminance as a reference, and includes a region including a block having a predetermined size or larger among the high-brightness pixel blocks. The object detection device according to any one of claims 1 to 4, wherein the object detection region is a high contrast region.
請求項5に記載の対象物検知装置。 The strong contrast region determination unit sets a region including a block having a predetermined size or larger and a block including pixels having a luminance of a predetermined ratio or more in the luminance distribution of pixels in the matching image as a strong contrast region. The object detection device according to claim 5.
請求項1から請求項6のいずれか一項に記載の対象物検知装置。 The target object detection apparatus according to claim 1, wherein an image corresponding to each of a plurality of frame images in a moving image is the target image.
請求項7に記載の対象物検知装置。 The object detection apparatus according to claim 7, further comprising an object tracking unit that tracks a change in position of the object obtained from the plurality of object images.
前記対象物追跡部により追跡された前記対象物の位置の変化と、前記強コントラスト領域追跡部により追跡された前記強コントラスト領域の位置の変化とに基づいて、前記対象物が想定している対象物であるか否かを確定する確定判定部と、をさらに有する
請求項8に記載の対象物検知装置。 A strong contrast region tracking unit that tracks a change in the position of the strong contrast region obtained from a plurality of the target images;
An object assumed by the object based on a change in the position of the object tracked by the object tracking unit and a change in the position of the strong contrast region tracked by the strong contrast region tracking unit; The object detection device according to claim 8, further comprising a confirmation determination unit that determines whether the object is an object.
前記確定判定部は、前記車両位置統合部から通知されたスコアに基づいて、前記対象物が想定している対象物であるか否かを確定する
請求項9に記載の対象物検知装置。 The object assumed by the object when the position of the object tracked by the object tracking unit is the same as the position of the strong contrast area tracked by the strong contrast region tracking unit. A vehicle position integration unit that adds a predetermined value to a score indicating the possibility of being, and notifies the confirmation determination unit,
The object detection device according to claim 9, wherein the determination determination unit determines whether or not the object is an assumed object based on the score notified from the vehicle position integration unit.
請求項1から請求項10のいずれか一項に記載の対象物検知装置。 The image distortion correction part which extracts the image of the predetermined area | region of the fisheye camera image imaged with the fisheye camera, and produces | generates the said target image by correct | amending the distortion of the said image is further provided of Claims 1-10. The target object detection apparatus as described in any one.
請求項1から請求項11のいずれか一項に記載の対象物検知装置。 The target object detection apparatus according to any one of claims 1 to 11, wherein the target object is a vehicle.
請求項12に記載の対象物検知装置。 Based on the position of the target object in the target image, the distance to the target object is calculated, and when the distance to the target object is less than or equal to a predetermined value, the distance to the target object is less than or equal to a predetermined value The object detection device according to claim 12, further comprising an approach determination unit that outputs information indicating that.
前記対象物検知装置は、
前記対象画像から、前記対象物の存在を判定するためのマッチング処理に用いるための複数のマッチング画像を作成し、
前記複数のマッチング画像のそれぞれに対して、前記マッチング画像中に周囲に比して輝度が高い領域を含む強コントラスト領域が存在するか否かを判定し、
前記マッチング画像中に強コントラスト領域が存在すると判定された場合に、前記マッチング画像中の前記強コントラスト領域に対して、コントラストが低減されるように輝度を補正して、補正マッチング画像を作成し、
前記マッチング画像又は前記補正マッチング画像を用いて、前記対象物の存在を判定するためのマッチング処理を行い、
前記マッチング処理の処理結果に基づいて、前記対象画像中の前記対象物の位置を特定する
対象物検知方法。 An object detection method by an object detection device for detecting an object from a predetermined object image,
The object detection device includes:
Create a plurality of matching images for use in the matching process for determining the presence of the target object from the target image,
For each of the plurality of matching images, it is determined whether or not a strong contrast region including a region having a higher brightness than the surroundings exists in the matching image.
When it is determined that a strong contrast region exists in the matching image, the luminance is corrected so that the contrast is reduced with respect to the strong contrast region in the matching image, and a corrected matching image is created.
Using the matching image or the corrected matching image, performing a matching process for determining the presence of the object,
A target object detection method for specifying a position of the target object in the target image based on a processing result of the matching process.
前記コンピュータを
前記対象画像から、前記対象物の存在を判定するためのマッチング処理に用いるための複数のマッチング画像を作成するマッチング画像作成部と、
前記複数のマッチング画像のそれぞれに対して、前記マッチング画像中に周囲に比して輝度が高い領域を含む強コントラスト領域が存在するか否かを判定する強コントラスト領域判定部と、
前記マッチング画像中に強コントラスト領域が存在すると判定された場合に、前記マッチング画像中の前記強コントラスト領域に対して、コントラストが低減されるように輝度を補正して、補正マッチング画像を作成する強コントラスト補正部と、
前記マッチング画像又は前記補正マッチング画像を用いて、前記対象物の存在を判定するためのマッチング処理を行うマッチング処理部と、
前記マッチング処理の処理結果に基づいて、前記対象画像中の前記対象物の位置を特定する対象物位置特定部と、
として機能させるための対象物検知プログラム。
An object detection program for causing a computer that constitutes an object detection device that detects an object from a predetermined target image to execute the program,
A matching image creating unit for creating a plurality of matching images for use in the matching process for determining the presence of the object from the target image;
For each of the plurality of matching images, a strong contrast region determination unit that determines whether or not there is a strong contrast region including a region having a higher brightness than the surroundings in the matching image;
When it is determined that a strong contrast region exists in the matching image, the luminance is corrected so that the contrast is reduced with respect to the strong contrast region in the matching image, and a strong matching image is generated. A contrast correction unit;
A matching processing unit that performs a matching process for determining the presence of the object using the matching image or the corrected matching image;
An object position specifying unit for specifying the position of the object in the target image based on the processing result of the matching process;
Object detection program to function as
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017060434A JP6533244B2 (en) | 2017-03-27 | 2017-03-27 | Object detection device, object detection method, and object detection program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017060434A JP6533244B2 (en) | 2017-03-27 | 2017-03-27 | Object detection device, object detection method, and object detection program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018163530A true JP2018163530A (en) | 2018-10-18 |
| JP6533244B2 JP6533244B2 (en) | 2019-06-19 |
Family
ID=63861007
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017060434A Expired - Fee Related JP6533244B2 (en) | 2017-03-27 | 2017-03-27 | Object detection device, object detection method, and object detection program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6533244B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022090758A1 (en) * | 2020-11-02 | 2022-05-05 | 日産自動車株式会社 | Parking assistance method and parking assistance device |
| US20220234604A1 (en) * | 2021-01-26 | 2022-07-28 | Ford Global Technologies, Llc | Hazard condition warning for package delivery operation |
| US12197200B2 (en) | 2019-09-30 | 2025-01-14 | Nec Corporation | Anomaly detection apparatus, anomaly detection method, and recording medium |
| WO2025253596A1 (en) * | 2024-06-06 | 2025-12-11 | Ntt株式会社 | Object detection device, method, and program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007004675A (en) * | 2005-06-27 | 2007-01-11 | Fujifilm Holdings Corp | Image correcting method |
| JP2007028540A (en) * | 2005-07-21 | 2007-02-01 | Nissan Motor Co Ltd | Outside vehicle situation presentation system and outside vehicle situation presentation method |
| JP2009098718A (en) * | 2007-10-12 | 2009-05-07 | Denso Corp | Image processing device |
| JP2010073009A (en) * | 2008-09-19 | 2010-04-02 | Denso Corp | Image processing apparatus |
| JP2016053830A (en) * | 2014-09-03 | 2016-04-14 | オムロン株式会社 | Image processor and image processing method |
-
2017
- 2017-03-27 JP JP2017060434A patent/JP6533244B2/en not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007004675A (en) * | 2005-06-27 | 2007-01-11 | Fujifilm Holdings Corp | Image correcting method |
| JP2007028540A (en) * | 2005-07-21 | 2007-02-01 | Nissan Motor Co Ltd | Outside vehicle situation presentation system and outside vehicle situation presentation method |
| JP2009098718A (en) * | 2007-10-12 | 2009-05-07 | Denso Corp | Image processing device |
| JP2010073009A (en) * | 2008-09-19 | 2010-04-02 | Denso Corp | Image processing apparatus |
| JP2016053830A (en) * | 2014-09-03 | 2016-04-14 | オムロン株式会社 | Image processor and image processing method |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12197200B2 (en) | 2019-09-30 | 2025-01-14 | Nec Corporation | Anomaly detection apparatus, anomaly detection method, and recording medium |
| WO2022090758A1 (en) * | 2020-11-02 | 2022-05-05 | 日産自動車株式会社 | Parking assistance method and parking assistance device |
| JPWO2022090758A1 (en) * | 2020-11-02 | 2022-05-05 | ||
| CN116508083A (en) * | 2020-11-02 | 2023-07-28 | 日产自动车株式会社 | Parking assistance method and parking assistance device |
| JP7405277B2 (en) | 2020-11-02 | 2023-12-26 | 日産自動車株式会社 | Parking support method and parking support device |
| US11884265B1 (en) | 2020-11-02 | 2024-01-30 | Nissan Motor Co., Ltd. | Parking assistance method and parking assistance device |
| CN116508083B (en) * | 2020-11-02 | 2024-04-26 | 日产自动车株式会社 | Parking assistance method and parking assistance device |
| US20220234604A1 (en) * | 2021-01-26 | 2022-07-28 | Ford Global Technologies, Llc | Hazard condition warning for package delivery operation |
| US11724641B2 (en) * | 2021-01-26 | 2023-08-15 | Ford Global Technologies, Llc | Hazard condition warning for package delivery operation |
| WO2025253596A1 (en) * | 2024-06-06 | 2025-12-11 | Ntt株式会社 | Object detection device, method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6533244B2 (en) | 2019-06-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102779430B (en) | Collision-warning system, controller and method of operating thereof after the night of view-based access control model | |
| US10796171B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
| US20230110116A1 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
| JP5690688B2 (en) | Outside world recognition method, apparatus, and vehicle system | |
| JP6611353B2 (en) | Image processing device, external recognition device | |
| US8848980B2 (en) | Front vehicle detecting method and front vehicle detecting apparatus | |
| US6727807B2 (en) | Driver's aid using image processing | |
| US9721460B2 (en) | In-vehicle surrounding environment recognition device | |
| JP6888950B2 (en) | Image processing device, external world recognition device | |
| JP6132412B2 (en) | Outside environment recognition device | |
| US7418112B2 (en) | Pedestrian detection apparatus | |
| JP4980970B2 (en) | Image pickup means adjustment device and object detection device | |
| US12103459B2 (en) | Method and system for displaying external communication message | |
| JP6533244B2 (en) | Object detection device, object detection method, and object detection program | |
| CN115088248A (en) | Image pickup apparatus, image pickup system, and image pickup method | |
| KR20150096924A (en) | System and method for selecting far forward collision vehicle using lane expansion | |
| JP7460282B2 (en) | Obstacle detection device, obstacle detection method, and obstacle detection program | |
| JPWO2020129517A1 (en) | Image processing device | |
| JP4930256B2 (en) | Adjacent vehicle detection device and adjacent vehicle detection method | |
| JP2017215743A (en) | Image processing device, and external world recognition device | |
| JP4901275B2 (en) | Travel guidance obstacle detection device and vehicle control device | |
| JP2009146153A (en) | Moving body detection apparatus, moving body detection method, and moving body detection program | |
| JP6087240B2 (en) | Vehicle periphery monitoring device | |
| JP2022161700A (en) | Traffic light recognition device | |
| US12511909B2 (en) | Occluded oncoming vehicles detection systems and methods |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190307 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190523 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6533244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |