[go: up one dir, main page]

JP2020011675A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2020011675A
JP2020011675A JP2018136603A JP2018136603A JP2020011675A JP 2020011675 A JP2020011675 A JP 2020011675A JP 2018136603 A JP2018136603 A JP 2018136603A JP 2018136603 A JP2018136603 A JP 2018136603A JP 2020011675 A JP2020011675 A JP 2020011675A
Authority
JP
Japan
Prior art keywords
information
parking frame
management
image processing
update type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018136603A
Other languages
Japanese (ja)
Other versions
JP7116613B2 (en
Inventor
康貴 岡田
Yasutaka Okada
康貴 岡田
純 金武
Jun Kanetake
純 金武
裕明 佐野
Hiroaki Sano
裕明 佐野
寛紀 森永
Hiroki Morinaga
寛紀 森永
山本 徹夫
Tetsuo Yamamoto
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018136603A priority Critical patent/JP7116613B2/en
Publication of JP2020011675A publication Critical patent/JP2020011675A/en
Application granted granted Critical
Publication of JP7116613B2 publication Critical patent/JP7116613B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる技術を提供する。【解決手段】画像処理装置は、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、を備える。前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する。【選択図】図3PROBLEM TO BE SOLVED: To provide a technique capable of improving the reliability of information regarding a parking frame obtained based on an image taken by a camera. An image processing device includes a recognition unit that recognizes a parking frame based on a captured image obtained by a camera that photographs the surroundings of a vehicle, and management information including position information of the parking frame that has been recognized in the past. It is provided with a management unit that updates based on observation information including the position information of the parking frame obtained from the currently captured image. Based on the management information and the observation information, the management unit classifies the update type for each section line constituting the parking frame to be managed, and updates the management information based on the classification. [Selection diagram] Fig. 3

Description

本発明は、画像処理装置および画像処理方法に関し、詳細には画像処理により駐車枠の認識および管理を行う技術に関する。   The present invention relates to an image processing device and an image processing method, and more particularly, to a technology for recognizing and managing a parking frame by image processing.

特許文献1には、カメラが撮影して得られた画像から白線を検出し、2つの白線間の領域を駐車スペースとして検知することが開示される。また、特許文献1には、検知した駐車スペースの情報を、車両運動取得部により出力された直前の処理周期から現在の処理周期までの車両の移動量を用いて更新することが開示される。   Patent Literature 1 discloses that a white line is detected from an image captured by a camera and a region between the two white lines is detected as a parking space. Patent Document 1 discloses that information on a detected parking space is updated by using a movement amount of a vehicle from a processing cycle immediately before output by a vehicle motion acquisition unit to a current processing cycle.

特開2017−87758号公報JP 2017-87758 A

特許文献1に開示される手法では、CANバスを介して車両の進行方向や速度に関する情報を取得して、当該情報により車両の移動量を求めて駐車スペースの現在位置を推定する。この構成では、車両の移動量の推定誤差が蓄積した場合に、駐車スペースの位置が適切な位置からずれる可能性がある。また、レンズの歪等の影響により、カメラから離れた位置において、撮影画像から白線の検出を適切に行うことができず、適切な駐車スペースを検知できないことがある。   In the method disclosed in Patent Document 1, information on the traveling direction and speed of a vehicle is acquired via a CAN bus, and the amount of movement of the vehicle is obtained based on the information to estimate the current position of the parking space. With this configuration, when the estimation error of the movement amount of the vehicle is accumulated, the position of the parking space may be shifted from an appropriate position. Further, due to the influence of distortion of the lens or the like, a white line cannot be appropriately detected from a captured image at a position distant from the camera, and an appropriate parking space may not be detected.

本発明は、上記課題に鑑みて、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる技術を提供することを目的とする。   The present invention has been made in view of the above circumstances, and has as its object to provide a technique capable of improving the reliability of information on a parking frame obtained based on a captured image of a camera.

上記目的を達成するために本発明の画像処理装置は、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、を備え、前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する構成(第1の構成)になっている。   In order to achieve the above object, an image processing apparatus according to the present invention includes a recognition unit that recognizes a parking frame based on a captured image obtained by a camera that captures a periphery of a vehicle, and position information of the parking frame recognized in the past. A management unit that updates management information based on observation information including position information of the parking frame obtained from a current captured image, and the management unit is based on the management information and the observation information. An update type is classified for each lane line constituting the parking frame to be managed, and the management information is updated based on the classification (first configuration).

上記第1の構成の画像処理装置において、前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる構成(第2の構成)であることが好ましい。   In the image processing device having the first configuration, the management unit performs a process of obtaining estimation information including position information of the parking frame based on the movement information of the vehicle and the management information. , A configuration (second configuration) that is performed based on the estimation information and the observation information.

上記第2の構成の画像処理装置において、前記管理部は、前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する構成(第3の構成)であることが好ましい。   In the image processing apparatus having the second configuration, the management unit may classify the lane marking in which the position information is included in both the observation information and the estimation information into a first update type, and position the lane marking only in the observation information. It is preferable that the lane marking including information is classified into a second update type, and the lane marking including positional information only in the estimation information is classified into a third update type (third configuration).

上記第3の構成の画像処理装置において、前記管理情報の更新に際して、前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される構成(第4の構成)であることが好ましい。   In the image processing apparatus having the third configuration, when updating the management information, the position information of the lane marking of the first update type is updated to the value of the observation information, and the lane marking of the second update type is updated. Is temporarily registered with the value of the observation information, and the position information of the lane marking of the third update type is a correction value obtained based on the value of the estimation information based on the observation information and the estimation information. It is preferable to adopt a configuration (a fourth configuration) in which the value is updated to the value corrected in (4).

上記第4の構成の画像処理装置において、前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する構成(第5の構成)であることが好ましい。   In the image processing apparatus having the fourth configuration, the management unit may collectively correct the values of the estimation information including the position information of the lane markings of the plurality of third update types with the same correction value. (Fifth configuration) is preferable.

上記第1から第5のいずれかの構成の画像処理装置において、前記カメラは、前記車両の側方に設けられるサイドカメラであり、前記認識部は、前記撮影画像の一部の領域を用いて前記駐車枠を認識する構成(第6の構成)であることが好ましい。   In the image processing device according to any one of the first to fifth configurations, the camera is a side camera provided on a side of the vehicle, and the recognition unit uses a partial area of the captured image. It is preferable that the parking frame is recognized (sixth configuration).

上記目的を達成するために本発明の画像処理方法は、画像処理装置で実行される画像処理方法であって、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、を備え、前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む構成(第7の構成)になっている。   In order to achieve the above object, an image processing method according to the present invention is an image processing method executed by an image processing apparatus, which recognizes a parking frame based on a captured image obtained by a camera that captures a periphery of a vehicle. And a management step of updating management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a current captured image. The process includes a process of classifying an update type for each lane line constituting the parking frame to be managed based on the management information and the observation information, and updating the management information based on the classification (the second process). 7 configuration).

本発明によれば、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる。   ADVANTAGE OF THE INVENTION According to this invention, the reliability of the information regarding the parking frame obtained based on the image picked up by the camera can be improved.

駐車支援システムの一構成例を示す図The figure which shows an example of 1 structure of a parking assistance system 区画線の探索領域について説明するための模式図Schematic diagram for explaining the search area of the lane marking 駐車枠を構成する区画線の更新種別例を示す表Table showing examples of update types of lane markings constituting parking frames 管理処理を例示するフローチャートFlowchart illustrating management processing 管理処理を説明するための模式図Schematic diagram for explaining management processing 図4に示す更新処理の具体例を示すフローチャート4 is a flowchart showing a specific example of the update process shown in FIG. 区画線の現在の認識イメージと、過去の認識イメージとを比較して示す模式図Schematic diagram showing a comparison between the current recognition image of the lane markings and the past recognition image 補正値の算出方法を説明するための模式図Schematic diagram for explaining a method of calculating a correction value

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。また、本発明の画像処理装置を含む駐車支援システムを搭載している車両を「自車両」と呼ぶ。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the direction in which the vehicle travels straight, that is, the direction from the driver's seat to the steering wheel is referred to as “forward”. The direction in which the vehicle travels straight, that is, the direction from the steering wheel to the driver's seat is referred to as “rearward direction”. Further, a direction from the right side to the left side of the driver facing the forward direction, which is a direction perpendicular to the straight traveling direction of the vehicle and the vertical line, is referred to as a “left direction”. Further, a direction that is perpendicular to the straight traveling direction of the vehicle and the vertical line and that is directed from the left side to the right side of the driver who is facing forward is referred to as “right direction”. A vehicle equipped with the parking assistance system including the image processing device of the present invention is referred to as a “own vehicle”.

<1.駐車支援システム>
本発明の画像処理装置は、例えば駐車支援システムに適用できる。図1は、本発明の画像処理装置1が適用される駐車支援システムの一構成例を示す図である。図1に示すように、駐車支援システムは、画像処理装置1と、撮影部2と、駐車制御ECU(Electronic Control Unit)3と、EPS(Electric Power Steering)−ECU4と、車載ネットワーク5と、を備える。
<1. Parking assistance system>
The image processing device of the present invention can be applied to, for example, a parking support system. FIG. 1 is a diagram illustrating a configuration example of a parking assistance system to which the image processing device 1 of the present invention is applied. As shown in FIG. 1, the parking assistance system includes an image processing device 1, a photographing unit 2, a parking control ECU (Electronic Control Unit) 3, an EPS (Electric Power Steering) -ECU 4, and a vehicle-mounted network 5. Prepare.

画像処理装置1は、撮影部2に接続されるとともに、駐車制御ECU3およびEPS−ECU4にCAN(Controller Area Network)などの車載ネットワーク5を介して接続される。画像処理装置1は、撮影部2で撮影される撮影画像に基づき駐車枠の認識と、認識した駐車枠の管理とを行う。すなわち、画像処理装置1は駐車枠管理装置として機能する。その他、画像処理装置1は、例えば、自車両が停止した時点で自車両に最も近い空き駐車枠を駐車すべき場所として目標駐車位置の算出を行う。画像処理装置1の詳細については後述する。   The image processing device 1 is connected to the photographing unit 2 and connected to the parking control ECU 3 and the EPS-ECU 4 via a vehicle-mounted network 5 such as a CAN (Controller Area Network). The image processing apparatus 1 performs recognition of a parking frame and management of the recognized parking frame based on an image captured by the image capturing unit 2. That is, the image processing device 1 functions as a parking frame management device. In addition, the image processing apparatus 1 calculates the target parking position, for example, as a place where the empty parking frame closest to the host vehicle should be parked when the host vehicle stops. Details of the image processing apparatus 1 will be described later.

なお、画像処理装置1には、例えば、液晶ディスプレイ等の表示装置が接続されてよい。画像処理装置1は、撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成して、表示装置に表示させる処理を行ってよい。   Note that a display device such as a liquid crystal display may be connected to the image processing device 1. The image processing device 1 may perform a process of generating a display image in which an index indicating the target parking position is superimposed on the captured image and displaying the display image on the display device.

撮影部2は、自車両の周辺を撮影するカメラを備える。本実施形態では、カメラは魚眼レンズを有する。撮影部2は、自車両の側方に設けられるサイドカメラ20を備える。サイドカメラ20は、自車両の周辺を撮影するカメラに含まれ、例えば自車両のドアミラー等に設けられる。サイドカメラ20は、左サイドカメラと右サイドカメラとを含むことが好ましい。左サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の左方向を撮影する。右サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の右方向を撮影する。なお、撮影部2は、サイドカメラ20の他に、自車両の前方を撮影するフロントカメラや、自車両の後方を撮影するバックカメラを備えることが好ましい。   The photographing unit 2 includes a camera that photographs the periphery of the vehicle. In this embodiment, the camera has a fisheye lens. The photographing unit 2 includes a side camera 20 provided on a side of the own vehicle. The side camera 20 is included in a camera that captures the surroundings of the host vehicle, and is provided on, for example, a door mirror of the host vehicle. The side camera 20 preferably includes a left side camera and a right side camera. The left side camera has an optical axis extending in the left-right direction of the own vehicle, and captures the left direction of the own vehicle. The right side camera has an optical axis extending in the left-right direction of the own vehicle, and captures the right direction of the own vehicle. It is preferable that the photographing unit 2 includes, in addition to the side camera 20, a front camera that photographs the front of the own vehicle and a back camera that photographs the rear of the own vehicle.

駐車制御ECU3は、画像処理装置1から受信した目標駐車位置と、不図示のクリアランスソナーセンサの出力とに基づいてステアリング操舵量を算出し、ステアリング操舵量に関する情報をEPS−ECU4に送信する。   The parking control ECU 3 calculates a steering amount based on the target parking position received from the image processing device 1 and an output of a clearance sonar sensor (not shown), and transmits information on the steering amount to the EPS-ECU 4.

EPS−ECU4は、駐車制御ECU3から受け取ったステアリング操舵量に関する情報に基づいて自車両の駐車動作時に自動操舵を行う。なお、本実施形態では、アクセル操作及びブレーキ操作はドライバーが担う。   The EPS-ECU 4 performs automatic steering at the time of the parking operation of the own vehicle based on the information on the steering amount received from the parking control ECU 3. In the present embodiment, the driver operates the accelerator operation and the brake operation.

<2.画像処理装置>
図1に示すように、画像処理装置1は、制御部11と記憶部12とを備える。制御部11は、画像処理装置1の全体を制御する。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、及び、ROM(Read Only Memory)などを備えるコンピュータで構成される。記憶部12は、制御部11が動作するために必要なコンピュータプログラムおよびデータを不揮発的に記憶する。記憶部12としては、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等を用いることができる。
<2. Image processing device>
As shown in FIG. 1, the image processing apparatus 1 includes a control unit 11 and a storage unit 12. The control unit 11 controls the entire image processing apparatus 1. The control unit 11 is configured by, for example, a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). The storage unit 12 stores computer programs and data necessary for the operation of the control unit 11 in a nonvolatile manner. As the storage unit 12, for example, an electrically erasable programmable read-only memory (EEPROM), a flash memory, or the like can be used.

図1に示す映像取得部111、探索部112、認識部113、および、管理部114は、記憶部12に記憶されるコンピュータプログラムの実行により実現される制御部11の機能である。換言すると、画像処理装置1は、映像取得部111と、探索部112と、認識部113と、管理部114とを備える。   The video acquisition unit 111, the search unit 112, the recognition unit 113, and the management unit 114 illustrated in FIG. 1 are functions of the control unit 11 realized by executing a computer program stored in the storage unit 12. In other words, the image processing device 1 includes the video acquisition unit 111, the search unit 112, the recognition unit 113, and the management unit 114.

なお、制御部11が備える各機能部111〜114の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、制御部11が備える各機能部111〜114は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。   At least one of the functional units 111 to 114 included in the control unit 11 may be configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The function units 111 to 114 included in the control unit 11 are conceptual components. The functions performed by one component may be distributed to a plurality of components, or the functions of the plurality of components may be integrated into one component.

映像取得部111は、サイドカメラ20を含む撮影部2が備える各カメラからアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した時間的に連続した撮影画像(取得した映像)がアナログの場合には、映像取得部111は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。   The video acquisition unit 111 acquires an analog or digital captured image from each camera included in the imaging unit 2 including the side camera 20 continuously in a predetermined cycle (for example, 1/30 second cycle). If the acquired temporally continuous captured images (acquired videos) are analog, the video acquisition unit 111 converts the analog captured images into digital captured images (A / D conversion).

探索部112は、映像取得部111から出力されるサイドカメラ20の撮影画像に基づき駐車枠を構成する区画線を探索する。なお、サイドカメラ20が左サイドカメラと右サイドカメラとを含む場合、探索部112は、各カメラの撮影画像に対して区画線の探索を行う。   The search unit 112 searches for a lane marking that forms a parking frame based on the captured image of the side camera 20 output from the video acquisition unit 111. When the side camera 20 includes the left side camera and the right side camera, the search unit 112 searches for a lane marking on an image captured by each camera.

探索部112は、例えば自車両の車速が所定速度以下になった場合に区画線の探索を開始する。本実施形態では、探索部112は、サイドカメラ20の撮影画像から、エッジ抽出などの画像処理を利用して例えば100ms周期で区画線を検出する。なお、区画線は駐車場の舗装面に白線や黄線などで描かれる。   The search unit 112 starts searching for a lane marking, for example, when the vehicle speed of the own vehicle becomes equal to or lower than a predetermined speed. In the present embodiment, the search unit 112 detects a lane marking from the image captured by the side camera 20 at a period of, for example, 100 ms using image processing such as edge extraction. The lane markings are drawn on the pavement of the parking lot with white lines, yellow lines, or the like.

図2は、区画線の探索領域について説明するための模式図である。図2は、自車両Vが駐車場内に進入し、自車両Vの左側方に複数の区画線SLが存在する状態を示す。各区画線SLは左右方向に延びる。すなわち、各区画線SLは、左サイドカメラ20Lの光軸と平行な方向に延びる。複数の区画線SLは、前後方向に所定間隔をあけて並ぶ。図2において、破線で囲まれる領域Rは、自車両Vの左サイドカメラ20Lの撮影領域を模式的に示す。   FIG. 2 is a schematic diagram for explaining a search area for a lane marking. FIG. 2 shows a state in which the host vehicle V has entered the parking lot and a plurality of lane markings SL exist on the left side of the host vehicle V. Each partition line SL extends in the left-right direction. That is, each division line SL extends in a direction parallel to the optical axis of the left side camera 20L. The plurality of division lines SL are arranged at predetermined intervals in the front-rear direction. In FIG. 2, a region R surrounded by a broken line schematically shows a photographing region of the left side camera 20L of the host vehicle V.

左サイドカメラ20Lの撮影画像は、左サイドカメラ20Lの光軸に沿う正面方向において解像度が高く、光軸から前後方向に離れるにつれてレンズ歪の影響等により解像度が低下する。このために、図2にグラフで示すように、左サイドカメラ20Lの撮影画像の全領域から区画線SLを検出する場合、正面方向から検出される区画線SLの情報は信頼度が高いが、光軸から前後方向に離れた位置から検出される区画線SLの情報は信頼度が低くなる。このような傾向は、右サイドカメラの場合にも当てはまる。すなわち、サイドカメラ20の撮影画像の全領域から区画線SLを検出する構成では、信頼度の高い区画線SLの情報と、信頼度の低い区画線SLの情報とが混じる可能性がある。   The resolution of the image captured by the left side camera 20L is high in the front direction along the optical axis of the left side camera 20L, and the resolution decreases as the distance from the optical axis in the front-back direction decreases due to the influence of lens distortion and the like. For this reason, as shown by the graph in FIG. 2, when the lane markings SL are detected from the entire region of the image captured by the left side camera 20L, the information of the lane markings SL detected from the front has high reliability, The reliability of the information of the division line SL detected from a position away from the optical axis in the front-rear direction is low. Such a tendency also applies to the right side camera. That is, in the configuration in which the lane markings SL are detected from the entire region of the image captured by the side camera 20, information on the lane markings SL with high reliability and information on the lane markings SL with low reliability may be mixed.

この点を考慮して、本実施形態では、探索部112は、サイドカメラ20の撮影画像のうち、信頼度の高い区画線情報を取得することができる領域に絞って区画線SLの探索を行う構成としている。探索部112は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭い領域を探索領域として区画線SLの探索を行う。探索領域は、例えば、駐車枠Pを構成する区画線SLが3本程度入る広さを有する。   In consideration of this point, in the present embodiment, the search unit 112 searches for the lane markings SL in the image captured by the side camera 20 in a region where the lane marking information with high reliability can be obtained. It has a configuration. The search unit 112 searches for a lane marking SL using a narrow area centered on the front direction along the optical axis of the side camera 20 in the captured image of the side camera 20 as a search area. The search area has, for example, an area in which about three lane markings SL configuring the parking frame P can enter.

図1に戻って、認識部113は、探索部112で検出した区画線SLに関する情報に基づき駐車枠Pを認識する。換言すると、認識部113は、サイドカメラ20で得られた撮影画像に基づき駐車枠Pを認識する。認識部113は、2つの区画線SL間の平行度や区画線SL間の幅等を求め、これらの結果に基づき駐車枠を認識する。例えば、認識部113は、所定間隔をあけて平行配置される2本の区画線SL間の領域を駐車枠Pとして認識する。所定間隔は、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。   Returning to FIG. 1, the recognition unit 113 recognizes the parking frame P based on the information about the lane marking SL detected by the search unit 112. In other words, the recognition unit 113 recognizes the parking frame P based on the captured image obtained by the side camera 20. The recognition unit 113 calculates the parallelism between the two lane markings SL, the width between the lane markings SL, and the like, and recognizes the parking frame based on these results. For example, the recognition unit 113 recognizes, as a parking frame P, an area between two lane markings SL arranged in parallel at a predetermined interval. The predetermined interval is, for example, the width of a standard parking area for general public defined by laws and regulations on parking lots.

本実施形態では、上述のように、探索部112が、サイドカメラ20の撮影画像のうち、画像の信頼度の高い狭領域に絞って区画線SLの探索を行う。このために、認識部113は、サイドカメラ20の撮影画像の中心部を含む一部の領域を用いて駐車枠Pを認識する。詳細には、認識部113は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭領域の画像を用いて駐車枠Pの認識を行う。狭領域は、例えば、駐車枠Pが1枠から2枠程度入る広さを有する領域としてよく、本実施形態では、狭領域は駐車枠Pが2枠程度入る広さを有する領域である。これによれば、認識部113は、撮影画像のうち、画像の信頼度の高い領域から得られる区画線SLに絞って駐車枠Pを認識することができる。このために、認識部113によって認識される駐車枠Pの信頼度を向上することができる。   In the present embodiment, as described above, the search unit 112 searches for the lane markings SL by narrowing down, in the image captured by the side camera 20, a narrow area having high image reliability. For this reason, the recognition unit 113 recognizes the parking frame P using a partial area including the center of the image captured by the side camera 20. More specifically, the recognition unit 113 recognizes the parking frame P using an image of a narrow area centered on the front direction along the optical axis of the side camera 20 among the images captured by the side camera 20. The narrow region may be, for example, a region having a size that allows about one to two parking frames P. In the present embodiment, the narrow region is a region having a size that allows about two parking frames P. According to this, the recognizing unit 113 can recognize the parking frame P by narrowing down to the lane marking SL obtained from a region having high image reliability in the captured image. For this reason, the reliability of the parking frame P recognized by the recognition unit 113 can be improved.

管理部114は、認識部113で認識された駐車枠Pに関する情報を管理情報121として時系列で管理する。管理情報121は、記憶部12に記憶され、適宜更新される。なお、管理部114は、過去に認識部113で認識された駐車枠の全てを管理する必要はなく、例えば、時間的に直近に認識された複数の駐車枠Pのみを管理し、古い駐車枠Pの情報は管理対象から適宜除外する構成としてよい。これにより、記憶部12に要求される記憶容量を低く抑えることができる。   The management unit 114 manages information on the parking frame P recognized by the recognition unit 113 as management information 121 in a time-series manner. The management information 121 is stored in the storage unit 12 and is updated as appropriate. Note that the management unit 114 does not need to manage all of the parking frames recognized by the recognition unit 113 in the past. For example, the management unit 114 manages only a plurality of parking frames P that have been recognized most recently in time. The information of P may be appropriately excluded from the management target. As a result, the storage capacity required for the storage unit 12 can be reduced.

本実施形態では、管理部114は、過去に認識された駐車枠Pの位置情報を含む管理情報121を、サイドカメラ20の現在の撮影画像から得られる駐車枠Pの位置情報を含む観測情報に基づき更新する。なお、駐車枠Pの位置情報には、駐車枠Pを構成する区画線SLの位置情報が含まれる。管理情報121は、駐車枠Pおよび区画線SLに関する位置情報を、例えば、複数の頂点座標の組み合わせとして有する。各駐車枠Pは、当該駐車枠Pを構成する区画線SLの頂点座標の組み合わせとして管理されてよい。   In the present embodiment, the management unit 114 converts the management information 121 including the position information of the parking frame P recognized in the past into the observation information including the position information of the parking frame P obtained from the current captured image of the side camera 20. Update based on Note that the position information of the parking frame P includes the position information of the lane marking SL that forms the parking frame P. The management information 121 has position information on the parking frame P and the lane marking SL, for example, as a combination of a plurality of vertex coordinates. Each parking frame P may be managed as a combination of the vertex coordinates of the lane markings SL constituting the parking frame P.

詳細には、管理部114は、管理情報121と観測情報とに基づき、管理対象となる駐車枠Pを構成する区画線SLごとに更新種別を分類する。管理部114は、更新種別の分類に基づき管理情報121を更新する。これによると、管理対象となる駐車枠Pを構成する各区画線SLに対して、分類に応じた適切な手法で更新処理を行うことができ、管理情報121の信頼度を向上することができる。   Specifically, based on the management information 121 and the observation information, the management unit 114 classifies the update type for each lane line SL configuring the parking frame P to be managed. The management unit 114 updates the management information 121 based on the classification of the update type. According to this, the updating process can be performed on each of the lane markings SL configuring the parking frame P to be managed by an appropriate method according to the classification, and the reliability of the management information 121 can be improved. .

より詳細には、管理部114は、自車両Vの移動情報と管理情報121とに基づき駐車枠Pの位置情報を含む推定情報を求める処理を行う。推定情報は、自車両Vの移動により、管理情報121に含まれる各駐車枠Pの位置がいずれの位置に移動したかを推定するものである。推定情報には、駐車枠Pを構成する区画線SLに関する情報が含まれる。自車両Vの移動情報は、例えば、車載ネットワーク5から取得される自車両Vの舵角、車速、シフトなどの情報である。この場合、管理部114は、自車両Vの移動情報から自車両Vの移動量を推定し、当該推定移動量と管理情報121とに基づき、過去に認識した各駐車枠Pの現在位置を推定する。管理情報121に複数の駐車枠Pの情報が含まれている場合には、管理部114は、複数の駐車枠Pのそれぞれに対して現在位置の推定を行う。   More specifically, the management unit 114 performs a process of obtaining estimated information including the position information of the parking frame P based on the movement information of the host vehicle V and the management information 121. The estimation information is for estimating to which position the position of each parking frame P included in the management information 121 has moved due to the movement of the host vehicle V. The estimation information includes information on the lane marking SL that forms the parking frame P. The movement information of the own vehicle V is, for example, information such as a steering angle, a vehicle speed, and a shift of the own vehicle V acquired from the on-vehicle network 5. In this case, the management unit 114 estimates the movement amount of the own vehicle V from the movement information of the own vehicle V, and estimates the current position of each parking frame P recognized in the past based on the estimated movement amount and the management information 121. I do. When the management information 121 includes information on a plurality of parking frames P, the management unit 114 estimates the current position of each of the plurality of parking frames P.

なお、自車両Vの移動情報は、舵角や車速等の実測情報に限らず、例えば、自車両Vの推定移動量等の実測情報を加工した情報であってもよい。この場合、自車両Vの推定移動量は、例えば駐車制御ECU3によって求められてよい。そして、管理部114は、駐車制御ECU3から取得される自車両Vの推定移動量と、管理情報121として過去に記憶された駐車枠Pの情報とに基づき、現在の駐車枠Pの位置を推定してよい。   The movement information of the host vehicle V is not limited to the measurement information such as the steering angle and the vehicle speed, but may be information obtained by processing the measurement information such as the estimated moving amount of the host vehicle V. In this case, the estimated moving amount of the vehicle V may be obtained by, for example, the parking control ECU 3. Then, the management unit 114 estimates the current position of the parking frame P based on the estimated movement amount of the vehicle V acquired from the parking control ECU 3 and the information on the parking frame P stored in the past as the management information 121. May do it.

本実施形態では、駐車枠Pを構成する区画線SLの更新種別の分類は、推定情報と観測情報とに基づいて行われる。これによると、信頼度の高い観測情報の結果を優先して管理情報121の更新を行うことができ、管理情報121の信頼度を向上することができる。   In the present embodiment, the classification of the update type of the lane marking SL constituting the parking frame P is performed based on the estimation information and the observation information. According to this, the management information 121 can be updated by giving priority to the result of the observation information with high reliability, and the reliability of the management information 121 can be improved.

図3は、駐車枠Pを構成する区画線SLの更新種別例を示す表である。図3において、観測値が「○」とは、観測情報の中に区画線情報が存在する区画線SLが対応する。図3において、観測値が「×」とは、観測情報の中に区画線情報が存在しない区画線SLが対応する。図3において、推定値が「○」とは、推定情報の中に区画線情報が存在する区画線SLが対応する。図3において、推定値が「×」とは、推定情報の中に区画線情報が存在しない区画線SLが対応する。   FIG. 3 is a table showing an example of the update types of the lane markings SL constituting the parking frame P. In FIG. 3, an observation value of “○” corresponds to a lane marking SL in which lane marking information exists in the observation information. In FIG. 3, the observation value “x” corresponds to a lane marking SL in which lane marking information does not exist in the observation information. In FIG. 3, the estimated value “○” corresponds to the lane marking SL in which the lane marking information exists in the estimation information. In FIG. 3, the estimated value “x” corresponds to the lane marking SL in which the lane marking information does not exist in the estimation information.

観測情報および推定情報の中に区画線情報が存在する区画線SLは、観測値「○」且つ推定値「○」となり、第1更新種別に分類される。観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線SLは、観測値「○」且つ推定値「×」となり、第2更新種別に分類される。観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線SLは、観測値「×」且つ推定値「○」となり、第3更新種別に分類される。なお、観測情報および推定情報の中に区画線情報が存在しない区画線SLは、処理対象とできないために更新種別が与えられない。   A lane marking SL in which lane marking information exists in the observation information and the estimation information becomes an observation value “○” and an estimation value “○”, and is classified into the first update type. A lane marking SL in which lane marking information exists in the observation information and in which the lane marking information does not exist in the estimation information has an observation value of “○” and an estimated value of “×”, and is classified into the second update type. A lane marking SL in which lane marking information does not exist in the observation information and lane marking information exists in the estimation information becomes an observation value "x" and an estimation value "o", and is classified into the third update type. . Note that a lane marking SL in which lane marking information does not exist in the observation information and the estimation information cannot be processed, and is not given an update type.

すなわち、管理部114は、観測情報と推定情報との両方に位置情報が含まれる区画線SLを第1更新種別に分類し、観測情報にのみ位置情報が含まれる区画線SLを第2更新種別に分類し、推定情報にのみ位置情報が含まれる区画線SLを第3更新種別に分類する。これによると、時系列で取得される複数の区画線SLの位置情報を適切に分類することができ、駐車枠Pの管理情報121を適切に更新することができる。   That is, the management unit 114 classifies the lane marking SL in which the position information is included in both the observation information and the estimation information into the first update type, and classifies the lane marking SL in which the position information is included only in the observation information into the second update type. And the lane marking SL in which the position information is included only in the estimation information is classified into the third update type. According to this, the position information of the plurality of lane markings SL acquired in a time series can be appropriately classified, and the management information 121 of the parking frame P can be appropriately updated.

本実施形態では、管理部114は、これら3つの更新種別に基づき管理情報121の更新を行う。図4は、管理部114によって実行される管理処理を例示するフローチャートである。なお、図4に示す管理処理の説明に際し、理解を容易にするために、図5に示す模式的な例を適宜参照しながら説明を行う。   In the present embodiment, the management unit 114 updates the management information 121 based on these three update types. FIG. 4 is a flowchart illustrating a management process performed by the management unit 114. In the description of the management process shown in FIG. 4, the description will be given with reference to the schematic example shown in FIG.

図5は、管理処理を説明するための模式図である。駐車場内に進入した自車両Vは、第1区画線SL1、第2区画線SL2、第3区画線SL3・・・という順番で各区画線SL1〜SL10を通過する。自車両Vの前進に伴い、認識部113は、各区画線SL1〜SL10を、左サイドカメラ20Lから順次取得される撮影画像に基づき駐車枠Pを構成する区画線として順次認識する。   FIG. 5 is a schematic diagram for explaining the management process. The vehicle V that has entered the parking lot passes through the lane markings SL1 to SL10 in the order of the first lane marking SL1, the second lane marking SL2, the third lane marking SL3, and so on. As the host vehicle V moves forward, the recognition unit 113 sequentially recognizes the lane markings SL1 to SL10 as lane markings constituting the parking frame P based on the captured images sequentially acquired from the left side camera 20L.

図5に示す例では、第1区画線SL1から第9区画線SL9までは、認識部113によって駐車枠Pを構成する区画線SLとして既に認識され、これらの区画線情報は管理情報121に含まれている。すなわち、管理部114は、第1区画線SL1から第9区画線SL9について推定情報を求めることができる。また、第8区画線SL8から第10区画線SL10は、左サイドカメラ20Lの現在の撮影画像から駐車枠Pを構成する区画線として認識されている。   In the example illustrated in FIG. 5, the first division line SL1 to the ninth division line SL9 are already recognized as the division lines SL configuring the parking frame P by the recognition unit 113, and these division line information is included in the management information 121. Have been. That is, the management unit 114 can obtain estimation information for the first to ninth lane markings SL1 to SL9. Further, the eighth to tenth lane markings SL8 to SL10 are recognized as lane markings constituting the parking frame P from the current captured image of the left side camera 20L.

管理部114による管理処理(管理工程)は、例えば、認識部113によって現在の撮影画像に対する駐車枠Pの認識処理が完了した時点で開始される。まず、管理部114は観測情報を取得する(ステップS1)。図5に示す例では、管理部114は、ステップS1により第8〜第10の3つの区画線SL8〜SL10の情報を取得する。   The management process (management process) by the management unit 114 is started, for example, when the recognition unit 113 completes the process of recognizing the parking frame P for the current captured image. First, the management unit 114 acquires observation information (step S1). In the example illustrated in FIG. 5, the management unit 114 acquires information on the eighth to tenth division lines SL8 to SL10 in step S1.

次に、管理部114は推定情報を取得する(ステップS2)。管理部114は、現在の撮影画像より1つ前の撮影画像を取得した時点から現在の撮影画像を取得した時点までの自車両Vの推定移動量を算出する。そして、管理部114は、当該推定移動量と、現時点で記憶部12に記憶される管理情報121とに基づいて推定情報を求める。図5に示す例では、管理部114は、ステップS2により、第1〜第9の9つの区画線SL1〜SL9の推定位置を求める。なお、ステップS2は、ステップS1より先に行われてもよいし、ステップS1と並行して行われてもよい。   Next, the management unit 114 acquires estimation information (step S2). The management unit 114 calculates an estimated movement amount of the host vehicle V from the time when the immediately preceding captured image is acquired to the time when the current captured image is acquired. Then, the management unit 114 obtains estimation information based on the estimated movement amount and the management information 121 currently stored in the storage unit 12 at the present time. In the example illustrated in FIG. 5, the management unit 114 calculates the estimated positions of the first to ninth division lines SL1 to SL9 in step S2. Step S2 may be performed before step S1, or may be performed in parallel with step S1.

管理部114は、観測情報と推定情報とを取得すると、各区画線SLに対して更新種別の分類を行う(ステップS3)。詳細には、管理部114は、各区画線SLが、第1更新種別と、第2更新種別と、第3更新種別とのうちのいずれに属するかを判断する。   When acquiring the observation information and the estimation information, the management unit 114 classifies the update type for each lane marking SL (step S3). Specifically, the management unit 114 determines which of the first update type, the second update type, and the third update type each lane line SL belongs to.

図5に示す例では、第8区画線SL8および第9区画線SL9は、観測情報および推定情報の中に区画線情報が存在する区画線に該当する。このために、第8区画線SL8および第9区画線SL9は、第1更新種別に分類される。第10区画線SL10は、観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線に該当する。このために、第10区画線SL10は、第2更新種別に分類される。第1〜第7区画線SL1〜SL7は、観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線に該当する。このために、第1〜第7区画線SL1〜SL7は、第3更新種別に分類される。   In the example shown in FIG. 5, the eighth lane marking SL8 and the ninth lane marking SL9 correspond to lane markings where lane marking information exists in the observation information and the estimated information. Therefore, the eighth division line SL8 and the ninth division line SL9 are classified into the first update type. The tenth lane marking SL10 corresponds to a lane marking having lane marking information in the observation information and no lane marking information in the estimation information. For this reason, the tenth division line SL10 is classified into the second update type. The first to seventh lane markings SL1 to SL7 correspond to lane markings where lane marking information does not exist in the observation information and lane marking information exists in the estimation information. Therefore, the first to seventh division lines SL1 to SL7 are classified into the third update type.

なお、管理部114は、観測情報に含まれる各区画線SLが過去に認識した区画線SLのいずれかと同じであるか否かは、観測情報から得られる位置と、推定情報から得られる位置とを比較することにより判断する。本実施形態では、観測情報から得られる位置と、推定情報から得られる位置とが完全に一致していなくても、位置の差が所定の閾値内であれば、同一の区画線SLであると判断する。   The management unit 114 determines whether each of the lane markings SL included in the observation information is the same as any of the lane markings SL recognized in the past, based on the position obtained from the observation information and the position obtained from the estimation information. Is determined by comparing In the present embodiment, even if the position obtained from the observation information and the position obtained from the estimation information do not completely match, if the difference between the positions is within a predetermined threshold value, it is determined that the same division line SL exists. to decide.

管理部114は、各区画線SLの更新種別を分類すると、当該分類結果に基づき記憶部12に現在記憶される管理情報121を更新する(ステップS4)。管理情報121の更新に際して、第1更新種別の区画線SLの位置情報は、観測情報の値に更新される(観測更新)。また、第2更新種別の区画線SLの位置情報は、観測情報の値で仮登録される(新規登録)。なお、仮登録の段階では、当該区画線SLは、更新種別の分類において過去に認識された区画線SLとして取り扱われず、後述の補正値の算出にも使用されない。仮登録が複数回されると、当該区画線SLは本登録となる。これにより、管理情報121の信頼度を更に向上することができる。ただし、1回目の観測で仮登録とすることなく本登録とする構成としてもよい。この場合には、第1更新種別と第2更新種別とを2つに分けず、同じ分類としてよい。更に、第3更新種別の区画線SLの位置情報は、推定情報の値を、観測情報と推定情報とに基づき得られる補正値で補正した値に更新される。   After classifying the update type of each lane marking SL, the management unit 114 updates the management information 121 currently stored in the storage unit 12 based on the classification result (step S4). When the management information 121 is updated, the position information of the lane marking SL of the first update type is updated to the value of the observation information (observation update). The position information of the lane marking SL of the second update type is provisionally registered with the value of the observation information (new registration). Note that, at the stage of temporary registration, the lane marking SL is not treated as a lane marking SL recognized in the past in the classification of the update type, and is not used for calculating a correction value described later. If the temporary registration is performed a plurality of times, the demarcation line SL becomes the main registration. Thereby, the reliability of the management information 121 can be further improved. However, a configuration may be adopted in which the actual registration is performed without the temporary registration in the first observation. In this case, the first update type and the second update type are not divided into two, and may be the same classification. Further, the position information of the division line SL of the third update type is updated to a value obtained by correcting the value of the estimated information with a correction value obtained based on the observation information and the estimated information.

図5に示す例では、管理部114は、第8区画線SL8と第9区画線SL9の位置情報を観測情報の値に更新する。管理部114は、第10区画線SL10の位置情報を観測情報の値で仮登録する。管理部114は、第1〜第7の7つの区画線SL1〜SL7の位置情報について、各推定値を補正値で補正した値で更新する。これらの更新により、駐車枠Pの情報を含む管理情報121の更新が完了する。   In the example illustrated in FIG. 5, the management unit 114 updates the position information of the eighth division line SL8 and the ninth division line SL9 to the value of the observation information. The management unit 114 temporarily registers the position information of the tenth lane marking SL10 with the value of the observation information. The management unit 114 updates the position information of the first to seventh seven division lines SL1 to SL7 with a value obtained by correcting each estimated value with a correction value. With these updates, the update of the management information 121 including the information on the parking frame P is completed.

本実施形態では、撮影画像の信頼度の高い領域を用いて観測情報が得られるために、観測情報に含まれる区画線情報の信頼度を高くすることができる。すなわち、観測値で更新される第1更新種別および第2更新種別の区画線の更新情報の信頼度を向上することができる。そして、撮影画像によって認識できず、自車両Vの移動量から推定した結果で更新する必要がある第3更新種別の区画線SLの位置情報について、観測情報から得られる補正値で推定値の補正を行って更新情報を得る構成になっている。このために、第3更新種別の区画線について、更新処理の際に車両の移動量推定の誤差が蓄積して本来の位置からずれることを抑制することができる。すなわち、本実施形態によれば、駐車枠Pの管理情報121の信頼度を向上することができる。   In the present embodiment, since the observation information is obtained by using the region of the captured image with high reliability, the reliability of the lane line information included in the observation information can be increased. That is, it is possible to improve the reliability of the update information of the lane markings of the first update type and the second update type updated with the observation value. Then, the position information of the lane marking SL of the third update type, which cannot be recognized by the photographed image and needs to be updated with the result estimated from the moving amount of the vehicle V, is corrected by the correction value obtained from the observation information. Is performed to obtain update information. For this reason, it is possible to suppress the deviation of the vehicle from the original position due to accumulation of errors in the estimation of the movement amount of the vehicle during the update process for the lane marking of the third update type. That is, according to the present embodiment, the reliability of the management information 121 of the parking frame P can be improved.

図4に示す更新処理(ステップS4)の具体例について説明する。図6は、図4に示す更新処理の具体例を例示するフローチャートである。管理部114は、各区画線SLの更新種別を分類すると、分類された更新種別の中に第1更新種別が存在するか否かを確認する(ステップS41)。図5に示す例では、2つの区画線SL8、SL9が第1更新種別に分類されるために、管理部114は、第1更新種別が存在すると判断する。   A specific example of the update process (step S4) shown in FIG. 4 will be described. FIG. 6 is a flowchart illustrating a specific example of the update process illustrated in FIG. After classifying the update type of each lane marking SL, the management unit 114 checks whether or not the first update type exists in the classified update types (step S41). In the example shown in FIG. 5, since the two partition lines SL8 and SL9 are classified into the first update type, the management unit 114 determines that the first update type exists.

第1更新種別が存在すると判断すると(ステップS41Yes)、管理部114は、補正値の算出を行う(ステップS42)。補正値は、推定情報を補正するために用いられる。補正値の算出方法について、図7および図8を参照して説明する。   When determining that the first update type exists (Step S41 Yes), the management unit 114 calculates a correction value (Step S42). The correction value is used to correct the estimation information. A method of calculating the correction value will be described with reference to FIGS.

図7は、区画線SLの現在の認識イメージI(t)と、過去の認識イメージI(t−1)とを比較して示す模式図である。図7において、実線は現在の認識イメージI(t)であり、破線は過去の認識イメージI(t−1)である。現在の認識イメージI(t)は、自車両V(t)の左サイドカメラ20Lの撮影画像から取得されるものであり、過去の認識イメージI(t−1)は、自車両V(t−1)の左サイドカメラ20Lの撮影画像から取得されるものである。図7における過去とは、現在より1周期(カメラの撮影周期)前の時間を指す。図7に示すように、自車両Vの移動により、撮影画像によって認識される区画線SLの位置も移動している。また、自車両Vの移動により撮影画像によって認識される区画線SLの種類も変化している。すなわち、過去の認識イメージI(t−1)は、第7〜第9の3つの区画線SL7〜SL9が認識されていたが、現在の認識イメージI(t)では、第8〜第10の3つの区画線SL8〜SL10が認識されている。   FIG. 7 is a schematic diagram showing a comparison between the current recognition image I (t) of the lane marking SL and the past recognition image I (t-1). In FIG. 7, the solid line is the current recognition image I (t), and the broken line is the past recognition image I (t-1). The current recognition image I (t) is obtained from an image captured by the left side camera 20L of the own vehicle V (t), and the past recognition image I (t-1) is obtained from the own vehicle V (t- This is obtained from the image captured by the left side camera 20L in 1). The past in FIG. 7 refers to a time one cycle (camera shooting cycle) before the present. As shown in FIG. 7, the position of the lane marking SL recognized by the captured image is also moving due to the movement of the host vehicle V. In addition, the type of the demarcation line SL recognized by the captured image due to the movement of the host vehicle V also changes. That is, in the past recognition image I (t-1), the seventh to ninth three division lines SL7 to SL9 are recognized, but in the current recognition image I (t), the eighth to tenth division lines SL (s) are recognized. Three partition lines SL8 to SL10 are recognized.

図8は、補正値の算出方法を説明するための模式図である。図8は、図7の現在の認識イメージI(t)のみを抽出し、補正値の算出方法の説明に必要となる事項を書き加えた図である。管理部114は、補正値の算出に際して、観測情報に含まれる区画線情報と、推定情報に含まれる区画線情報とを比較する。   FIG. 8 is a schematic diagram for explaining a method of calculating a correction value. FIG. 8 is a diagram in which only the current recognition image I (t) in FIG. 7 is extracted, and items necessary for explaining the method of calculating the correction value are added. When calculating the correction value, the management unit 114 compares the lane marking information included in the observation information with the lane marking information included in the estimation information.

図8に示す例で具体的に説明する。管理部114は、第8区画線SL8および第9区画線SL9について、現在(t)の位置と、1周期前(t−1)の位置から推定される推定位置(一点鎖線で示す位置)とを比較し、位置の差分値Δを算出する。管理部14は、この差分値Δを補正値とする。   This will be specifically described with reference to an example shown in FIG. The management unit 114 determines the current (t) position and the estimated position (position indicated by the one-dot chain line) estimated from the current (t) position and the position one cycle before (t-1) with respect to the eighth division line SL8 and the ninth division line SL9. Are compared to calculate a position difference value Δ. The management unit 14 uses the difference value Δ as a correction value.

なお、第8区画線SL8を用いて求められる差分値Δと、第9区画線SL9を用いて求められる差分値Δとは同じである場合もあるし、同じとならない場合もある。値の異なる複数の差分値Δが取得された場合には、例えば、複数の差分値の平均値を補正値としてよい。また、別の手法として、複数の差分値Δのうち、信頼性が高いと判断される差分値Δを補正値としてもよい。例えば、撮影画像の中央で認識される区画線情報は中央からずれた位置で認識される区画線情報より信頼度が高いと推定される。このために、撮影画像の中央位置により近い位置から認識された区画線情報を信頼度が高いとして、当該区画線情報から得られる差分値Δを補正値としてよい。なお、本例では、求められる差分値の数が2つであるが、この数は適宜変わり、1つのこともあるし、3つ以上のこともある。   It should be noted that the difference value Δ obtained using the eighth division line SL8 may or may not be the same as the difference value Δ obtained using the ninth division line SL9. When a plurality of difference values Δ having different values are obtained, for example, an average value of the plurality of difference values may be used as the correction value. As another method, of the plurality of difference values Δ, the difference value Δ determined to be highly reliable may be used as the correction value. For example, it is estimated that the lane marking information recognized at the center of the captured image has higher reliability than the lane marking information recognized at a position shifted from the center. For this reason, the lane marking information recognized from a position closer to the center position of the captured image may be regarded as having high reliability, and the difference value Δ obtained from the lane marking information may be used as the correction value. In this example, the number of difference values to be obtained is two, but this number may be changed as appropriate, and may be one, or may be three or more.

管理部114は、補正値を算出すると、補正処理を行う(ステップS43)。詳細には、管理部114は、第3更新種別の区画線SLの位置情報について、推定情報の値を補正値で補正した値とする。図8に示す例では、自車両Vの推定移動量Mが実際より小さく推定されていると判断され、推定移動量Mを大きくする補正が行われることになる。   After calculating the correction value, the management unit 114 performs a correction process (step S43). Specifically, the management unit 114 sets the value of the estimated information to the value obtained by correcting the position information of the partition line SL of the third update type with the correction value. In the example illustrated in FIG. 8, it is determined that the estimated movement amount M of the host vehicle V is estimated to be smaller than the actual amount, and correction to increase the estimated movement amount M is performed.

なお、本実施形態では、管理部114は、複数の第3更新種別の区画線SLの位置情報を含む推定情報の値を同一の補正値で一括して補正する。図5に示す例では、管理部114は、第1〜第7の7つの区画線SL1〜SL7の位置情報について、各推定情報の値を同一の補正値で一括して補正した値とする。これによると、予測更新が行われる第3更新種別の区画線SLについて、効率良く信頼度の高い値に補正して更新を行うことができる。   In the present embodiment, the management unit 114 collectively corrects the values of the estimation information including the position information of the plurality of third update type lane markings SL with the same correction value. In the example illustrated in FIG. 5, the management unit 114 sets the values of the pieces of estimated information to the values obtained by correcting the values of the pieces of estimated information collectively with the same correction value for the first to seventh partition lines SL1 to SL7. According to this, it is possible to efficiently update the partition line SL of the third update type for which the prediction update is performed, by correcting it to a value with high reliability.

管理部114は、補正処理を行うと、各区画線情報を各更新種別に応じて決まる更新値に更新し、駐車枠Pに関する管理情報121の更新登録を行う(ステップS44)。各更新種別に応じて決まる更新値の求め方は上述したので、ここでは省略する。   After performing the correction process, the management unit 114 updates each lane marking information to an update value determined according to each update type, and performs update registration of the management information 121 on the parking frame P (step S44). The method of obtaining the update value determined according to each update type has been described above, and will not be described here.

ところで、ステップS41で第1更新種別の区画線SLが存在しないと判断される場合、観測情報に基づいて補正値を算出することができない。このために、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合(ステップS41でNo)には、補正値をゼロとしステップS43に移行する。換言すると、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合には、推定情報の補正処理を実質的に行わない。   If it is determined in step S41 that there is no lane marking SL of the first update type, the correction value cannot be calculated based on the observation information. Therefore, when it is determined that the lane marking SL of the first update type does not exist (No in Step S41), the management unit 114 sets the correction value to zero and proceeds to Step S43. In other words, when it is determined that the lane marking SL of the first update type does not exist, the management unit 114 does not substantially perform the correction processing of the estimation information.

なお、第1更新種別の区画線SLが存在しない状態は、観測情報の中に区画線SLの認識情報がない場合の他、観測情報の中に新規に認識された区画線情報のみが存在する場合がある。前者は、例えば、自車両Vが駐車枠Pの存在する領域を通り過ぎた場合や、区画線SLとサイドカメラ20との間に物体(静止物又は移動物)が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして区画線SLの認識ができない場合等が挙げられる。後者は、例えば、自車両Vが駐車枠Pの存在領域に接近し始めたばかりのタイミングである場合や、区画線SLとサイドカメラ20との間に物体が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして一部の区画線SLの認識ができない場合等が挙げられる。   It should be noted that the state in which the lane marking SL of the first update type does not exist is a case where there is no recognition information of the lane marking SL in the observation information, and only the newly recognized lane marking information exists in the observation information. There are cases. The former is, for example, when the host vehicle V passes through the area where the parking frame P exists, or when an object (stationary or moving object) exists between the lane marking SL and the side camera 20 or when the lane marking SL is For example, the case where the division line SL cannot be recognized due to being covered with a shadow or the division line SL is disappearing or the like can be cited. The latter is, for example, when the own vehicle V has just started to approach the area where the parking frame P exists, when an object exists between the lane marking SL and the side camera 20, or when the lane marking SL becomes a shadow. The case where the parting line SL cannot be recognized because the parting line SL is covered or the parting line SL is about to disappear, and the like can be cited.

また、第1更新種別の区画線SLが存在すると判断された場合でも、例えば物体や影等の存在によって、現在の撮影画像において認識されるべき区画線SLが認識されていない状態が起り得る。ただし、このような区画線SLは、第1更新種別の区画線SLの存在により、車両の移動量推定から求められる推定値を補正値で補正した値で更新登録することができる。   Further, even when it is determined that the division line SL of the first update type exists, a state may occur in which the division line SL to be recognized in the current captured image is not recognized due to the presence of an object or a shadow, for example. However, such a lane marking SL can be updated and registered with a value obtained by correcting the estimated value obtained from the estimation of the moving amount of the vehicle with a correction value due to the presence of the lane marking SL of the first update type.

<3.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<3. Notes>
Various technical features disclosed in the present specification can be variously modified without departing from the spirit of the technical creation in addition to the above-described embodiment. That is, the above-described embodiment is to be considered in all respects as illustrative and not restrictive. The technical scope of the present invention is defined not by the description of the embodiment but by the claims. It is to be understood that all changes that fall within the meaning and scope equivalent to the appended claims are included. In addition, a plurality of embodiments and modifications shown in this specification may be implemented in combination within a possible range.

以上においては、認識部113がサイドカメラ20を用いて駐車枠Pの認識を行う場合を例に説明したが、本発明は、認識部113がサイドカメラ20以外のカメラ(例えばバックカメラ)を用いて駐車枠の認識を行う構成にも適用可能である。   In the above, the case where the recognition unit 113 recognizes the parking frame P using the side camera 20 has been described as an example. However, in the present invention, the recognition unit 113 uses a camera other than the side camera 20 (for example, a back camera). The present invention can also be applied to a configuration in which a parking frame is recognized by using the method.

1・・・画像処理装置
20・・・サイドカメラ(カメラの一例)
113・・・認識部
114・・・管理部
121・・・管理情報
P・・・駐車枠
SL・・・区画線
V・・・自車両(車両)
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 20 ... Side camera (an example of a camera)
113: recognition unit 114: management unit 121: management information P: parking frame SL: division line V: own vehicle (vehicle)

Claims (7)

車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、
過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、
を備え、
前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する、画像処理装置。
A recognition unit that recognizes a parking frame based on a captured image obtained by a camera that captures the periphery of the vehicle,
A management unit that updates management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a current captured image,
With
An image processing apparatus that, based on the management information and the observation information, classifies an update type for each lane line configuring the parking frame to be managed, and updates the management information based on the classification; .
前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、
前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる、請求項1に記載の画像処理装置。
The management unit performs a process of obtaining estimated information including position information of the parking frame based on the movement information of the vehicle and the management information,
The image processing apparatus according to claim 1, wherein the classification of the update type is performed based on the estimation information and the observation information.
前記管理部は、
前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、
前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、
前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する、請求項2に記載の画像処理装置。
The management unit,
Classifying the lane markings in which position information is included in both the observation information and the estimation information into a first update type,
Classifying the lane markings whose location information is included only in the observation information into a second update type,
The image processing apparatus according to claim 2, wherein the lane markings in which only the estimation information includes position information are classified into a third update type.
前記管理情報の更新に際して、
前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、
前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、
前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される、請求項3に記載の画像処理装置。
When updating the management information,
The position information of the lane marking of the first update type is updated to a value of the observation information,
The position information of the lane marking of the second update type is provisionally registered with the value of the observation information,
The position information of the lane marking of the third update type is updated to a value obtained by correcting the value of the estimation information with a correction value obtained based on the observation information and the estimation information. Image processing device.
前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する、請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the management unit corrects the values of the estimation information including the position information of the lane markings of the plurality of third update types collectively with the same correction value. 前記カメラは、前記車両の側方に設けられるサイドカメラであり、
前記認識部は、前記撮影画像の中心部を含む一部の領域を用いて前記駐車枠を認識する、請求項1から5のいずれか1項に記載の画像処理装置。
The camera is a side camera provided on a side of the vehicle,
The image processing device according to any one of claims 1 to 5, wherein the recognition unit recognizes the parking frame using a partial area including a central part of the captured image.
画像処理装置で実行される画像処理方法であって、
車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、
過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、
を備え、
前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む、画像処理方法。
An image processing method executed by the image processing device,
A recognition step of recognizing a parking frame based on a captured image obtained by a camera that captures the periphery of the vehicle,
A management step of updating management information including position information of the parking frame recognized in the past based on observation information including position information of the parking frame obtained from a current captured image,
With
The management step includes, based on the management information and the observation information, classifying an update type for each lane line constituting the parking frame to be managed, and updating the management information based on the classification. Image processing method.
JP2018136603A 2018-07-20 2018-07-20 Image processing device and image processing method Active JP7116613B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018136603A JP7116613B2 (en) 2018-07-20 2018-07-20 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018136603A JP7116613B2 (en) 2018-07-20 2018-07-20 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020011675A true JP2020011675A (en) 2020-01-23
JP7116613B2 JP7116613B2 (en) 2022-08-10

Family

ID=69169215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018136603A Active JP7116613B2 (en) 2018-07-20 2018-07-20 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7116613B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001366A (en) * 2011-06-22 2013-01-07 Nissan Motor Co Ltd Parking support device and parking support method
WO2017104164A1 (en) * 2015-12-17 2017-06-22 日産自動車株式会社 Parking support method and device
JP2017222309A (en) * 2016-06-17 2017-12-21 日産自動車株式会社 Parking support method and apparatus
JP2018036878A (en) * 2016-08-31 2018-03-08 アイシン精機株式会社 Parking support device
JP2018074411A (en) * 2016-10-31 2018-05-10 株式会社デンソーテン Object detection device and object detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001366A (en) * 2011-06-22 2013-01-07 Nissan Motor Co Ltd Parking support device and parking support method
WO2017104164A1 (en) * 2015-12-17 2017-06-22 日産自動車株式会社 Parking support method and device
JP2017222309A (en) * 2016-06-17 2017-12-21 日産自動車株式会社 Parking support method and apparatus
JP2018036878A (en) * 2016-08-31 2018-03-08 アイシン精機株式会社 Parking support device
JP2018074411A (en) * 2016-10-31 2018-05-10 株式会社デンソーテン Object detection device and object detection method

Also Published As

Publication number Publication date
JP7116613B2 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US10753758B2 (en) Top-down refinement in lane marking navigation
JPWO2020090251A1 (en) Object recognition device, object recognition method and object recognition program
US10896336B2 (en) Parking compartment recognition apparatus
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP7003972B2 (en) Distance estimation device, distance estimation method and computer program for distance estimation
CN115071702B (en) Vehicle control device, vehicle control method, and vehicle control computer program
JP2020067698A (en) Marking line detection device and marking line detection method
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2016024777A (en) Lane detection device and lane detection method
JP2018060422A (en) Object detection device
JP5407920B2 (en) Lighting color identification device and program
US8213684B2 (en) Motion estimating device
JP2012073924A (en) Traffic lane estimation device
US20190362164A1 (en) Image recognition device, image recognition method, and parking assist system
CN112784671A (en) Obstacle detection device and obstacle detection method
US20160021313A1 (en) Image Processing Apparatus
US11157755B2 (en) Image processing apparatus
JP7116613B2 (en) Image processing device and image processing method
JP2019015570A (en) Parking position information acquisition device and automatic parking controller
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
JP7322576B2 (en) Information processing device, imaging device, and moving object
CN115150546A (en) Information processing apparatus and method
JP4255398B2 (en) Obstacle detection method and obstacle detection device
JP2020042715A (en) Movement information estimation device, abnormality detection device, and movement information estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R150 Certificate of patent or registration of utility model

Ref document number: 7116613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250