[go: up one dir, main page]

JP2017211200A - Camera calibrating device, and camera calibrating method - Google Patents

Camera calibrating device, and camera calibrating method Download PDF

Info

Publication number
JP2017211200A
JP2017211200A JP2016102591A JP2016102591A JP2017211200A JP 2017211200 A JP2017211200 A JP 2017211200A JP 2016102591 A JP2016102591 A JP 2016102591A JP 2016102591 A JP2016102591 A JP 2016102591A JP 2017211200 A JP2017211200 A JP 2017211200A
Authority
JP
Japan
Prior art keywords
camera
camera calibration
inclination
vertical edge
calibration device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016102591A
Other languages
Japanese (ja)
Inventor
ヒクメット チェティン
Chietein Hikumetsuto
ヒクメット チェティン
宗昭 松本
Muneaki Matsumoto
宗昭 松本
宗作 重村
Sosaku Shigemura
宗作 重村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016102591A priority Critical patent/JP2017211200A/en
Publication of JP2017211200A publication Critical patent/JP2017211200A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラの校正の処理を簡単に行う。【解決手段】ステップ2では、画像処理部は、車両に設置されたカメラから取得される撮像画像を歪み補正及び視点変換を行うことによって、対象画像を生成する処理を行う。ステップ3では、画像処理部は、生成した対象画像から信号機及び道路標識等が存在するか否か判定する処理を行う。ステップ3で肯定判定されると、ステップ4で、画像処理部は、信号機及び道路標識等の縦エッジを抽出し、抽出された縦エッジの傾きの角度を算出する。画像処理部は、当該角度に基づいて、車両に設置されているカメラの現在の取付け角度と、車両に設置されたカメラの初期の取付け角度とのずれを算出する。【選択図】図2An object of the present invention is to easily perform a camera calibration process. In step 2, an image processing unit performs a process of generating a target image by performing distortion correction and viewpoint conversion on a captured image acquired from a camera installed in a vehicle. In step 3, the image processing unit performs a process of determining whether a traffic light, a road sign, and the like exist from the generated target image. If an affirmative determination is made in step 3, the image processing unit extracts vertical edges such as a traffic light and a road sign in step 4, and calculates the inclination angle of the extracted vertical edges. The image processing unit calculates a deviation between a current mounting angle of the camera installed in the vehicle and an initial mounting angle of the camera installed in the vehicle based on the angle. [Selection diagram] FIG.

Description

本開示は、カメラを校正する技術に関する。   The present disclosure relates to a technique for calibrating a camera.

車両に設置されているカメラは、使用しているうちにカメラの取付け角度がずれてくることがある。このようなカメラのずれを校正する技術が知られている。例えば、路面に校正用ボードを設置し、その校正用ボードをカメラで撮像することによりカメラを校正する技術が知られている。しかし、この技術を用いてカメラを校正する場合、校正用ボードを路面等に置いてカメラを校正する必要があり、カメラの校正作業を自動化することができないという問題があった。そこで、この問題を解決するために、路面に描画されている区画線や道路標示等をカメラで撮像することによりカメラを校正する技術が開示されている(特許文献1参照)。   When a camera installed in a vehicle is being used, the camera mounting angle may shift. A technique for calibrating such a camera shift is known. For example, a technique for calibrating a camera by installing a calibration board on a road surface and imaging the calibration board with a camera is known. However, when a camera is calibrated using this technique, it is necessary to calibrate the camera by placing a calibration board on a road surface or the like, and there is a problem that the camera calibration operation cannot be automated. Therefore, in order to solve this problem, a technique for calibrating the camera by imaging the lane markings and road markings drawn on the road surface with the camera is disclosed (see Patent Document 1).

特開2003−329411号公報JP 2003-329411 A

特許文献1に記載の例では、車両に設置されているカメラから取得される撮像画像中において、車線を区分する2本の白線を延長した交点である消失点を計算し、当該消失点と、車両の進行角度を検出する角度センサからの情報とを合わせて、カメラの校正を行っている。つまり、白線の情報と角度センサからの情報とが必要になる。このため、これらの情報に基づいて行われるカメラの校正の処理は複雑になっている。   In the example described in Patent Document 1, in a captured image acquired from a camera installed in a vehicle, a vanishing point that is an intersection of extending two white lines that divide a lane is calculated, and the vanishing point, The camera is calibrated together with information from an angle sensor that detects the traveling angle of the vehicle. That is, white line information and information from the angle sensor are required. For this reason, the camera calibration processing performed based on these pieces of information is complicated.

本開示の一側面は、こうした問題にかんがみてなされたものであり、カメラの校正の処理を簡単に行うことを目的とする。   One aspect of the present disclosure has been made in view of these problems, and an object thereof is to easily perform a camera calibration process.

本開示の一態様は、カメラ校正装置(6)であって、抽出部(6、S1〜S4、S21〜S24、S41〜S46)と、傾き算出部(6、S4、S24、S47〜S49)と、ずれ算出部(6、S9、S10、S29、S30)と、を備える。抽出部は、車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出する。傾き算出部は、抽出部によって抽出された縦エッジの傾きを算出する。ずれ算出部は、傾き算出部によって算出された縦エッジの傾きに基づいて、車両に設置されているカメラの現在の取付け角度と、車両に設置されたカメラの初期の取付け角度とのずれを算出するずれ算出処理を行う。   One aspect of the present disclosure is a camera calibration device (6), which includes an extraction unit (6, S1 to S4, S21 to S24, S41 to S46), and an inclination calculation unit (6, S4, S24, S47 to S49). And a deviation calculation unit (6, S9, S10, S29, S30). An extraction part extracts the vertical edge of the object which has the linear part extended in a perpendicular direction in the captured image acquired from the camera (2, 3) installed in the vehicle. The inclination calculation unit calculates the inclination of the vertical edge extracted by the extraction unit. The deviation calculation unit calculates the deviation between the current installation angle of the camera installed in the vehicle and the initial installation angle of the camera installed in the vehicle based on the inclination of the vertical edge calculated by the inclination calculation unit. A deviation calculation process is performed.

このようなカメラ校正装置によれば、縦エッジの傾きに基づいてカメラを校正することができる。そのため、本開示のカメラ校正装置は、例えば、車線境界線の情報と角度センサから得られた情報とが必要なカメラ校正装置とは異なり、角度センサからの情報を必要としない。したがって、本開示のカメラ校正装置を用いれば、カメラの校正の処理を簡単に行うことができる。   According to such a camera calibration device, the camera can be calibrated based on the inclination of the vertical edge. Therefore, the camera calibration device of the present disclosure does not require information from the angle sensor, unlike, for example, a camera calibration device that requires information on the lane boundary line and information obtained from the angle sensor. Therefore, if the camera calibration apparatus according to the present disclosure is used, the camera calibration process can be easily performed.

また、本開示の別の態様は、カメラ校正方法であって、車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出し(6、S1〜S4、S21〜S24、S41〜S46)、抽出された縦エッジの傾きを算出し(6、S4、S24、S47〜S49)、算出された縦エッジの傾きに基づいて、車両に設置されているカメラの現在の取付け角度と、車両に設置されたカメラの初期の取付け角度とのずれを算出する(6、S9、S10、S29、S30)。   Another aspect of the present disclosure is a camera calibration method, which is a vertical edge of an object having a linear portion extending in a vertical direction in a captured image obtained from a camera (2, 3) installed in a vehicle. Are extracted (6, S1-S4, S21-S24, S41-S46), the inclination of the extracted vertical edge is calculated (6, S4, S24, S47-S49), and based on the calculated inclination of the vertical edge Then, the difference between the current mounting angle of the camera installed in the vehicle and the initial mounting angle of the camera installed in the vehicle is calculated (6, S9, S10, S29, S30).

このようなカメラ校正方法によれば、先に説明したカメラ校正装置と同様の特徴を備えているため、カメラ校正装置と同様の作用、効果を奏し、カメラの校正の処理を簡単に行うことができる。   According to such a camera calibration method, since it has the same characteristics as the camera calibration device described above, the same function and effect as the camera calibration device can be obtained, and the camera calibration process can be easily performed. it can.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

カメラ校正システムの構成を表すブロック図である。It is a block diagram showing the structure of a camera calibration system. 第1カメラ校正処理を表すフローチャート(その1)である。It is a flowchart (the 1) showing a 1st camera calibration process. 第1カメラ校正処理を表すフローチャート(その2)である。It is a flowchart (the 2) showing a 1st camera calibration process. (A)は取付け位置がずれていない場合の縦エッジの特徴を示す図である。(B)及び(C)はピッチ角がずれている場合の縦エッジの特徴を示す図である。(D)及び(E)はロール角がずれている場合の縦エッジの特徴を示す図である。(F)、(G)、(H)及び(I)はピッチ角及びロール角がずれている場合の縦エッジの特徴を示す図である。(A) is a figure which shows the characteristic of the vertical edge when the attachment position is not shifted | deviated. (B) And (C) is a figure which shows the characteristic of the vertical edge in case the pitch angle has shifted | deviated. (D) And (E) is a figure which shows the characteristic of the vertical edge in case the roll angle has shifted | deviated. (F), (G), (H), and (I) are diagrams showing characteristics of vertical edges when the pitch angle and the roll angle are shifted. 第2カメラ校正処理を表すフローチャート(その1)である。It is a flowchart (the 1) showing a 2nd camera calibration process. 第2カメラ校正処理を表すフローチャート(その2)である。It is a flowchart (the 2) showing a 2nd camera calibration process. トラッキング処理を表すフローチャートである。It is a flowchart showing a tracking process. (A)は撮像画像に歪み補正したものである。(B)は対象画像である。(A) is obtained by correcting the distortion of the captured image. (B) is a target image.

以下、図面を参照しながら、本開示を実施するための形態を説明する。
[1.第1実施形態]
[1−1.カメラ校正システム1の構成]
カメラ校正システム1の構成を図1に基づき説明する。カメラ校正システム1は、車両に搭載される車載システムである。カメラ校正システム1を搭載する車両を以下では自車両とする。カメラ校正システム1は、フロントカメラ2と、リアカメラ3と、ECU4と、表示装置5と、を備える。なお、ECU4は、「Electronic Control Unit」の略であり、すなわち電子制御装置の略である。
Hereinafter, embodiments for carrying out the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Configuration of camera calibration system 1]
The configuration of the camera calibration system 1 will be described with reference to FIG. The camera calibration system 1 is an in-vehicle system mounted on a vehicle. Hereinafter, a vehicle equipped with the camera calibration system 1 is referred to as a host vehicle. The camera calibration system 1 includes a front camera 2, a rear camera 3, an ECU 4, and a display device 5. The ECU 4 is an abbreviation for “Electronic Control Unit”, that is, an abbreviation for an electronic control unit.

フロントカメラ2は、フロントカメラ2の光軸が斜め下に向くように、自車両の前部に設置され、自車両の前方斜め下を撮像する。リアカメラ3は、リアカメラ3の光軸が斜め下に向くように、自車両の後部に設置され、自車両の後方斜め下を撮像する。フロントカメラ2及びリアカメラ3は、所定の時間間隔(例えば1/15秒間隔)で撮像を行う。また、フロントカメラ2及びリアカメラ3は、広角レンズを備える。そのため、フロントカメラ2及びリアカメラ3によって撮像された撮像画像は、撮像画像の中心部に比べ、周辺部ほど被写体の縮小度合が大きくなるような歪みを有する。   The front camera 2 is installed at the front part of the host vehicle so that the optical axis of the front camera 2 is tilted downward and captures an image of the lower front of the host vehicle. The rear camera 3 is installed at the rear part of the host vehicle so that the optical axis of the rear camera 3 is tilted downward, and captures an image of the lower rear of the host vehicle. The front camera 2 and the rear camera 3 perform imaging at a predetermined time interval (for example, 1/15 second interval). Further, the front camera 2 and the rear camera 3 include wide-angle lenses. For this reason, the captured images captured by the front camera 2 and the rear camera 3 have distortions such that the degree of reduction of the subject becomes larger in the peripheral portion than in the central portion of the captured image.

ECU4は、画像処理部6と、画像信号処理部7と、車載信号処理部8と、メモリ9と、電源回路10と、を備える。画像処理部6は、図示しないCPU、RAM、及びROM等、を有する周知のマイクロコンピュータを中心に構成される。画像処理部6の各種機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ9が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理部6を構成するマイクロコンピュータの数は1つでも複数でもよい。   The ECU 4 includes an image processing unit 6, an image signal processing unit 7, an in-vehicle signal processing unit 8, a memory 9, and a power supply circuit 10. The image processing unit 6 is configured around a known microcomputer having a CPU, a RAM, a ROM, and the like (not shown). Various functions of the image processing unit 6 are realized by the CPU executing a program stored in a non-transitional physical recording medium. In this example, the memory 9 corresponds to a non-transitional tangible recording medium that stores a program. Further, by executing this program, a method corresponding to the program is executed. Note that the number of microcomputers constituting the image processing unit 6 may be one or plural.

画像信号処理部7は、フロントカメラ2及びリアカメラ3から入力された信号を画像処理部6へ出力するためのインターフェースである。車載信号処理部8は、自車両の車速を検出する車速センサから入力された車速信号を画像処理部6へ出力するためのインターフェースである。   The image signal processing unit 7 is an interface for outputting signals input from the front camera 2 and the rear camera 3 to the image processing unit 6. The in-vehicle signal processing unit 8 is an interface for outputting a vehicle speed signal input from a vehicle speed sensor that detects the vehicle speed of the host vehicle to the image processing unit 6.

メモリ9は、各種機能を実現するためのプログラムを記録する記録媒体である。メモリ9には、自車両に設置されたフロントカメラ2及びリアカメラ3の初期の取付け角度が設計値として記録されている。   The memory 9 is a recording medium that records programs for realizing various functions. In the memory 9, initial mounting angles of the front camera 2 and the rear camera 3 installed in the host vehicle are recorded as design values.

電源回路10は、自車両の図示しないバッテリから入力した電圧を適当な電圧に変換し、ECU4の各部へ供給する。表示装置5は、画像を表示する周知の装置であり、表示された画像を車内の運転者等が視認できる位置に設置される。表示装置5は、例えば液晶ディスプレイ等である。   The power supply circuit 10 converts a voltage input from a battery (not shown) of the host vehicle into an appropriate voltage and supplies it to each part of the ECU 4. The display device 5 is a known device that displays an image, and is installed at a position where a driver or the like in the vehicle can visually recognize the displayed image. The display device 5 is, for example, a liquid crystal display.

[1−2.カメラ校正システム1の第1カメラ校正処理]
次に、画像処理部6が実行する第1カメラ校正処理(換言すれば、カメラ校正方法)について、図2及び図3のフローチャートを用いて説明する。第1カメラ校正処理は、自車両のイグニッションスイッチがオンにされることにより開始され、所定時間(例えば1/15秒)ごとに繰り返し実行される。なお、以下に説明する第1カメラ校正処理は、フロントカメラ2から取得される撮像画像に基づいて処理される例を示すが、リアカメラ3から取得される撮像画像に基づいて処理される場合も同様の処理が行われる。
[1-2. First camera calibration process of camera calibration system 1]
Next, the first camera calibration process (in other words, the camera calibration method) executed by the image processing unit 6 will be described with reference to the flowcharts of FIGS. The first camera calibration process is started when the ignition switch of the host vehicle is turned on, and is repeatedly executed every predetermined time (for example, 1/15 seconds). In addition, although the 1st camera calibration process demonstrated below shows the example processed based on the captured image acquired from the front camera 2, it may be processed based on the captured image acquired from the rear camera 3. Similar processing is performed.

ステップ1では、画像処理部6は、フロントカメラ2から撮像画像を取得する処理を行う。続くステップ2では、画像処理部6は、取得した撮像画像から対象画像52を生成する処理を行う。対象画像52の例を図8の(B)に示す。ステップ2では、具体的には、画像処理部6は、撮像画像に対して周知の歪み補正を行う。歪み補正された撮像画像51の例を図8の(A)に示す。そして、画像処理部6は、歪み補正された撮像画像51をフロントカメラ2のピッチ角(換言すれば伏角)が0度の視点の画像に変換する視点変換処理を、歪み補正された撮像画像51に対して実施することで、対象画像52を生成する。なお、視点変換処理は、自車両に設置されたフロントカメラ2の初期の設計値に基づいて処理が行われる。   In step 1, the image processing unit 6 performs processing for acquiring a captured image from the front camera 2. In the subsequent step 2, the image processing unit 6 performs a process of generating the target image 52 from the acquired captured image. An example of the target image 52 is shown in FIG. In step 2, specifically, the image processing unit 6 performs known distortion correction on the captured image. An example of the captured image 51 subjected to distortion correction is shown in FIG. Then, the image processing unit 6 performs distortion conversion of the captured image 51 subjected to distortion correction, which converts the distortion-corrected captured image 51 into an image of a viewpoint having a pitch angle (in other words, a dip angle) of the front camera 2 of 0 degrees. To generate the target image 52. The viewpoint conversion process is performed based on an initial design value of the front camera 2 installed in the host vehicle.

続くステップ3では、画像処理部6は、生成した対象画像52に設定された水平線から上方の領域を左右に略等しく分けた左側の領域(以下、左側領域と称す。)及び右側の領域(以下、右側領域と称す。)のそれぞれに対して、信号機及び道路標識等が存在するか否かを判定する処理を行う。具体的には、画像処理部6は、メモリ9に予め記録されている信号機及び道路標識等のテンプレートを用いて対象画像52を解析するパターン認識を行い、信号機及び道路標識等が存在するか否かを判定する処理を行う。なお、水平線は、自車両に設置されたフロントカメラ2の初期の設計値に基づいて、対象画像52に設定されている。ステップ3で否定判定されると、再度、ステップ1に戻る。一方、ステップ3で肯定判定されると、ステップ4に進む。   In subsequent step 3, the image processing unit 6 includes a left area (hereinafter referred to as a left area) and a right area (hereinafter referred to as a left area) obtained by dividing the area above the horizontal line set in the generated target image 52 approximately equally. The right region is referred to as a right region.) A process for determining whether a traffic light, a road sign, or the like exists is performed. Specifically, the image processing unit 6 performs pattern recognition for analyzing the target image 52 using a template such as a traffic light and a road sign recorded in advance in the memory 9, and whether or not a traffic light and a road sign exist. The process which determines is performed. The horizontal line is set in the target image 52 based on the initial design value of the front camera 2 installed in the host vehicle. If a negative determination is made in step 3, the process returns to step 1 again. On the other hand, if an affirmative determination is made in step 3, the process proceeds to step 4.

ステップ4では、画像処理部6は、パターン認識された信号機及び道路標識等の縦エッジを抽出し、当該縦エッジの傾きの角度を算出し、更に当該角度のデータを蓄積する処理を行う。ステップ4での処理は、左側領域及び右側領域のそれぞれに対して行われる。ここで、縦エッジとは、鉛直方向に延びる直線状の部分を有する静止物体の当該直線状の部分を意味する。静止物体としては、例えば信号機、道路標識、及び建物等が挙げられる。なお、鉛直方向とは、厳密な意味での鉛直方向に限るものではなく、目的とする効果を奏するのであれば、厳密に鉛直方向でなくてもよい。具体的に、ステップ4では、画像処理部6は、信号機のランプを支える支持柱や一方通行を示す矢印等が表示された表示板を支える支持柱等を縦エッジとして抽出する。この抽出は公知のエッジ検出処理等によって行われる。画像処理部6は、抽出された縦エッジの両端点をそれぞれ開始点及び終了点とし、開始点及び終了点の対象画像52上における座標を算出する。画像処理部6は、この座標情報に基づいて縦エッジの傾きの角度を算出し、そのデータを蓄積する。   In step 4, the image processing unit 6 extracts a vertical edge such as a traffic signal and a road sign that have been pattern-recognized, calculates an inclination angle of the vertical edge, and further accumulates data of the angle. The process in step 4 is performed for each of the left region and the right region. Here, the vertical edge means the linear portion of a stationary object having a linear portion extending in the vertical direction. Examples of stationary objects include traffic lights, road signs, and buildings. The vertical direction is not limited to the vertical direction in a strict sense, and may not be strictly in the vertical direction as long as the desired effect is achieved. Specifically, in step 4, the image processing unit 6 extracts, as vertical edges, a support column that supports a lamp of a traffic light, a support column that supports a display board on which an arrow indicating one-way traffic, or the like is displayed. This extraction is performed by a known edge detection process or the like. The image processing unit 6 calculates the coordinates of the start point and end point on the target image 52 with the two end points of the extracted vertical edge as the start point and end point, respectively. The image processing unit 6 calculates the angle of inclination of the vertical edge based on the coordinate information and accumulates the data.

ステップ5では、画像処理部6は、ステップ4で抽出された縦エッジを含む左側領域の対象画像52の枚数及び右側領域の対象画像52の枚数がともに所定の枚数よりも多いか否かを判定する処理を行う。ここで否定判定されると、ステップ1に戻る。一方、ステップ5で肯定判定されると、ステップ6に進む。具体的には、例えば所定の枚数を100枚に設定すると、縦エッジを含む左側領域の対象画像が100枚を超え、縦エッジを含む右側領域の対象画像が100枚に達していない場合、画像処理部6は左側領域の処理をいったんストップする。右側領域については、ステップ1に戻り、縦エッジを含む右側領域の対象画像52が100枚よりも多くなるまで、画像処理部6はステップ1からステップ5の処理を行う。縦エッジを含む右側領域の対象画像52が100枚を超えたら、左側領域の処理及び右側領域の処理はステップ6に進む。   In step 5, the image processing unit 6 determines whether or not the number of target images 52 in the left area and the number of target images 52 in the right area including the vertical edges extracted in step 4 is greater than a predetermined number. Perform the process. If a negative determination is made here, the process returns to step 1. On the other hand, if an affirmative determination is made in step 5, the process proceeds to step 6. Specifically, for example, if the predetermined number is set to 100, the number of target images in the left area including the vertical edge exceeds 100, and the number of target images in the right area including the vertical edge does not reach 100. The processing unit 6 once stops the processing of the left area. For the right region, the process returns to step 1, and the image processing unit 6 performs the processing from step 1 to step 5 until the number of target images 52 in the right region including the vertical edge exceeds 100. If the number of target images 52 in the right area including the vertical edge exceeds 100, the left area processing and right area processing proceeds to step 6.

続くステップ6では、画像処理部6は、ステップ4で蓄積された角度の平均値を算出する処理を行う。この処理は、左側領域及び右側領域から抽出された縦エッジの傾きの角度に対して、それぞれ行われる。   In subsequent step 6, the image processing unit 6 performs a process of calculating an average value of the angles accumulated in step 4. This process is performed for each angle of inclination of the vertical edge extracted from the left and right areas.

続くステップ7では、画像処理部6は、直角(90度)から左側領域の縦エッジの角度の平均値を引いた値と直角(90度)から右側領域の縦エッジの角度の平均値を引いた値とを算出し、算出した値の絶対値の少なくとも一方が閾値THよりも大きい値であるか否かを判定する処理を行う。例えば、フロントカメラ2の現在の取付け角度がフロントカメラ2の初期の取付け角度とずれていない場合には、視点変換処理後の縦エッジの傾きの角度は理想的には90度となり、算出した値の絶対値は0となる。フロントカメラ2の現在の取付け角度とフロントカメラ2の初期の取付け角度とのずれが大きくなると、絶対値が大きくなる。 In the subsequent step 7, the image processing unit 6 subtracts the average value of the vertical edge angle of the left region from the right angle (90 degrees) and the average value of the vertical edge angle of the right region from the right angle (90 degrees). It was calculated and a value, performs the processing for judging whether or not it is greater than at least one of the threshold TH 1 for the absolute value of the calculated value. For example, when the current mounting angle of the front camera 2 is not deviated from the initial mounting angle of the front camera 2, the inclination angle of the vertical edge after the viewpoint conversion processing is ideally 90 degrees, and the calculated value The absolute value of is 0. As the deviation between the current mounting angle of the front camera 2 and the initial mounting angle of the front camera 2 increases, the absolute value increases.

また、閾値THは、フロントカメラ2の校正が必要か否かの判定基準値である。ステップ7で否定判定された場合、つまり、絶対値が閾値TH以下の値の場合、フロントカメラ2の現在の取付け角度と初期の取付け角度とのずれが小さいため、ステップ8の処理後、再度ステップ1からステップ7の処理が行われる。ステップ8では、画像処理部6は古いデータの順にデータを破棄する処理を行う。ステップ7で肯定判定された場合、つまり、絶対値が閾値THよりも大きい値の場合、フロントカメラ2の現在の取付け角度と初期の取付け角度とのずれが大きいため、フロントカメラ2の校正を必要とするステップ9以降の処理へ進む。 The threshold TH 1 is calibrated or needed whether the criterion value of the front camera 2. If a negative determination is made in step 7, i.e., when the absolute value of the threshold value TH 1 the following values for the deviation between the current mounting angle and the initial mounting angle of the front camera 2 is small, after the process of step 8, again Steps 1 to 7 are performed. In step 8, the image processing unit 6 performs processing for discarding data in the order of old data. If an affirmative determination is made in step 7, i.e., the absolute value of the case of a value greater than the threshold value TH 1, since the deviation between the current mounting angle and the initial mounting angle of the front camera 2 is large, the calibration of the front camera 2 It progresses to the process after step 9 required.

ステップ9では、画像処理部6は、左側領域から抽出された縦エッジの傾きの角度の平均値と右側領域から抽出された縦エッジの傾きの角度の平均値との差分の絶対値を算出し、当該絶対値が閾値THよりも大きい値であるか否かを判定する処理を行う。閾値THは、ロール及びピッチの両方のフロントカメラ2の校正が必要であるか否かの判定基準値である。ステップ9で肯定判定されるとステップ13に進む。ステップ13では、画像処理部6は、ロール及びピッチの両方のフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。ステップ13の後、第1カメラ校正処理は終了する。 In step 9, the image processing unit 6 calculates the absolute value of the difference between the average value of the inclination angle of the vertical edge extracted from the left region and the average value of the inclination angle of the vertical edge extracted from the right region. Then, a process of determining whether or not the absolute value is larger than the threshold value TH 2 is performed. Threshold TH 2 is a criterion value for whether or not it is necessary to calibrate the roll and pitch of both the front camera 2. If an affirmative determination is made in step 9, the process proceeds to step 13. In step 13, the image processing unit 6 performs a process of displaying an alarm on the display device that calibration of both the roll and pitch front cameras 2 is necessary. After step 13, the first camera calibration process ends.

一方、ステップ9で、否定判定されるとステップ10に進む。ステップ10では、画像処理部6は、ステップ7で算出された左側領域及び右側領域の値の符号が同じか否かを判定する処理を行う。ここで、符号とは、ステップ7で算出された値の符号のことを意味し、マイナス(−)及びプラス(+)のことである。つまり、縦エッジの傾きの角度が0度以上90度未満の場合にはプラス、90度より大きく180度未満の場合にはマイナスである。   On the other hand, if a negative determination is made in step 9, the process proceeds to step 10. In step 10, the image processing unit 6 performs a process of determining whether or not the signs of the values of the left region and the right region calculated in step 7 are the same. Here, the sign means the sign of the value calculated in step 7, and means minus (−) and plus (+). That is, it is positive when the angle of inclination of the vertical edge is not less than 0 degrees and less than 90 degrees, and is negative when it is greater than 90 degrees and less than 180 degrees.

ステップ10で、否定判定されるとステップ11に進む。ステップ11では、画像処理部6は、ピッチのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。ステップ11の後、第1カメラ校正処理は終了する。   If a negative determination is made in step 10, the process proceeds to step 11. In step 11, the image processing unit 6 performs a process of displaying an alarm on the display device that the front camera 2 needs to be calibrated only for the pitch. After step 11, the first camera calibration process ends.

ステップ10で、肯定判定されるとステップ12に進む。ステップ12では、画像処理部6は、ロールのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。ステップ12の後、第1カメラ校正処理は終了する。   If an affirmative determination is made in step 10, the process proceeds to step 12. In step 12, the image processing unit 6 performs a process of displaying an alarm on the display device that the front camera 2 only with a roll needs to be calibrated. After step 12, the first camera calibration process ends.

次に、フロントカメラ2の校正処理の具体的事例について、図4の(A)、(B)、(C)、(D)、(E)、(F)、(G)、(H)、及び(I)を用いて説明する。
左側領域及び右側領域から抽出された平均の縦エッジを図4の(A)、(B)、(C)、(D)、(E)、(F)、(G)、(H)、及び(I)の2本の線で示す。2本の線のうち左側にある線は左側領域から抽出された平均の縦エッジを示し、2本の線のうち右側にある線は右側領域から抽出された平均の縦エッジを示す。
Next, with respect to specific examples of the calibration process of the front camera 2, (A), (B), (C), (D), (E), (F), (G), (H), FIG. And (I).
The average vertical edges extracted from the left side area and the right side area are shown as (A), (B), (C), (D), (E), (F), (G), (H), and FIG. This is indicated by two lines (I). The left line of the two lines indicates an average vertical edge extracted from the left area, and the right line of the two lines indicates an average vertical edge extracted from the right area.

図4の(A)に示すように、左側領域及び右側領域から抽出された平均の縦エッジの傾きが両方ともあまり傾いていない場合、つまり、ステップ7で否定判定される場合、フロントカメラ2の校正が必要であるという警報を表示装置に表示しない。   As shown in FIG. 4A, if the average vertical edges extracted from the left and right regions are not so inclined, that is, if a negative determination is made in step 7, the front camera 2 Do not display an alarm on the display device that calibration is required.

一方、図4の(B)〜(I)に示すように、左側領域及び右側領域から抽出された平均の縦エッジの傾きの少なくとも一方が一定の値よりも大きく傾いている場合、つまり、ステップ7で肯定判定される場合、フロントカメラ2の校正が必要であるという警報を表示装置に表示する。   On the other hand, as shown in FIGS. 4B to 4I, when at least one of the average vertical edge inclinations extracted from the left area and the right area is inclined larger than a certain value, If the determination in step 7 is affirmative, an alarm that the front camera 2 needs to be calibrated is displayed on the display device.

図4の(B)及び(C)に示すように、左側領域から抽出された縦エッジの傾きの角度の平均値と右側領域から抽出された縦エッジの傾きの角度の平均値との差分の絶対値が閾値TH以下の値であり、左側領域及び右側領域から抽出された縦エッジの傾きの角度の平均値の符号が異なる場合、ピッチのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する。 As shown in FIGS. 4B and 4C, the difference between the average value of the inclination angle of the vertical edge extracted from the left region and the average value of the inclination angle of the vertical edge extracted from the right region is calculated. An alarm that the front camera 2 needs to be calibrated only for the pitch when the absolute value is equal to or less than the threshold TH 2 and the sign of the average value of the inclination angles of the vertical edges extracted from the left and right regions is different. Is displayed on the display device.

図4の(D)及び(E)に示すように、左側領域から抽出された縦エッジの傾きの角度の平均値と右側領域から抽出された縦エッジの傾きの角度の平均値との差分の絶対値が閾値TH以下の値であり、左側領域及び右側領域から抽出された縦エッジの傾きの角度の平均値の符号が同じ場合、ロールのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する。 As shown in FIGS. 4D and 4E, the difference between the average value of the inclination angle of the vertical edge extracted from the left area and the average value of the inclination angle of the vertical edge extracted from the right area. absolute value is the threshold value TH 2 the following values, alarm that the sign of the average value of the inclination angle of the vertical edges extracted from the left area and right area are the same case, it is necessary to calibrate the front camera 2 rolls only Is displayed on the display device.

図4の(F)〜(I)に示すように、左側領域から抽出された縦エッジの傾きの平均値と右側領域から抽出された縦エッジの傾きの平均値との差分の絶対値が閾値THよりも大きい値である場合、ロール及びピッチの両方のフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。 As shown in FIGS. 4F to 4I, the absolute value of the difference between the average value of the inclination of the vertical edge extracted from the left area and the average value of the inclination of the vertical edge extracted from the right area is a threshold value. If it is greater than TH 2, it performs processing for displaying a warning that rolls and calibration of the front camera 2 both pitch is required for the display device.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)第1実施形態の画像処理部6は、縦エッジの傾きの角度に基づいてフロントカメラ2の校正を行う。そのため、画像処理部6は、例えば、車線境界線の情報と角度センサから得られた情報とが必要な画像処理部とは異なり、角度センサからの情報を必要としない。また、画像処理部6は、例えば、測定すべき道路を特定するために地図情報を必要とする画像処理部とは異なり、地図情報を必要としない。したがって、画像処理部6を用いれば、フロントカメラ2の校正の処理を簡単に行うことができる。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) The image processing unit 6 of the first embodiment calibrates the front camera 2 based on the angle of inclination of the vertical edge. Therefore, the image processing unit 6 does not require information from the angle sensor, unlike an image processing unit that requires information on the lane boundary line and information obtained from the angle sensor, for example. Further, the image processing unit 6 does not require map information, for example, unlike an image processing unit that requires map information to specify a road to be measured. Therefore, if the image processing unit 6 is used, the calibration process of the front camera 2 can be easily performed.

(1b)第1実施形態の画像処理部6は、左側領域及び右側領域から縦エッジを抽出し、抽出された縦エッジのそれぞれの傾きを比較する処理を行う。そのため、必要とするフロントカメラ2の校正がロールなのか、ピッチなのかが分かる。   (1b) The image processing unit 6 according to the first embodiment extracts a vertical edge from the left region and the right region, and performs a process of comparing the inclinations of the extracted vertical edges. Therefore, it can be seen whether the required calibration of the front camera 2 is a roll or a pitch.

(1c)第1実施形態では、対象画像52の左側領域及び右側領域に対して処理がそれぞれ行われる。当該左側領域及び右側領域は、信号機及び道路標識等が存在する確率が高い領域である。そのため、例えば対象画像52全体に対して処理される場合に比べて、左側領域及び右側領域に対して処理される場合の方が、処理時間が低減され、さらに誤認識を抑制することができる。   (1c) In the first embodiment, the processing is performed on the left region and the right region of the target image 52, respectively. The left area and the right area are areas where there is a high probability that traffic lights, road signs, and the like exist. Therefore, for example, when the processing is performed on the left region and the right region as compared with the case where the processing is performed on the entire target image 52, the processing time is reduced, and erroneous recognition can be further suppressed.

(1d)第1実施形態の画像処理部6は、視点変換処理を行い、視点変換処理後の対象画像52から縦エッジを抽出する処理を行う。そのため、フロントカメラ2の光軸が斜め下に向くように自車両に設置されている場合でも、フロントカメラ2のピッチ角が0度になるように設置されている場合と同様に、フロントカメラ2の校正を行うことができる。   (1d) The image processing unit 6 of the first embodiment performs viewpoint conversion processing, and performs processing for extracting vertical edges from the target image 52 after the viewpoint conversion processing. Therefore, even when the front camera 2 is installed in the host vehicle so that the optical axis of the front camera 2 is obliquely downward, the front camera 2 is installed in the same manner as when the front camera 2 is installed with a pitch angle of 0 degrees. Can be calibrated.

(1e)第1実施形態では、水平線が、自車両に設置されたフロントカメラ2の初期の設計値に基づいて、対象画像52に設定されている。そのため、例えば、車線境界線の情報と角度センサから得られた情報とが必要な画像処理部とは異なり、画像処理部6は角度センサからの情報を必要としないため、角度センサがなくても、フロントカメラ2を校正することができる。   (1e) In the first embodiment, the horizontal line is set in the target image 52 based on the initial design value of the front camera 2 installed in the host vehicle. Therefore, for example, the image processing unit 6 does not need information from the angle sensor, unlike the image processing unit that requires information on the lane boundary line and information obtained from the angle sensor. The front camera 2 can be calibrated.

(1f)第1実施形態の画像処理部6は、縦エッジの傾きの角度のデータを蓄積し、蓄積されたデータの平均値に基づいて、フロントカメラ2の校正の処理を行う。そのため、画像処理部6は、精度が高い情報に基づいてフロントカメラ2の校正の処理を行うことができる。   (1f) The image processing unit 6 of the first embodiment accumulates the data of the inclination angle of the vertical edge, and performs the calibration process of the front camera 2 based on the average value of the accumulated data. Therefore, the image processing unit 6 can perform the calibration process of the front camera 2 based on highly accurate information.

(1g)第1実施形態の画像処理部6は、絶対値が閾値TH以下の値の場合、フロントカメラ2の現在の取付け角度と初期の取付け角度とのずれが小さいため、フロントカメラ2の校正を必要とする処理を行わない。そのため、処理負荷を低減することができる。 (1 g) an image processing unit 6 of the first embodiment, when the absolute value of the threshold value TH 1 the following values for the deviation between the current mounting angle and the initial mounting angle of the front camera 2 is small, the front camera 2 Do not perform processing that requires calibration. Therefore, the processing load can be reduced.

(1h)第1実施形態の画像処理部6は、ロール及びピッチのカメラ姿勢の校正が必要であるという警報を表示装置に表示する処理を行う。そのため、画像処理部6は、自車両に設置されているフロントカメラ2の現在の取付け角度と、自車両に設置されたフロントカメラ2の初期の取付け角度とがずれていることを、運転者に把握させることができる。   (1h) The image processing unit 6 according to the first embodiment performs a process of displaying an alarm on the display device that the camera posture of the roll and pitch needs to be calibrated. Therefore, the image processing unit 6 informs the driver that the current mounting angle of the front camera 2 installed in the host vehicle is different from the initial mounting angle of the front camera 2 installed in the host vehicle. It can be grasped.

なお、第1実施形態では、画像処理部6がカメラ校正装置に相当し、平均値が統計値に相当する。また、左側領域から抽出された縦エッジの傾きが第1の傾きに相当し、右側領域から抽出された縦エッジの傾きが第2の傾きに相当する。また、S1〜S4が抽出部としての処理に相当し、S4が傾き算出部としての処理に相当し、S9、S10がずれ算出部としての処理に相当し、S4が蓄積部としての処理に相当し、S6が統計部としての処理に相当し、S11〜S13が表示処理部としての処理に相当する。   In the first embodiment, the image processing unit 6 corresponds to a camera calibration device, and the average value corresponds to a statistical value. Further, the inclination of the vertical edge extracted from the left area corresponds to the first inclination, and the inclination of the vertical edge extracted from the right area corresponds to the second inclination. S1 to S4 correspond to processing as an extraction unit, S4 corresponds to processing as an inclination calculation unit, S9 and S10 correspond to processing as a deviation calculation unit, and S4 corresponds to processing as an accumulation unit. S6 corresponds to processing as a statistical unit, and S11 to S13 correspond to processing as a display processing unit.

[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Difference from the first embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences. Note that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description is referred to.

[2−2.カメラ校正システム1の第2カメラ校正処理]
次に、第2実施形態の画像処理部6が、第1実施形態の第1カメラ校正処理(図2及び図3)に代えて実行する第2カメラ校正処理(換言すれば、カメラ校正方法)について、図5、図6及び図7のフローチャートを用いて説明する。第2カメラ校正処理は、自車両のイグニッションスイッチがオンにされることにより開始され、所定時間(例えば1/15秒)ごとに繰り返し実行される。なお、以下に説明する第2カメラ校正処理は、フロントカメラ2から取得される撮像画像に基づいて処理される例を示すが、リアカメラ3から取得される撮像画像に基づいて処理される場合も同様の処理が行われる。
[2-2. Second camera calibration process of camera calibration system 1]
Next, a second camera calibration process (in other words, a camera calibration method) executed by the image processing unit 6 of the second embodiment instead of the first camera calibration process (FIGS. 2 and 3) of the first embodiment. Will be described with reference to the flowcharts of FIGS. 5, 6, and 7. The second camera calibration process is started when the ignition switch of the host vehicle is turned on, and is repeatedly executed every predetermined time (for example, 1/15 second). The second camera calibration process described below is an example of processing based on a captured image acquired from the front camera 2, but may be processed based on a captured image acquired from the rear camera 3. Similar processing is performed.

ステップ21では、画像処理部6は、前述したステップ1と同様の処理を実行する。続くステップ22では、画像処理部6は、前述したステップ2と同様の処理を実行する。
続くステップ23では、画像処理部6は、対象画像52の左探索領域53及び右探索領域54のそれぞれに対して、視認対象が存在するか否かを判定する処理を行う。具体的には、第2実施形態では、例えば信号機や道路標識等のように、視認される視認対象及び視認対象を支える支持柱を備える静止物体から、縦エッジを抽出する。静止物体が信号機の場合、信号機のランプ部分が視認対象に相当し、静止物体が道路標識の場合、一方通行を示す矢印等が表示された表示板部分が視認対象に相当する。左探索領域53及び右探索領域54の例を図8(B)に示す。対象画像52を上下に略等しく分けた上方の領域から、対象画像52を左右に等しく分ける所定領域と、対象画像52の一番上の所定領域とを除いた左側の領域及び右側の領域が、それぞれ左探索領域53及び右探索領域54として設定されている。具体的に、ステップ23では、画像処理部6は、メモリ9に予め記録されている道路標識の視認対象のテンプレートを用いて撮像画像を解析するパターン認識を行い、視認対象が存在するか否かを判定する処理を行う。
In step 21, the image processing unit 6 executes the same process as in step 1 described above. In subsequent step 22, the image processing unit 6 executes the same process as in step 2 described above.
In subsequent step 23, the image processing unit 6 performs a process of determining whether or not a visual target exists for each of the left search area 53 and the right search area 54 of the target image 52. Specifically, in the second embodiment, for example, a vertical edge is extracted from a visually recognized object such as a traffic light or a road sign, and a stationary object including a support column that supports the visually recognized object. When the stationary object is a traffic light, the lamp portion of the traffic light corresponds to the visual recognition target. When the stationary object is a road sign, the display board portion on which an arrow indicating one-way is displayed corresponds to the visual recognition target. An example of the left search area 53 and the right search area 54 is shown in FIG. A left area and a right area excluding a predetermined area that equally divides the target image 52 left and right and a predetermined area at the top of the target image 52 from an upper area where the target image 52 is divided roughly equally up and down, These are set as a left search area 53 and a right search area 54, respectively. Specifically, in step 23, the image processing unit 6 performs pattern recognition for analyzing a captured image using a template for a visual target of a road sign recorded in advance in the memory 9, and determines whether or not a visual target exists. The process which determines is performed.

ステップ24では、画像処理部6は、視認対象に対してトラッキング処理を行う。この処理は、左探索領域53及び右探索領域54に対してそれぞれ行われる。
具体的には、1つ前の対象画像52及び最新の対象画像52において視認対象が連続して認識された際、1つ前の対象画像52から認識された過去の視認対象と最新の対象画像52から認識された最新の視認対象とを比較して、それらが同一の視認対象であるか否かを判定する。ここで、同一の視認対象とは、物体として同一であることを意味し、外形が同一であっても異なる地点に設置されている視認対象は含まれない。異なる視認対象とは、同一の視認対象以外の視認対象を意味する。そして、最新の視認対象が過去の視認対象と同一の視認対象であると判定された場合、最新の視認対象について、その支持柱の縦エッジが抽出され、当該縦エッジの座標情報が記録される。この処理は、同一の視認対象が対象画像52において認識されている間継続される。つまり、同一の視認対象がトラッキングされる。その間、当該視認対象の座標情報が蓄積される。その後、蓄積された座標情報の中から縦エッジの線分の長さが最大となる座標情報のデータが選択され、当該線分の傾きの角度を算出する処理が行われる。なお、1つの対象画像52中に複数の視認対象が存在する場合、トラッキングは視認対象単位で行われる。トラッキング処理の具体的な流れについて、図7のフローチャートを用いて説明する。
In step 24, the image processing unit 6 performs tracking processing on the visual recognition target. This process is performed for the left search area 53 and the right search area 54, respectively.
Specifically, when the visual recognition target is continuously recognized in the previous target image 52 and the latest target image 52, the past visual recognition target and the latest target image recognized from the previous target image 52 are displayed. The latest visual recognition target recognized from 52 is compared to determine whether or not they are the same visual recognition target. Here, the same visual target means the same object, and visual targets installed at different points are not included even if the outer shape is the same. Different visual recognition objects mean visual recognition objects other than the same visual recognition object. When it is determined that the latest visual target is the same visual target as the past visual target, the vertical edge of the support pillar is extracted for the latest visual target, and the coordinate information of the vertical edge is recorded. . This process is continued while the same visual target is recognized in the target image 52. That is, the same visual target is tracked. Meanwhile, the coordinate information of the visual recognition target is accumulated. Thereafter, data of coordinate information that maximizes the length of the line segment of the vertical edge is selected from the accumulated coordinate information, and processing for calculating the inclination angle of the line segment is performed. Note that when a plurality of visual targets exist in one target image 52, tracking is performed in units of visual targets. A specific flow of the tracking process will be described with reference to the flowchart of FIG.

まず、ステップ41では、画像処理部6はトラッキングフラグがオンであるか否かを判定する処理を行う。トラッキングフラグは、トラッキング中の視認対象が対象画像52に存在するか否かをオン/オフで示すフラグである。なお、トラッキング処理の開始時には、トラッキングフラグがオフに設定される。   First, in step 41, the image processing unit 6 performs a process of determining whether or not the tracking flag is on. The tracking flag is an on / off flag indicating whether or not a visual target to be tracked exists in the target image 52. At the start of the tracking process, the tracking flag is set to off.

ステップ41で否定判定されると、ステップ42に進む。トラッキング処理が開始された直後はトラッキングフラグがオフであるため、ステップ42に進む。
ステップ42では、画像処理部6は、トラッキングフラグをオンにする処理を行う。ステップ42の後、ステップ43に進む。
If a negative determination is made in step 41, the process proceeds to step 42. Immediately after the tracking process is started, the tracking flag is off, and the process proceeds to step 42.
In step 42, the image processing unit 6 performs processing for turning on the tracking flag. After step 42, the process proceeds to step 43.

ステップ43では、画像処理部6は対象画像52に存在する視認対象の位置情報をメモリ9に記録する。ステップ43の後、ステップ41に戻る。なお、このトラッキング処理では、ステップ41に戻るまでの一連の処理、つまり1サイクルの処理が、同一の対象画像52を処理対象として行われ、ステップ41に戻ることで、処理対象の対象画像52が次に撮像された対象画像52に順に切り替わる。すなわち、フロントカメラ2による撮像タイミングをT1,T2,T3,…と表現した場合、前述したステップ43までの処理は撮像タイミングT1の対象画像52を処理対象として行われ、ステップ41に戻ると、処理対象が撮像タイミングT2の対象画像52に切り替わる。その後、再び処理がステップ41に戻ると、処理対象が撮像タイミングT3の対象画像52に切り替わる。   In step 43, the image processing unit 6 records the position information of the visual target existing in the target image 52 in the memory 9. After step 43, the process returns to step 41. In this tracking process, a series of processes until returning to step 41, that is, one cycle of processing, is performed on the same target image 52 as a processing target, and returning to step 41 allows the target image 52 to be processed to be processed. Next, the target image 52 is switched in order. That is, when the imaging timing by the front camera 2 is expressed as T1, T2, T3,..., The processing up to step 43 described above is performed on the target image 52 at the imaging timing T1, and processing returns to step 41. The target is switched to the target image 52 at the imaging timing T2. Thereafter, when the process returns to step 41 again, the processing target is switched to the target image 52 at the imaging timing T3.

ステップ41で肯定判定されると、ステップ44に進む。ステップ44では、画像処理部6は対象画像52に存在する視認対象の位置情報をメモリ9に記録する。ステップ44の後、ステップ45に進む。   If an affirmative determination is made in step 41, the process proceeds to step 44. In step 44, the image processing unit 6 records the position information of the visual target existing in the target image 52 in the memory 9. After step 44, the process proceeds to step 45.

ステップ45では、画像処理部6は、1サイクル前の過去の視認対象と最新の視認対象とが同一の視認対象であるか否かを判定する処理を行う。同一の視認対象であるか否かは、1サイクル前のステップ43又はステップ44で記録された過去の視認対象の位置情報と、現サイクルのステップ44で記録された視認対象の位置情報とを比較することにより判定される。すなわち、自車両の車速等に基づいて、対象画像52において同一の視認対象がどのように移動するかは推測できるため、過去の視認対象に基づき推測される位置に最新の視認対象が位置しているか否かを判定することで、同一の視認対象であるか否かを判定することができる。ステップ45で肯定判定されると、ステップ46に進む。   In step 45, the image processing unit 6 performs a process of determining whether or not the past visual target one cycle before and the latest visual target are the same visual target. Whether or not they are the same visual target is compared with the position information of the past visual target recorded in step 43 or 44 in the previous cycle and the position information of the visual target recorded in step 44 of the current cycle. It is determined by doing. That is, since it can be estimated how the same visual target moves in the target image 52 based on the vehicle speed of the host vehicle, the latest visual target is located at a position estimated based on the past visual target. It can be determined whether it is the same visual recognition object by determining whether it exists. If an affirmative determination is made in step 45, the process proceeds to step 46.

ステップ46では、画像処理部6は、最新の視認対象の支持柱を縦エッジとして抽出し、抽出した縦エッジの座標情報のデータを記録する処理を行う。具体的には、画像処理部6は、公知のエッジ検出処理等によって、対象画像52における最新の視認対象の支持柱が存在すると推測される部分から縦エッジを抽出する。画像処理部6は、抽出された縦エッジの両端点をそれぞれ開始点及び終了点とし、開始点及び終了点の撮像画像上における座標を算出し、座標情報をメモリ9に記録する処理を行う。ステップ46の後、ステップ48に進む。   In step 46, the image processing unit 6 performs a process of extracting the latest supporting pillar to be visually recognized as a vertical edge and recording data of coordinate information of the extracted vertical edge. Specifically, the image processing unit 6 extracts a vertical edge from a portion in which it is estimated that the latest viewing target support pillar exists in the target image 52 by a known edge detection process or the like. The image processing unit 6 performs processing for calculating the coordinates of the start point and the end point on the captured image, and recording the coordinate information in the memory 9, using both end points of the extracted vertical edge as the start point and end point, respectively. After step 46, the process proceeds to step 48.

ステップ48では、画像処理部6は、トラッキングフラグがオンであるか否かを判定する処理を行う。ステップ48で肯定判定されると、ステップ41に戻る。ステップ48で否定判定されると、後述するステップ49に進む。   In step 48, the image processing unit 6 performs a process of determining whether or not the tracking flag is on. If an affirmative determination is made in step 48, the process returns to step 41. If a negative determination is made in step 48, the operation proceeds to step 49 described later.

一方、ステップ45で否定判定されると、ステップ47に進む。ステップ47では、画像処理部6は、トラッキングフラグをオフにする処理を行う。ステップ47の後、ステップ48に進み、ステップ48で否定判定されてステップ49に進む。   On the other hand, if a negative determination is made in step 45, the process proceeds to step 47. In step 47, the image processing unit 6 performs processing for turning off the tracking flag. After step 47, the process proceeds to step 48, a negative determination is made at step 48, and the process proceeds to step 49.

ステップ49では、画像処理部6は、ステップ46で蓄積された縦エッジの座標情報に基づき、線分の長さが最大となる縦エッジを選択し、当該縦エッジの傾きの角度を算出する処理を行う。算出された角度は、蓄積され、ステップ49以降の処理に使用される。ステップ49の後、ステップ25に進む。   In step 49, the image processing unit 6 selects a vertical edge having the maximum length of the line segment based on the coordinate information of the vertical edge accumulated in step 46, and calculates the inclination angle of the vertical edge. I do. The calculated angle is accumulated and used for the processing after step 49. After step 49, the process proceeds to step 25.

ステップ25では、画像処理部6は、ステップ24で抽出された縦エッジを含む左探索領域53の対象画像52の枚数及び右探索領域54の対象画像52の枚数がともに所定の枚数よりも多いか否かを判定する処理を行う。   In step 25, the image processing unit 6 determines whether both the number of target images 52 in the left search area 53 and the number of target images 52 in the right search area 54 including the vertical edges extracted in step 24 are greater than a predetermined number. Processing to determine whether or not.

ステップ26では、画像処理部6は、ステップ49で蓄積された角度の最頻値区分の平均値を算出する処理を行う。この処理は、左探索領域53及び右探索領域54に対してそれぞれ行われる。具体的には、画像処理部6は、蓄積された角度の分布を例えば0.5度の所定の単位で階級区分し、階級区分された頻度分布中の最大頻度の区分である最頻値区分の平均値を算出する処理を行う。   In step 26, the image processing unit 6 performs a process of calculating an average value of the most frequent value segments of the angles accumulated in step 49. This process is performed for the left search area 53 and the right search area 54, respectively. Specifically, the image processing unit 6 classifies the accumulated angle distribution by a predetermined unit of, for example, 0.5 degrees, and mode value classification that is a maximum frequency classification in the classified frequency distribution. The process which calculates the average value of is performed.

ステップ27〜ステップ33では、画像処理部6は、第1実施形態の平均値の代わりに、最頻値区分の平均値を用いて前述したステップ7〜ステップ13と同様の処理を実行する。   In step 27 to step 33, the image processing unit 6 executes the same processing as in the above-described step 7 to step 13 using the average value of the mode value section instead of the average value of the first embodiment.

[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果に加え、以下の効果が得られる。
[2-3. effect]
According to the second embodiment described in detail above, the following effects are obtained in addition to the effects of the first embodiment described above.

(2a)第2実施形態の画像処理部6は、縦エッジの線分の長さが最大となる座標情報を選択し、当該線分の傾きの角度を続く処理に用いる。つまり、信頼できるデータがそれ以降の処理に使用される。そのため、それ以降の処理の精度が高くなる。   (2a) The image processing unit 6 of the second embodiment selects coordinate information that maximizes the length of the line segment of the vertical edge, and uses the inclination angle of the line segment for subsequent processing. That is, reliable data is used for subsequent processing. Therefore, the accuracy of subsequent processing is increased.

また、第2実施形態の画像処理部6は、視認対象単位でトラッキング処理を行う。そのため、同一の視認対象から縦エッジの傾きの角度を1つ得ることができる。
なお、第2実施形態では、最頻値区分の平均値が統計値に相当する。また、左探索領域53から抽出された縦エッジの傾きが第1の傾きに相当し、右探索領域54から抽出された縦エッジの傾きが第2の傾きに相当する。また、S21〜S24、S41〜S46が抽出部としての処理に相当し、S24、S47〜S49が傾き算出部としての処理に相当し、S29、S30がずれ算出部としての処理に相当し、S24、S41〜S46が蓄積部としての処理に相当し、S26が統計値としての処理に相当し、S31〜S33が表示処理部としての処理に相当する。
In addition, the image processing unit 6 of the second embodiment performs tracking processing in units of visual recognition targets. Therefore, one angle of inclination of the vertical edge can be obtained from the same viewing target.
In the second embodiment, the average value of the mode value section corresponds to the statistical value. Further, the inclination of the vertical edge extracted from the left search area 53 corresponds to the first inclination, and the inclination of the vertical edge extracted from the right search area 54 corresponds to the second inclination. S21 to S24 and S41 to S46 correspond to processing as an extraction unit, S24 and S47 to S49 correspond to processing as an inclination calculation unit, S29 and S30 correspond to processing as a deviation calculation unit, and S24. , S41 to S46 correspond to processing as an accumulation unit, S26 corresponds to processing as a statistical value, and S31 to S33 correspond to processing as a display processing unit.

[3.他の実施形態]
以上、本開示を実施するための形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[3. Other Embodiments]
As mentioned above, although the form for implementing this indication was demonstrated, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(3a)上記第1実施形態では、処理領域として、対象画像52に設定された水平線から上方の領域を左右に略等しく分けた領域の例を示したが、これに限定されるものではない。例えば、所定の伏角によって視点変換された画像の上方の領域を左右に略等しく分けた領域を処理領域としてもよい。所定の伏角は、例えば、車両搭載カメラの設計値の伏角の半分程度としてもよい。また、水平線にかかわらず対象画像全体から左右に略等しく分けた領域であってもよい。また、上記第1実施形態では、カメラの校正処理として、左側領域及び右側領域の2つの領域のそれぞれに対して処理が行われる例を示したが、これに限定されるものではない。カメラの校正処理は、対象画像全体及び対象画像の一部に対して処理が行われてもよい。対象画像の一部としては、例えば、対象画像を左右に分けずに、水平線から上方の領域等が挙げられる。   (3a) In the first embodiment described above, an example is shown in which the region above the horizontal line set in the target image 52 is divided approximately equally into the left and right as the processing region, but is not limited thereto. For example, a region obtained by dividing an upper region of an image whose viewpoint is converted by a predetermined dip angle substantially equally to the left and right may be used as a processing region. The predetermined dip angle may be, for example, about half of the dip angle of the design value of the on-vehicle camera. Moreover, the area | region divided into the right and left substantially equally from the whole object image irrespective of a horizontal line may be sufficient. In the first embodiment, as an example of the camera calibration process, the process is performed on each of the two areas, the left area and the right area. However, the present invention is not limited to this. The camera calibration process may be performed on the entire target image and a part of the target image. Examples of the target image include a region above the horizontal line without dividing the target image into left and right.

同様に、上記第2実施形態では、処理領域として、左探索領域53及び右探索領域54の例を示したが、これに限定されるものではない。また、上記第2実施形態では、カメラの校正処理として、左探索領域53及び右探索領域54の2つの領域のそれぞれに対して処理が行われる例を示したが、これに限定されるものではない。   Similarly, in the second embodiment, examples of the left search area 53 and the right search area 54 are shown as processing areas, but the present invention is not limited to this. In the second embodiment, as an example of the camera calibration process, processing is performed on each of the two areas of the left search area 53 and the right search area 54. However, the present invention is not limited to this. Absent.

(3b)上記第1実施形態及び上記第2実施形態では、メモリ9には、自車両に設置されたフロントカメラ2及びリアカメラ3の初期の取付け角度が設計値として記録されている例を示したが、これに限定されるものではない。例えば、自車両に設置されたフロントカメラ及びリアカメラの初期の取付け角度が設計値としてカメラ校正処理に使用されない場合は、メモリに当該初期の取付け角度が記録されていなくてもよい。   (3b) In the first embodiment and the second embodiment, the memory 9 shows an example in which the initial mounting angles of the front camera 2 and the rear camera 3 installed in the host vehicle are recorded as design values. However, the present invention is not limited to this. For example, when the initial mounting angles of the front camera and the rear camera installed in the host vehicle are not used as the design values for the camera calibration process, the initial mounting angles may not be recorded in the memory.

(3c)上記第2実施形態では、縦エッジの座標情報の選択として、縦エッジの線分の長さが最大となる座標情報を選択したが、これに限定されるものではない。縦エッジの座標情報の選択は、例えば、縦エッジの線分の長さが一定以上となる座標情報を選択してもよい。   (3c) In the second embodiment, the coordinate information that maximizes the length of the line segment of the vertical edge is selected as the coordinate information of the vertical edge. However, the present invention is not limited to this. For the selection of the coordinate information of the vertical edge, for example, coordinate information in which the length of the line segment of the vertical edge becomes a certain length or more may be selected.

(3d)上記第1実施形態では、統計値として平均値を例示したが、これに限定されるものではない。統計値としては、例えば、最頻値区分の平均値及び中央値等が挙げられる。また、上記第2実施形態では、統計値として最頻値区分の平均値を例示したが、これに限定されるものではない。統計値としては、例えば、平均値及び中央値等が挙げられる。   (3d) In the first embodiment, the average value is exemplified as the statistical value, but the present invention is not limited to this. Examples of the statistical value include an average value and a median value of the mode value category. Moreover, in the said 2nd Embodiment, although the average value of the mode value division was illustrated as a statistical value, it is not limited to this. Examples of the statistical value include an average value and a median value.

(3e)上記第1実施形態及び上記第2実施形態では、カメラの校正処理として、縦エッジの傾きの角度を蓄積し、蓄積したデータから統計学的に処理された値に基づいてフロントカメラ2の校正処理を行う例を示したが、これに限定されるものではない。カメラの校正処理としては、例えば、縦エッジの傾きの角度を蓄積せずに、当該角度が算出されるごとにカメラの校正処理を行ってもよい。   (3e) In the first embodiment and the second embodiment, as the camera calibration process, the angle of inclination of the vertical edge is accumulated, and the front camera 2 is based on a value statistically processed from the accumulated data. Although an example in which the calibration process is performed is shown, the present invention is not limited to this. As the camera calibration process, for example, the camera calibration process may be performed every time the angle is calculated without accumulating the angle of inclination of the vertical edge.

(3f)上記第1実施形態及び第2実施形態では、カメラの校正処理としては、算出した値の絶対値の少なくとも一方が閾値THよりも大きい値であるか否かを判定する処理を行う例を示したが、これに限定されるものではない。カメラの校正処理は、例えば、算出した値の絶対値の少なくとも一方が閾値THよりも大きい値であるか否かを判定する処理を行わずに、カメラの校正を必要とする処理を行ってもよい。 In (3f) of the first and second embodiments, the calibration process of a camera, performs the processing for judging whether at least one of the absolute value of the calculated value is larger than the threshold TH 1 An example is shown, but the present invention is not limited to this. Calibration process cameras, for example, at least one of the absolute value without processing to determine whether it is larger than the threshold TH 1 of the calculated value by performing a process that requires a calibration of the camera Also good.

(3g)画像処理部6は、縦エッジの傾きの角度のデータを蓄積し、蓄積された複数のデータの分布が予め定められたばらつき具合よりもばらつく場合、カメラの校正を必要とする処理を行わなくてもよい。このような構成によれば、縦エッジの傾きの角度の検出が安定していない場合を排除することができる。   (3g) The image processing unit 6 accumulates data of the angle of inclination of the vertical edge, and when the distribution of the accumulated plurality of data varies from a predetermined degree of variation, a process that requires camera calibration is performed. It does not have to be done. According to such a configuration, the case where the detection of the angle of inclination of the vertical edge is not stable can be eliminated.

(3h)上記第1実施形態及び第2実施形態では、カメラの校正処理として、表示装置にフロントカメラ2の校正が必要であるという警報を表示する例を示したが、これに限定されるものではない。カメラの校正処理は、表示装置にカメラの校正が必要であるという警報を表示しなくてもよい。   (3h) In the first embodiment and the second embodiment, as an example of the camera calibration process, an alarm is displayed on the display device that the front camera 2 needs to be calibrated. However, the present invention is not limited to this. is not. The camera calibration process may not display an alarm on the display device that the camera needs to be calibrated.

(3i)上記第1実施形態及び上記第2実施形態では、縦エッジの傾きを算出する処理として、視点変換処理後の対象画像52から縦エッジを抽出し、抽出した縦エッジの傾きの角度を算出する処理を行う例を示したが、これに限定されるものではない。縦エッジの傾きを算出する処理は、視点変換処理前に縦エッジを抽出し、抽出した縦エッジの傾きの座標情報を算出し、当該座標情報を視点変換処理に基づいて修正することによって縦エッジの傾きの角度を算出してもよい。   (3i) In the first embodiment and the second embodiment, as the process of calculating the inclination of the vertical edge, the vertical edge is extracted from the target image 52 after the viewpoint conversion process, and the extracted inclination angle of the vertical edge is determined. Although the example which performs the process to calculate was shown, it is not limited to this. The vertical edge inclination is calculated by extracting the vertical edge before the viewpoint conversion process, calculating the coordinate information of the extracted vertical edge inclination, and correcting the coordinate information based on the viewpoint conversion process. The angle of inclination may be calculated.

(3j)上記第2実施形態では、視認対象として、信号機のランプ部分及び道路標識の表示板部分である例を示したが、これに限定されるものではない。視認対象は、例えば特定形状の物体等が挙げられる。   (3j) In the second embodiment, the example in which the traffic light is the ramp portion of the traffic light and the display portion of the road sign is shown as the visual recognition target. However, the present invention is not limited to this. Examples of the visual recognition target include an object having a specific shape.

(3k)上記第1実施形態及び上記第2実施形態では、カメラとして、広角レンズを備えるフロントカメラ2及びリアカメラ3の例を示したが、これに限定されるものではない。カメラに広角レンズが備えられていない場合、歪み補正の処理を行わなくてもよい。   (3k) In the first embodiment and the second embodiment described above, examples of the front camera 2 and the rear camera 3 including wide-angle lenses are shown as the camera, but the present invention is not limited to this. If the camera is not equipped with a wide-angle lens, the distortion correction process need not be performed.

(3l)上記第1実施形態では、画像処理部6は、縦エッジの角度の平均値近傍の度数が蓄積したデータの一定割合以上になった場合、ステップ7の処理へ進んでもよい。上記第2実施形態では、画像処理部6は、縦エッジの角度の最頻値近傍の度数が蓄積したデータの一定割合以上になった場合、ステップ27の処理へ進んでもよい。   (3l) In the first embodiment, the image processing unit 6 may proceed to the process of step 7 when the frequency near the average value of the angle of the vertical edge is equal to or greater than a certain ratio of the accumulated data. In the second embodiment, the image processing unit 6 may proceed to the process of step 27 when the frequency near the mode value of the angle of the vertical edge becomes equal to or greater than a certain ratio of the accumulated data.

(3m)上記第1実施形態では、カメラの校正処理として、縦エッジを含む対象画像52が一定の枚数よりも多い場合、ステップ6へ進む例を示したが、これに限定されるものではない。カメラの校正処理として、例えば、ステップ5の代わりに、縦エッジの傾きの角度を蓄積する時間が一定時間以上経過したか否かを判定する処理を行ってもよい。この場合、肯定判定されるとステップ6に進み、否定判定されるとステップ1に戻る。また、カメラの校正処理として、例えば、ステップ5の処理を行わずに、ステップ6へ進んでもよい。   (3m) In the first embodiment, as an example of the camera calibration process, when the number of target images 52 including vertical edges is greater than a certain number, the process proceeds to step 6. However, the present invention is not limited to this. . As camera calibration processing, for example, instead of step 5, processing for determining whether or not the time for accumulating the angle of inclination of the vertical edge has passed for a certain period of time may be performed. In this case, if an affirmative determination is made, the process proceeds to step 6. If a negative determination is made, the process returns to step 1. Further, as the camera calibration process, for example, the process may proceed to step 6 without performing the process of step 5.

同様に、上記第2実施形態では、カメラの校正処理として、縦エッジを含む対象画像52が一定の枚数よりも多い場合、ステップ26へ進む例を示したが、これに限定されるものではない。   Similarly, in the second embodiment, as an example of the camera calibration process, when the number of target images 52 including vertical edges is greater than a certain number, the process proceeds to step 26. However, the present invention is not limited to this. .

(3n)画像処理部6は、第1カメラ校正処理及び第2カメラ校正処理を終了した後、左右カメラ及びフロントカメラ2の共通領域の路面上の特徴点を利用して、左右カメラの校正の要否判定の処理を行ってもよい。同様に、画像処理部6は、第1カメラ校正処理及び第2カメラ校正処理を終了した後、左右カメラ及びリアカメラ3の共通領域の路面上の特徴点を利用して、左右カメラの校正の要否判定の処理を行ってもよい。   (3n) After finishing the first camera calibration process and the second camera calibration process, the image processing unit 6 uses the feature points on the road surface of the common area of the left and right cameras and the front camera 2 to calibrate the left and right cameras. Necessity determination processing may be performed. Similarly, after completing the first camera calibration process and the second camera calibration process, the image processing unit 6 uses the feature points on the road surface of the common area of the left and right cameras and the rear camera 3 to calibrate the left and right cameras. Necessity determination processing may be performed.

(3o)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (3o) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

(3p)上述した画像処理部6の他、当該画像処理部6を構成要素とするシステム、当該画像処理部6としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体等、種々の形態で本開示を実現することもできる。   (3p) In addition to the image processing unit 6 described above, a system including the image processing unit 6 as a constituent element, a program for causing a computer to function as the image processing unit 6, and a non-transitive semiconductor memory storing the program The present disclosure can also be realized in various forms such as a substantial recording medium.

(3q)画像処理部は、CPUがプログラムを実行することで実現される機能の構成として、フローチャートの処理を実行する。画像処理部を構成するこれらの処理を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。   (3q) The image processing unit executes the process of the flowchart as a function configuration realized by the CPU executing the program. The method for realizing these processes constituting the image processing unit is not limited to software, and some or all of the elements may be realized using hardware that combines a logic circuit, an analog circuit, and the like.

1…カメラ校正システム、2…フロントカメラ、3…リアカメラ、4…ECU、5…表示装置、6…画像処理部、7…画像信号処理部、8…車載信号処理部、9…メモリ、10…電源回路、51…歪み補正された撮像画像、52…対象画像、53…左探索領域、54…右探索領域。 DESCRIPTION OF SYMBOLS 1 ... Camera calibration system, 2 ... Front camera, 3 ... Rear camera, 4 ... ECU, 5 ... Display apparatus, 6 ... Image processing part, 7 ... Image signal processing part, 8 ... In-vehicle signal processing part, 9 ... Memory, 10 ... power supply circuit, 51 ... captured image with distortion corrected, 52 ... target image, 53 ... left search area, 54 ... right search area.

Claims (14)

車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出する抽出部(6、S1〜S4、S21〜S24、S41〜S46)と、
前記抽出部によって抽出された前記縦エッジの傾きを算出する傾き算出部(6、S4、S24、S47〜S49)と、
前記傾き算出部によって算出された前記縦エッジの傾きに基づいて、前記車両に設置されている前記カメラの現在の取付け角度と、前記車両に設置された前記カメラの初期の取付け角度とのずれを算出するずれ算出処理を行うずれ算出部(6、S9、S10、S29、S30)と、
を備えるカメラ校正装置(6)。
Extraction unit (6, S1 to S4, S21 to S24, S41) that extracts vertical edges of an object having a linear portion extending in the vertical direction in a captured image acquired from a camera (2, 3) installed in a vehicle. To S46),
An inclination calculating section (6, S4, S24, S47 to S49) for calculating the inclination of the vertical edge extracted by the extracting section;
Based on the inclination of the vertical edge calculated by the inclination calculation unit, a deviation between a current attachment angle of the camera installed in the vehicle and an initial attachment angle of the camera installed in the vehicle is calculated. A deviation calculation unit (6, S9, S10, S29, S30) for performing a deviation calculation process to be calculated;
A camera calibration device (6).
請求項1に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像を左右に分けた左側の領域及び右側の領域のそれぞれから前記縦エッジを抽出し、
前記傾き算出部は、前記左側の領域から抽出された前記縦エッジの傾きである第1の傾きと前記右側の領域から抽出された前記縦エッジの傾きである第2の傾きとを算出し、
前記ずれ算出部は、前記傾き算出部によって算出された前記第1の傾き及び前記第2の傾きを比較することにより、前記ずれ算出処理を行う、カメラ校正装置。
The camera calibration device according to claim 1,
The extraction unit extracts the vertical edge from each of a left region and a right region obtained by dividing the captured image into left and right,
The inclination calculation unit calculates a first inclination that is an inclination of the vertical edge extracted from the left area and a second inclination that is an inclination of the vertical edge extracted from the right area;
The deviation calculation unit is a camera calibration apparatus that performs the deviation calculation process by comparing the first inclination and the second inclination calculated by the inclination calculation unit.
請求項1又は請求項2に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像において設定された上方の領域から前記縦エッジを抽出し、
前記傾き算出部は、前記上方の領域から抽出された前記縦エッジの傾きを算出する、カメラ校正装置。
The camera calibration device according to claim 1 or 2,
The extraction unit extracts the vertical edge from an upper region set in the captured image,
The tilt calculation unit is a camera calibration device that calculates the tilt of the vertical edge extracted from the upper region.
請求項1から請求項3までのいずれか1項に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像を、前記カメラのピッチ角が0度の視点の画像に変換する視点変換処理(6、S2、S22)を行い、前記視点変換処理後の画像から前記縦エッジを抽出する、カメラ校正装置。
The camera calibration device according to any one of claims 1 to 3,
The extraction unit performs a viewpoint conversion process (6, S2, S22) for converting the captured image into an image of a viewpoint with a pitch angle of the camera of 0 degrees, and the vertical edge is extracted from the image after the viewpoint conversion process. Camera calibration device to extract.
請求項1から請求項4までのいずれか1項に記載のカメラ校正装置であって、
カメラ校正装置はメモリ(9)を更に備え、
前記車両に設置された前記カメラの初期の設計値がメモリに記録されている、カメラ校正装置。
The camera calibration device according to any one of claims 1 to 4, wherein
The camera calibration device further comprises a memory (9),
A camera calibration apparatus in which an initial design value of the camera installed in the vehicle is recorded in a memory.
請求項1から請求項5までのいずれか1項に記載のカメラ校正装置であって、
前記傾き算出部は、前記抽出部によって抽出された前記縦エッジの中から前記縦エッジの線分の長さが最大である前記縦エッジの傾きを算出する(6、S24、S49)、カメラ校正装置。
A camera calibration device according to any one of claims 1 to 5,
The inclination calculation unit calculates the inclination of the vertical edge having the maximum length of the line segment of the vertical edge from the vertical edges extracted by the extraction unit (6, S24, S49), and camera calibration. apparatus.
請求項1から請求項6までのいずれか1項に記載のカメラ校正装置であって、
前記傾き算出部によって算出された前記縦エッジの傾きのデータを蓄積する蓄積部(6、S4、S24、S41〜S46)と、
前記蓄積部によって蓄積された複数の前記データから統計学的に処理された値である統計値を算出する統計部(6、S6、S26)と、
を更に備え、
前記ずれ算出部は、前記統計部によって算出された前記統計値に基づいて、前記ずれ算出処理を行う、カメラ校正装置。
The camera calibration device according to any one of claims 1 to 6,
An accumulation unit (6, S4, S24, S41 to S46) for accumulating the data of the inclination of the vertical edge calculated by the inclination calculation unit;
A statistical unit (6, S6, S26) for calculating a statistical value that is a statistically processed value from the plurality of data accumulated by the accumulation unit;
Further comprising
The said deviation calculation part is a camera calibration apparatus which performs the said deviation calculation process based on the said statistical value calculated by the said statistics part.
請求項7に記載のカメラ校正装置であって、
前記ずれ算出部は、前記統計部によって算出された前記統計値が予め定められた傾きの値よりも大きい値と判定した場合(6、S7のYES、S27のYES)に、前記ずれ算出処理を行う、カメラ校正装置。
The camera calibration device according to claim 7,
The deviation calculating unit performs the deviation calculating process when the statistical value calculated by the statistical unit is determined to be larger than a predetermined slope value (YES in S6, YES in S27). Perform a camera calibration device.
請求項7又は請求項8に記載のカメラ校正装置であって、
前記ずれ算出部は、前記蓄積部によって蓄積された複数の前記データの分布が予め定められたばらつき具合よりもばらつく場合、前記ずれ算出処理を行わないカメラ校正装置。
The camera calibration device according to claim 7 or claim 8,
The deviation calculation unit is a camera calibration apparatus that does not perform the deviation calculation process when the distribution of the plurality of data accumulated by the accumulation unit varies from a predetermined variation degree.
請求項1から請求項9までのいずれか1項に記載のカメラ校正装置であって、
前記車両に設置されている前記カメラの現在の取付け角度が、前記車両に設置された前記カメラの初期の取付け角度に対してずれていることを表示装置(5)に表示する処理を行う表示処理部(6、S11〜S13、S31〜S33)を更に備える、カメラ校正装置。
The camera calibration device according to any one of claims 1 to 9,
Display processing for displaying on the display device (5) that the current mounting angle of the camera installed in the vehicle is deviated from the initial mounting angle of the camera installed in the vehicle A camera calibration device further comprising a unit (6, S11 to S13, S31 to S33).
請求項1から請求項10までのいずれか1項に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像において前記物体を認識した後、前記物体の前記縦エッジを抽出する(6、S1〜S4)、カメラ校正装置。
A camera calibration device according to any one of claims 1 to 10,
The said extraction part is the camera calibration apparatus which extracts the said vertical edge of the said object after recognizing the said object in the said captured image (6, S1-S4).
請求項1から請求項11までのいずれか1項に記載のカメラ校正装置であって、
前記物体は、視認される視認対象及び前記視認対象を支える支持柱を備え、
前記抽出部は、前記撮像画像において前記視認対象を認識した後、認識した前記視認対象が備える前記支持柱の前記縦エッジを抽出する(6、S21〜S24、S41〜S46)、カメラ校正装置。
A camera calibration device according to any one of claims 1 to 11,
The object includes a visual recognition target to be visually recognized and a support column that supports the visual recognition target,
The said extraction part is a camera calibration apparatus which extracts the said vertical edge of the said support pillar with which the recognized said visual recognition object is provided after recognizing the said visual recognition target in the said captured image (6, S21-S24, S41-S46).
請求項1から請求項12までのいずれか1項に記載のカメラ校正装置であって、
前記物体は信号機及び道路標識のうち少なくとも1つである、カメラ校正装置。
A camera calibration device according to any one of claims 1 to 12,
The camera calibration apparatus, wherein the object is at least one of a traffic light and a road sign.
車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出し(6、S1〜S4、S21〜S24、S41〜S46)、
抽出された前記縦エッジの傾きを算出し(6、S4、S24、S47〜S49)、
算出された前記縦エッジの傾きに基づいて、前記車両に設置されている前記カメラの現在の取付け角度と、前記車両に設置された前記カメラの初期の取付け角度とのずれを算出する(6、S9、S10、S29、S30)、カメラ校正方法。
In a captured image acquired from a camera (2, 3) installed in a vehicle, vertical edges of an object having a linear portion extending in the vertical direction are extracted (6, S1-S4, S21-S24, S41-S46). ),
Calculating the inclination of the extracted vertical edge (6, S4, S24, S47 to S49);
Based on the calculated inclination of the vertical edge, a deviation between the current mounting angle of the camera installed in the vehicle and the initial mounting angle of the camera installed in the vehicle is calculated (6, S9, S10, S29, S30), camera calibration method.
JP2016102591A 2016-05-23 2016-05-23 Camera calibrating device, and camera calibrating method Pending JP2017211200A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016102591A JP2017211200A (en) 2016-05-23 2016-05-23 Camera calibrating device, and camera calibrating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016102591A JP2017211200A (en) 2016-05-23 2016-05-23 Camera calibrating device, and camera calibrating method

Publications (1)

Publication Number Publication Date
JP2017211200A true JP2017211200A (en) 2017-11-30

Family

ID=60475331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016102591A Pending JP2017211200A (en) 2016-05-23 2016-05-23 Camera calibrating device, and camera calibrating method

Country Status (1)

Country Link
JP (1) JP2017211200A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102024834B1 (en) * 2018-04-23 2019-09-24 주식회사 이알랩 Tolerance compensating apparatus and method for automatic vehicle-mounted camera
JP2020060550A (en) * 2018-10-10 2020-04-16 株式会社デンソーテン Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
EP3644280A1 (en) * 2018-10-22 2020-04-29 AVI Systems GmbH Method for aligning a camera according to extrinsic parameters
US20210190958A1 (en) * 2017-10-26 2021-06-24 Pioneer Corporation Control device, control method, program, and storage medium
CN113866183A (en) * 2021-09-15 2021-12-31 北京首钢股份有限公司 Fault detection method and device of strip steel surface detector
CN114820672A (en) * 2022-04-12 2022-07-29 深圳信路通智能技术有限公司 Image processing method, apparatus, computer equipment and storage medium
CN118972549A (en) * 2024-07-22 2024-11-15 深圳市星光芯影像科技有限公司 A method and device for calibrating the rotation angle of a camera

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000000236A (en) * 1998-05-14 2000-01-07 General Electric Co <Ge> Artifact correction for highly damping objects
JP2002163661A (en) * 2000-11-22 2002-06-07 Nissan Motor Co Ltd White line detector
WO2004077820A1 (en) * 2003-02-25 2004-09-10 Matsushita Electric Industrial Co. Ltd. Image pickup processing method and image pickup apparatus
JP2009276233A (en) * 2008-05-15 2009-11-26 Toyota Central R&D Labs Inc Parameter calculating apparatus, parameter calculating system and program
WO2014054223A1 (en) * 2012-10-02 2014-04-10 株式会社デンソー Calibration method and calibration device
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000000236A (en) * 1998-05-14 2000-01-07 General Electric Co <Ge> Artifact correction for highly damping objects
JP2002163661A (en) * 2000-11-22 2002-06-07 Nissan Motor Co Ltd White line detector
WO2004077820A1 (en) * 2003-02-25 2004-09-10 Matsushita Electric Industrial Co. Ltd. Image pickup processing method and image pickup apparatus
JP2009276233A (en) * 2008-05-15 2009-11-26 Toyota Central R&D Labs Inc Parameter calculating apparatus, parameter calculating system and program
WO2014054223A1 (en) * 2012-10-02 2014-04-10 株式会社デンソー Calibration method and calibration device
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210190958A1 (en) * 2017-10-26 2021-06-24 Pioneer Corporation Control device, control method, program, and storage medium
JP2022051779A (en) * 2017-10-26 2022-04-01 パイオニア株式会社 Control device, control method, program, and memory medium
US11796657B2 (en) * 2017-10-26 2023-10-24 Pioneer Corporation Control device, control method, program, and storage medium
KR102024834B1 (en) * 2018-04-23 2019-09-24 주식회사 이알랩 Tolerance compensating apparatus and method for automatic vehicle-mounted camera
JP2020060550A (en) * 2018-10-10 2020-04-16 株式会社デンソーテン Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
JP7270499B2 (en) 2018-10-10 2023-05-10 株式会社デンソーテン Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
EP3644280A1 (en) * 2018-10-22 2020-04-29 AVI Systems GmbH Method for aligning a camera according to extrinsic parameters
CN113866183A (en) * 2021-09-15 2021-12-31 北京首钢股份有限公司 Fault detection method and device of strip steel surface detector
CN113866183B (en) * 2021-09-15 2023-11-14 北京首钢股份有限公司 Fault detection method and device for strip steel surface detector
CN114820672A (en) * 2022-04-12 2022-07-29 深圳信路通智能技术有限公司 Image processing method, apparatus, computer equipment and storage medium
CN118972549A (en) * 2024-07-22 2024-11-15 深圳市星光芯影像科技有限公司 A method and device for calibrating the rotation angle of a camera
CN118972549B (en) * 2024-07-22 2025-02-28 深圳市星光芯影像科技有限公司 A method and device for calibrating the rotation angle of a camera

Similar Documents

Publication Publication Date Title
JP2017211200A (en) Camera calibrating device, and camera calibrating method
JP5375958B2 (en) Image processing apparatus and image processing method
JP4631096B2 (en) Vehicle periphery monitoring device
JP4733756B2 (en) Vehicle periphery monitoring device
US9076046B2 (en) Lane recognition device
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP4203512B2 (en) Vehicle periphery monitoring device
JP5904925B2 (en) Vehicle periphery monitoring device
JP5541412B2 (en) Driving support device and raindrop detection method thereof
JP6697522B2 (en) Marking line recognition device
JP4697101B2 (en) Vehicle detection device and light control device
US9619895B2 (en) Image processing method of vehicle camera and image processing apparatus using the same
JP2012173879A (en) Traffic signal detection apparatus and program therefor
US20150302257A1 (en) On-Vehicle Control Device
JP6426512B2 (en) Driving lane recognition system
JP2003329439A (en) Distance detection device
JP5407920B2 (en) Lighting color identification device and program
JP2014106739A (en) In-vehicle image processing device
JP5353531B2 (en) Vehicle light recognition device and program
JP6981850B2 (en) Driving support system
JP6483360B2 (en) Object recognition device
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
WO2023068034A1 (en) Image processing device
JP2007018451A (en) Road marking line detection device
JP4239834B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191112