[go: up one dir, main page]

JP2018185694A - Moving object determination device, and moving object determination program - Google Patents

Moving object determination device, and moving object determination program Download PDF

Info

Publication number
JP2018185694A
JP2018185694A JP2017087697A JP2017087697A JP2018185694A JP 2018185694 A JP2018185694 A JP 2018185694A JP 2017087697 A JP2017087697 A JP 2017087697A JP 2017087697 A JP2017087697 A JP 2017087697A JP 2018185694 A JP2018185694 A JP 2018185694A
Authority
JP
Japan
Prior art keywords
feature point
moving object
calculation unit
optical flow
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017087697A
Other languages
Japanese (ja)
Inventor
洪二郎 武山
Kojiro Takeyama
洪二郎 武山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017087697A priority Critical patent/JP2018185694A/en
Publication of JP2018185694A publication Critical patent/JP2018185694A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自車両と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動体か否かを精度よく判定する。【解決手段】移動物体判定装置1は、画像から特徴点9を抽出する画像特徴抽出部20と、抽出した特徴点9を示すオプティカルフローを特徴点9毎に算出する第1オプティカルフロー算出部30と、自車両8の走行軌跡を算出する車両軌跡算出部50と、オプティカルフロー及び自車両8の走行軌跡から空間特徴点14を特徴点9毎に算出する特徴点3次元位置算出部60と、自車両8の走行軌跡及び空間特徴点14を用いて、特徴点9に対応した空間特徴点14のオプティカルフローを特徴点9毎に算出する第2オプティカルフロー算出部70と、特徴点9を示すオプティカルフローと空間特徴点9のオプティカルフローとを比較して、抽出したオプティカルフローが移動物体のオプティカルフローか否かを判定する移動物体判定部80を備える。【選択図】図1An object of the present invention is to accurately determine whether an object included in a captured image is a moving object regardless of a positional relationship between a host vehicle and surrounding objects. A moving object determination apparatus includes an image feature extraction unit that extracts a feature point from an image, and a first optical flow calculation unit that calculates an optical flow indicating the extracted feature point for each feature point. A vehicle trajectory calculation unit 50 that calculates a travel trajectory of the host vehicle 8, a feature point three-dimensional position calculation unit 60 that calculates a spatial feature point 14 for each feature point 9 from the optical flow and the travel trajectory of the host vehicle 8, The second optical flow calculator 70 calculates the optical flow of the spatial feature point 14 corresponding to the feature point 9 for each feature point 9 using the travel locus of the host vehicle 8 and the spatial feature point 14, and the feature point 9. The moving object determining unit 80 that compares the optical flow with the optical flow of the spatial feature point 9 and determines whether the extracted optical flow is the optical flow of the moving object. Provided. [Selection diagram] Fig. 1

Description

本発明は、移動物体判定装置、及び移動物体判定プログラムに関する。   The present invention relates to a moving object determination device and a moving object determination program.

従来から対象物をカメラで撮影し、撮影した画像に含まれる対象物が移動物体であるか静止物体であるかを判定する手法が提案されている(例えば特許文献1参照)。   Conventionally, a method has been proposed in which an object is photographed with a camera and whether the object contained in the photographed image is a moving object or a stationary object is determined (see, for example, Patent Document 1).

特開2010−286963号公報JP 2010-286963 A

特許文献1に記載の移動物体検出装置では、画像の路面に相当する最下部の所定領域に含まれる特徴点を、路面構造に属する基準特徴点として選出し、選出した基準特徴点に基づいて自車両の基準姿勢変化量を算出する。そして、画像内の基準特徴点を除いた残りの特徴点の中から、任意の特徴点を比較特徴点として選出し、選出した比較特徴点に基づいて自車両の比較姿勢変化量を算出する。移動物体検出装置は、基準姿勢変化量と比較姿勢変化量を3次元座標にマッピングし、基準姿勢変化量の座標位置と比較姿勢変化量の座標位置が距離r以上離れている場合に、比較姿勢変化量の算出に用いた比較特徴点が移動物体に付随する特徴点と判定する。   In the moving object detection device described in Patent Document 1, a feature point included in a predetermined area at the bottom corresponding to a road surface of an image is selected as a reference feature point belonging to the road surface structure, and is automatically based on the selected reference feature point. A reference attitude change amount of the vehicle is calculated. Then, an arbitrary feature point is selected as a comparison feature point from the remaining feature points excluding the reference feature point in the image, and the comparison posture change amount of the host vehicle is calculated based on the selected comparison feature point. The moving object detection device maps the reference posture change amount and the comparison posture change amount to a three-dimensional coordinate, and when the coordinate position of the reference posture change amount and the coordinate position of the comparison posture change amount are separated by a distance r or more, the comparative posture The comparison feature point used to calculate the amount of change is determined as a feature point associated with the moving object.

しかしながら、特許文献1に記載の移動物体検出装置では、画像の決められた範囲を路面に相当する領域に設定するため、状況によっては設定した領域が必ずしも路面でないことがある。例えば自車両の前方にカメラを取り付けている場合、前方を走行している車両が自車両に近づくと、撮影した画像の最下部の所定領域には前方を走行している車両が映っていることがある。この場合、所定領域から選出した基準特徴点は静止物体の特徴点ではないことから、静止物体から基準特徴点を選出するという判定手法の前提条件が満たされないことになる。したがって、特許文献1に記載の移動物体検出装置では、移動物体を検出することが困難になる。   However, in the moving object detection device described in Patent Document 1, since the determined range of the image is set to an area corresponding to the road surface, the set area may not necessarily be the road surface depending on the situation. For example, when a camera is attached in front of the host vehicle, when the vehicle traveling in front approaches the host vehicle, the vehicle traveling in front is shown in the predetermined area at the bottom of the captured image. There is. In this case, since the reference feature point selected from the predetermined region is not a feature point of the stationary object, the precondition of the determination method of selecting the reference feature point from the stationary object is not satisfied. Therefore, it is difficult for the moving object detection device described in Patent Document 1 to detect a moving object.

また、カメラの取り付け位置及び使用するカメラの解像度によっては、路面の特徴点を精度よく選出することが困難になることがある。仮に、路面の特徴点を精度よく選出することができたとしても、路面という限られた範囲の特徴点では特徴が似ている場合が多く、特徴点のばらつきが少ない場合がある。このように特許文献1に記載の移動物体検出装置は、偏った特徴点の分布を用いて移動物体を検出するため、自車両の基準姿勢変化量を精度よく算出することができない場合がある。また、自車両の基準姿勢変化量が精度よく算出できなければ、移動物体の検出精度も低下してしまう。   In addition, depending on the mounting position of the camera and the resolution of the camera to be used, it may be difficult to select feature points on the road surface with high accuracy. Even if the feature points on the road surface can be selected with high accuracy, the feature points in a limited range of the road surface often have similar features, and there may be little variation in the feature points. As described above, since the moving object detection device described in Patent Document 1 detects a moving object using a distribution of biased feature points, the reference posture change amount of the host vehicle may not be accurately calculated. In addition, if the reference attitude change amount of the host vehicle cannot be calculated with high accuracy, the detection accuracy of the moving object also decreases.

本発明は、上記に示した問題点を鑑みてなされたものであり、自車両と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動物体か否かを精度よく判定する移動物体判定装置を提供することを目的とする。   The present invention has been made in view of the problems described above, and accurately determines whether or not an object included in a captured image is a moving object regardless of the positional relationship between the host vehicle and surrounding objects. An object of the present invention is to provide a moving object determination device.

上記の目的を達成するために、請求項1に記載の移動物体判定装置は、移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、前記移動体の移動速度及び運動に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部と、を備える。   In order to achieve the above object, the moving object determination device according to claim 1 includes an extraction unit that extracts a feature point from each image photographed in time series by a photographing device attached to a moving body. A first calculation unit that tracks a corresponding feature point in each image among the feature points extracted by the extraction unit, and calculates a time series of the position of the tracked feature point for each feature point; A second calculation unit that calculates a travel locus of the moving body using a physical quantity related to the moving speed and motion of the moving body, a time series of the positions of feature points calculated by the first calculation unit, and the second Using the travel trajectory of the moving body calculated by the calculation unit, a third calculation unit that calculates the position of the extracted feature point in the three-dimensional space for each feature point, and the second calculation unit The travel locus of the mobile body and the calculated by the third calculation unit Using the position of the spatial feature point representing the feature point in the dimensional space, the position of the spatial feature point in each of the images is calculated, and the feature point corresponding to the spatial feature point represented in each of the images A fourth calculation unit that calculates a time series of positions for each feature point corresponding to the spatial feature point, a time series of feature point positions calculated by the first calculation unit, and a corresponding feature point A determination unit that compares the time series of the positions of the spatial feature points calculated by the fourth calculation unit to determine, for each feature point, whether or not the object represented by the feature point is a moving object.

請求項2に記載の発明では、前記各々の画像から移動物体領域を検出する検出部を備え、前記判定部は、移動物体を表すと判定した特徴点のうち、前記検出部で前記各々の画像から検出された前記移動物体領域の何れにも含まれない特徴点は、移動物体を表す特徴点ではないと再判定する。   According to a second aspect of the present invention, the image processing apparatus includes a detection unit that detects a moving object region from each of the images, and the determination unit includes a feature point determined to represent a moving object. The feature points that are not included in any of the moving object regions detected from the above are re-determined not to be feature points representing a moving object.

請求項3に記載の発明では、前記各々の画像における何れかの画像から移動物体領域を検出する検出部を備え、前記判定部は、前記検出部で検出された前記移動物体領域毎に、前記移動物体領域に含まれる特徴点に対する移動物体を表す特徴点の割合を算出し、前記割合が予め定めた割合未満となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点ではないと再判定すると共に、前記割合が予め定めた割合以上となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点であると再判定する。   According to a third aspect of the present invention, the image processing apparatus includes a detection unit that detects a moving object region from any one of the images, and the determination unit performs the detection for each moving object region detected by the detection unit. The ratio of the feature point representing the moving object to the feature point included in the moving object area is calculated, and the feature point included in the moving object area where the ratio is less than a predetermined ratio is not a feature point representing the moving object. And the feature point included in the moving object region in which the ratio is equal to or greater than a predetermined ratio is determined again as a feature point representing a moving object.

請求項4に記載の発明では、前記判定部は、過去に前記移動物体領域を表すと判定されたことがある特徴点は、移動物体を表す特徴点であると判定する。   According to a fourth aspect of the present invention, the determination unit determines that a feature point that has been determined to represent the moving object region in the past is a feature point that represents a moving object.

請求項5に記載の発明では、前記判定部は、前記移動体の運動に関する物理量の変動度合いが予め定めた閾値より大きい場合、特徴点の位置の時系列として、前回の判定で得られた特徴点の位置の時系列を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する。   In the invention according to claim 5, the determination unit obtains the characteristic obtained in the previous determination as the time series of the position of the feature point when the variation degree of the physical quantity related to the motion of the moving body is larger than a predetermined threshold. Using the time series of point positions, it is determined for each feature point whether the object represented by the feature point is a moving object.

請求項6に記載の発明では、前記判定部は、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列との距離を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する。   In the invention according to claim 6, the determination unit includes a time series of the position of the feature point calculated by the first calculation unit and the spatial feature calculated by the fourth calculation unit corresponding to the feature point. Whether or not the object represented by the feature point is a moving object is determined for each feature point using the distance from the point position in time series.

請求項7に記載の移動物体判定プログラムは、コンピュータを、移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、前記移動体の移動速度及び移動方向に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部として機能させる。   The moving object determination program according to claim 7, wherein a computer is extracted by each of an extraction unit that extracts a feature point from each image photographed in time series by a photographing device attached to a moving body, and the extraction unit extracts A first calculation unit that tracks a corresponding feature point in each of the images and calculates a time series of the position of the tracked feature point for each feature point; a moving speed of the moving object; Using a physical quantity related to the moving direction, a second calculation unit that calculates a travel locus of the moving body, a time series of the positions of feature points calculated by the first calculation unit, and a calculation by the second calculation unit A third calculation unit that calculates the position of the extracted feature point in the three-dimensional space for each feature point using the travel locus of the mobile unit, and the travel of the mobile unit calculated by the second calculation unit The trajectory and the 3 calculated by the third calculation unit Using the position of the spatial feature point representing the feature point in the original space, the position of the spatial feature point in each of the images is calculated, and the feature point corresponding to the spatial feature point represented in each of the images is calculated. A fourth calculation unit that calculates a time series of positions for each feature point corresponding to the spatial feature point, a time series of feature point positions calculated by the first calculation unit, and a corresponding feature point The time series of the position of the spatial feature point calculated by the fourth calculation unit is compared to function as a determination unit that determines for each feature point whether or not the object represented by the feature point is a moving object.

本発明によれば、自車両と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動物体か否かを精度よく判定することができる、という効果を奏する。   According to the present invention, it is possible to accurately determine whether or not an object included in a captured image is a moving object regardless of the positional relationship between the host vehicle and surrounding objects.

第1実施形態に係る移動物体判定装置の構成例を示す図である。It is a figure which shows the structural example of the moving object determination apparatus which concerns on 1st Embodiment. 特徴点の3次元位置の算出方法について説明した模式図である。It is the schematic diagram explaining the calculation method of the three-dimensional position of a feature point. 特徴点の再投影について説明した模式図である。It is the schematic diagram explaining the reprojection of the feature point. 移動体の軌跡の判定方法を説明した模式図である。It is the schematic diagram explaining the determination method of the locus | trajectory of a mobile body. 移動物体判定装置の電気系統の要部構成例を示す図である。It is a figure which shows the principal part structural example of the electric system of a moving object determination apparatus. 第1実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the moving object determination process which concerns on 1st Embodiment. オプティカルフローの一例を示す図である。It is a figure which shows an example of an optical flow. 移動物体の判定結果の一例を示す図である。It is a figure which shows an example of the determination result of a moving object. 第2実施形態に係る移動物体判定装置の構成例を示す図である。It is a figure which shows the structural example of the moving object determination apparatus which concerns on 2nd Embodiment. 第2実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the moving object determination process which concerns on 2nd Embodiment. 車両画像領域の一例を示す図である。It is a figure which shows an example of a vehicle image area | region. 移動物体の判定結果の一例を示す図である。It is a figure which shows an example of the determination result of a moving object. 第3実施形態に係る移動物体判定装置の構成例を示す図である。It is a figure which shows the structural example of the moving object determination apparatus which concerns on 3rd Embodiment. 第3実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the moving object determination process which concerns on 3rd Embodiment. 第4実施形態に係る移動物体判定装置の構成例を示す図である。It is a figure which shows the structural example of the moving object determination apparatus which concerns on 4th Embodiment. 第4実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the moving object determination process which concerns on 4th Embodiment. 移動車両領域判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a moving vehicle area | region determination process. 車両画像領域の判定結果の一例を示す図である。It is a figure which shows an example of the determination result of a vehicle image area. 移動物体の判定結果の一例を示す図である。It is a figure which shows an example of the determination result of a moving object.

以下、本実施の形態について図面を参照しながら説明する。なお、機能が同じ構成要素及び処理には、全図面を通して同じ符合を付与し、重複する説明を省略する。   Hereinafter, the present embodiment will be described with reference to the drawings. In addition, the same code | symbol is provided to the component and process with the same function throughout all the drawings, and the overlapping description is abbreviate | omitted.

<第1実施形態>
図1は、第1実施形態に係る移動物体判定装置1の構成例を示す図である。図1に示すように、移動物体判定装置1は、画像情報取得部10、画像特徴抽出部20、第1オプティカルフロー算出部30、IMU情報取得部40、及び車両軌跡算出部50を含む。更に、移動物体判定装置1は、特徴点3次元位置算出部60、第2オプティカルフロー算出部70、及び移動物体判定部80を含む。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of a moving object determination device 1 according to the first embodiment. As illustrated in FIG. 1, the moving object determination device 1 includes an image information acquisition unit 10, an image feature extraction unit 20, a first optical flow calculation unit 30, an IMU information acquisition unit 40, and a vehicle trajectory calculation unit 50. Furthermore, the moving object determination device 1 includes a feature point three-dimensional position calculation unit 60, a second optical flow calculation unit 70, and a moving object determination unit 80.

画像情報取得部10は、移動物体判定装置1が搭載された車両(以降、「自車両」という場合がある)に取り付けられた撮影装置の一例である図示しないカメラで撮影された、自車両周辺の画像を取得する。   The image information acquisition unit 10 is a periphery of the own vehicle, which is taken by a camera (not shown) that is an example of an imaging device attached to a vehicle (hereinafter, may be referred to as “own vehicle”) on which the moving object determination device 1 is mounted. Get the image.

図示しないカメラは時系列に沿って画像を撮影し、撮影した画像を画像データとして後述するRAM等の記憶装置に記憶する。なお、画像情報取得部10が取得する画像の形態は、静止画であっても動画であってもよく、自車両の周囲の画像内容を解析することができれば、可視画像、赤外画像、及び距離画像の何れの画像であってもよい。また、画像情報取得部10は、自車両に取り付けられた1台のカメラから画像を取得しても、複数のカメラから画像を取得してもよい。   A camera (not shown) captures images in time series and stores the captured images as image data in a storage device such as a RAM described later. Note that the form of the image acquired by the image information acquisition unit 10 may be a still image or a moving image, and if the image content around the host vehicle can be analyzed, a visible image, an infrared image, and Any of the distance images may be used. Moreover, the image information acquisition part 10 may acquire an image from one camera attached to the own vehicle, or may acquire an image from several cameras.

更に、自車両におけるカメラの取り付け位置に制約はなく、例えば車両進行方向、車両進行方向と逆方向、又は自車両を中心とした全方位の画像を撮影する位置にカメラを取り付けることができる。なお、自車両は移動体の一例である。   Furthermore, there is no restriction | limiting in the attachment position of the camera in the own vehicle, For example, a camera can be attached to the position which image | photographs the image of the omnidirectional centering on a vehicle advancing direction, a vehicle advancing direction, or the own vehicle. The host vehicle is an example of a moving body.

画像特徴抽出部20は、画像情報取得部10で取得した画像の各々から、画像内の他の領域とは異なる特徴的な画素パターンを示す特徴点を複数抽出する。   The image feature extraction unit 20 extracts, from each of the images acquired by the image information acquisition unit 10, a plurality of feature points indicating a characteristic pixel pattern different from other regions in the image.

画像特徴抽出部20における特徴点の抽出手法には公知の手法が用いられ、適用される特徴点の抽出手法に制約はない。画像特徴抽出部20は、例えば特徴点の抽出において拡大、回転、及び明るさの変化といった外部要因の影響を除外しようとする内的性質(ロバスト性)を有するSIFT(Scale-Invariant Feature Transform)法、及びSURF(Speed Up Robust Feature)法を用いることができる。また、画像特徴抽出部20は、他の特徴点の抽出手法に比べて実装が容易なHarris法や、計算量が少ないFAST(Features from Accelerated Segment Test)法を用いることができる。   A known method is used as the feature point extraction method in the image feature extraction unit 20, and there is no restriction on the feature point extraction method to be applied. The image feature extraction unit 20 is a SIFT (Scale-Invariant Feature Transform) method having an internal property (robustness) that attempts to exclude the influence of external factors such as enlargement, rotation, and brightness change in feature point extraction. , And SURF (Speed Up Robust Feature) method can be used. Further, the image feature extraction unit 20 can use a Harris method that is easier to implement than other feature point extraction methods and a FAST (Features from Accelerated Segment Test) method that requires a small amount of calculation.

なお、画像特徴抽出部20は特徴点の抽出に代えて、又は特徴点の抽出と共に、画像の特徴を示す線分(特徴線分)や面(特徴面)を抽出してもよいが、ここでは一例として、画像特徴抽出部20は特徴点を抽出するものとする。画像特徴抽出部20は抽出部の一例である。   Note that the image feature extraction unit 20 may extract a line segment (feature line segment) or a surface (feature plane) indicating an image feature instead of or together with feature point extraction. As an example, it is assumed that the image feature extraction unit 20 extracts feature points. The image feature extraction unit 20 is an example of an extraction unit.

第1オプティカルフロー算出部30は、画像特徴抽出部20で抽出された、自車両の走行に伴って時間と共に移動する各々の特徴点を追跡し、同じ箇所を示す特徴点(対応する特徴点ともいう)の位置の時系列として表されるオプティカルフローを特徴点毎に算出する。対応する特徴点の追跡には、例えばLucas-Kanade法などの公知の手法を用いることができ、特徴点の追跡手法に特に制約はない。第1オプティカルフロー算出部30は、第1の算出部の一例である。なお、以降では、オプティカルフローを“OF(Optical Flow)”と省略して表記する場合がある。また、単に「オプティカルフロー」と記載している場合は、画像特徴抽出部20で抽出された特徴点9を追跡して得られたオプティカルフローを指す。   The first optical flow calculation unit 30 tracks each feature point that is extracted by the image feature extraction unit 20 and moves with time as the host vehicle travels, and indicates a feature point that indicates the same location (also a corresponding feature point). The optical flow expressed as a time series of positions) is calculated for each feature point. For tracking corresponding feature points, a known method such as Lucas-Kanade method can be used, and the feature point tracking method is not particularly limited. The first optical flow calculation unit 30 is an example of a first calculation unit. Hereinafter, the optical flow may be abbreviated as “OF (Optical Flow)”. In addition, when “optical flow” is simply described, it indicates an optical flow obtained by tracking the feature points 9 extracted by the image feature extraction unit 20.

IMU情報取得部40は、自車両に取り付けられた図示しない車速センサ及びジャイロセンサから、それぞれ自車両の移動速度を表す車速及び自車両の運動を表す角速度を時系列に沿って取得する。   The IMU information acquisition unit 40 acquires, from a vehicle speed sensor and a gyro sensor (not shown) attached to the host vehicle, a vehicle speed that represents the moving speed of the host vehicle and an angular velocity that represents the motion of the host vehicle in time series.

ジャイロセンサは、ピッチ方向、ロール方向、及びヨー方向のそれぞれの角速度を測定する。   The gyro sensor measures respective angular velocities in the pitch direction, the roll direction, and the yaw direction.

IMU情報取得部40による自車両の車速及び角速度の取得間隔に制約はないが、取得間隔を短くするほど自車両の移動状況を詳細に解析することができる。なお、IMU情報取得部40による自車両の車速及び角速度の取得方法についても制約はなく、車速センサ及びジャイロセンサに接続された配線からそれぞれ自車両の車速及び角速度を取得しても、無線を用いて取得してもよい。また、IMU情報取得部40は、車速センサ及びジャイロセンサからそれぞれ自車両の車速及び角速度を直接取得する必要はなく、車速センサ及びジャイロセンサの計測値を蓄積する他の装置(例えばセンサ管理装置)から取得するようにしてもよい。   Although there is no restriction on the acquisition interval of the vehicle speed and angular velocity of the host vehicle by the IMU information acquisition unit 40, the movement state of the host vehicle can be analyzed in detail as the acquisition interval is shortened. In addition, there is no restriction | limiting also about the acquisition method of the vehicle speed and angular velocity of the own vehicle by the IMU information acquisition part 40, even if it acquires the vehicle speed and angular velocity of the own vehicle from the wiring connected to the vehicle speed sensor and the gyro sensor, respectively, it uses radio | wireless. May be obtained. Further, the IMU information acquisition unit 40 does not need to directly acquire the vehicle speed and the angular velocity of the host vehicle from the vehicle speed sensor and the gyro sensor, but is another device (for example, a sensor management device) that accumulates measurement values of the vehicle speed sensor and the gyro sensor. You may make it acquire from.

なお、IMUはInertial Measurement Unit(慣性計測装置)の略である。   Note that IMU is an abbreviation for Inertial Measurement Unit.

車両軌跡算出部50は、IMU情報取得部40で取得した自車両の車速及び角速度を用いて、自車両の走行軌跡を算出する。   The vehicle trajectory calculation unit 50 calculates the travel trajectory of the host vehicle using the vehicle speed and angular velocity of the host vehicle acquired by the IMU information acquisition unit 40.

車速及び角速度の測定間隔をΔt、ヨー方向、すなわち方位角方向の角速度をω、ピッチ方向の角速度をψ、時刻tにおける方位角をθt、時刻tにおけるピッチ角をφtとすれば、時刻(t+1)における方位角θt+1及びピッチ角φt+1はそれぞれ(1)式及び(2)式で表される。 If the vehicle speed and angular velocity measurement interval is Δt, the yaw direction, that is, the angular velocity in the azimuth angle direction is ω, the angular velocity in the pitch direction is ψ, the azimuth angle at time t is θ t , and the pitch angle at time t is φ t The azimuth angle θ t + 1 and the pitch angle φ t + 1 at ( t + 1 ) are expressed by equations (1) and (2), respectively.

また、時刻(t+1)における車速をVt+1、時刻tにおける自車両の位置をxt=(Xt、Yt、Zt)とすれば、時刻(t+1)における自車両の3次元空間(実空間)における位置xt+1=(Xt+1、Yt+1、Zt+1)は(4)式で表される。 If the vehicle speed at time (t + 1) is V t + 1 and the position of the host vehicle at time t is x t = (X t , Y t , Z t ), the three-dimensional space of the host vehicle at time (t + 1). A position x t + 1 = (X t + 1 , Y t + 1 , Z t + 1 ) in (real space) is expressed by equation (4).

車両軌跡算出部50は、(1)式〜(3)式の各式に基づき、各時刻における自車両の位置を逐次算出し、算出した位置を時系列に沿って接続することで、自車両の走行軌跡を算出する。   The vehicle trajectory calculation unit 50 sequentially calculates the position of the host vehicle at each time based on the formulas (1) to (3), and connects the calculated positions in time series, thereby Is calculated.

なお、自車両の方位角θ、ピッチ角φ、及び自車両の位置の初期値は“0”とする。車両軌跡算出部50は、第2の算出部の一例である。   Note that the initial values of the azimuth angle θ, the pitch angle φ, and the position of the host vehicle are “0”. The vehicle trajectory calculation unit 50 is an example of a second calculation unit.

特徴点3次元位置算出部60は、第1オプティカルフロー算出部30で算出した特徴点毎のオプティカルフローと、車両軌跡算出部50で算出した自車両の走行軌跡を用いて、実空間における特徴点の位置(特徴点の3次元位置)を特徴点毎に算出する。   The feature point three-dimensional position calculation unit 60 uses the optical flow for each feature point calculated by the first optical flow calculation unit 30 and the travel locus of the host vehicle calculated by the vehicle locus calculation unit 50 to use the feature points in the real space. (The three-dimensional position of the feature point) is calculated for each feature point.

図2は、特徴点3次元位置算出部60における特徴点の3次元位置の算出方法について説明した模式図である。なお、特徴点3次元位置算出部60は特徴点毎に特徴点の3次元位置を算出するが、図2では1つの特徴点に注目して特徴点の3次元位置の算出方法を説明している。また、図2では時刻t〜tにおけるオプティカルフローと自車両の走行軌跡を用いているが、特徴点の3次元位置の算出に用いる時刻の範囲は一例であり、4つの時刻t〜tに限られないことは言うまでもない。 FIG. 2 is a schematic diagram illustrating a method for calculating a three-dimensional position of a feature point in the feature point three-dimensional position calculation unit 60. Note that the feature point three-dimensional position calculation unit 60 calculates the three-dimensional position of the feature point for each feature point. FIG. 2 illustrates a method for calculating the three-dimensional position of the feature point by focusing on one feature point. Yes. In FIG. 2, the optical flow at time t 1 to t 4 and the travel locus of the host vehicle are used, but the time range used for calculating the three-dimensional position of the feature point is an example, and four times t 1 to t 1 are used . it goes without saying that not limited to t 4.

特徴点3次元位置算出部60は、自車両8の走行軌跡によって表される各時刻t〜tにおける自車両8のそれぞれの位置から、オプティカルフローによって位置が表される同じ時刻における画像内の特徴点9を眺めた場合の視線を表す直線12を、実空間上に各々設定する。そして、実空間に設定した各々の直線12が最も集中する位置を、オプティカルフローで表される同じ特徴点9の実空間における特徴点位置とする。なお、以降では、特徴点9に対応した実空間上の特徴点を「空間特徴点14」ということにする。 The feature point three-dimensional position calculation unit 60 calculates the position of the image at the same time at which the position is represented by the optical flow from each position of the own vehicle 8 at each time t 1 to t 4 represented by the travel locus of the own vehicle 8. A straight line 12 representing the line of sight when the feature point 9 is viewed is set in real space. The position where each straight line 12 set in the real space is most concentrated is set as a feature point position in the real space of the same feature point 9 represented by the optical flow. Hereinafter, the feature point in the real space corresponding to the feature point 9 is referred to as “spatial feature point 14”.

このように、各時刻の画像に含まれる特徴点9から空間特徴点14を算出する演算は、「特徴点9の逆投影」と呼ばれる。   Thus, the calculation for calculating the spatial feature point 14 from the feature point 9 included in the image at each time is called “back projection of the feature point 9”.

時刻tにおける自車両8の位置をxt、方位角θt、ピッチ角φt、ロール角ρtで表される時刻tにおける自車両8の姿勢を要素とした3次元回転行列をRt、時刻tにおける画像内の特徴点mの位置をX' t,m、カメラパラメータをKとすれば、特徴点mに対応する空間特徴点14の3次元位置Xは(4)式で表される。 A three-dimensional rotation matrix having the position of the host vehicle 8 at the time t represented by x t , the azimuth angle θ t , the pitch angle φ t , and the roll angle ρ t as an element at the time t is represented by R t , If the position of the feature point m in the image at time t is X t, m and the camera parameter is K, the three-dimensional position X m of the spatial feature point 14 corresponding to the feature point m is expressed by equation (4). The

ここで、“I”は3×3の単位正方行列であり、“m”は複数の特徴点にそれぞれ割り当てられた特徴点のインデックスである。なお、カメラパラメータとは、画像を撮影するカメラの光学特性を表すパラメータであり、例えば焦点距離、画素の大きさ、レンズ収差、及び画像中心等の要素を含む。   Here, “I” is a 3 × 3 unit square matrix, and “m” is an index of feature points respectively assigned to a plurality of feature points. The camera parameter is a parameter that represents the optical characteristics of a camera that captures an image, and includes elements such as focal length, pixel size, lens aberration, and image center.

また、ロール方向の角速度をξとすれば、時刻(t+1)におけるロール角ρt+1は(5)式で表される。 If the angular velocity in the roll direction is ξ, the roll angle ρ t + 1 at time (t + 1) is expressed by equation (5).

したがって、(1)式、(2)式及び(5)式から、3次元回転行列Rtが得られる。特徴点3次元位置算出部60は、第3の算出部の一例である。 Therefore, the three-dimensional rotation matrix R t is obtained from the equations (1), (2), and (5). The feature point three-dimensional position calculation unit 60 is an example of a third calculation unit.

第2オプティカルフロー算出部70は、車両軌跡算出部50で算出した自車両8の走行軌跡と、特徴点3次元位置算出部60で算出した空間特徴点14の3次元位置を用いて、画像内における空間特徴点14の位置を各時刻に撮影された画像毎に算出する。そして、第2オプティカルフロー算出部70は、空間特徴点14に対応する画像内における特徴点の位置の時系列、すなわち空間特徴点14のオプティカルフローを空間特徴点14毎に算出する。   The second optical flow calculation unit 70 uses the travel trajectory of the host vehicle 8 calculated by the vehicle trajectory calculation unit 50 and the three-dimensional position of the spatial feature point 14 calculated by the feature point three-dimensional position calculation unit 60. The position of the spatial feature point 14 is calculated for each image taken at each time. Then, the second optical flow calculation unit 70 calculates the time series of the positions of the feature points in the image corresponding to the spatial feature points 14, that is, the optical flow of the spatial feature points 14 for each spatial feature point 14.

なお、特徴点9に対応する空間特徴点14の各時刻における画像内の位置を算出する演算は「特徴点9の再投影」と呼ばれる。したがって、各画像内の空間特徴点14に対応する位置の特徴点を「再投影特徴点16」ということがある。   The calculation for calculating the position of the spatial feature point 14 corresponding to the feature point 9 in the image at each time is called “reprojection of the feature point 9”. Therefore, a feature point at a position corresponding to the spatial feature point 14 in each image may be referred to as a “reprojection feature point 16”.

図3は、第2オプティカルフロー算出部70における特徴点9の再投影について説明した模式図である。なお、第2オプティカルフロー算出部70は特徴点9毎に画像内における再投影特徴点16の位置を算出するが、図3では1つの特徴点9に対応する空間特徴点14に注目して特徴点9の再投影について説明している。また、図3では時刻t〜tにおける空間特徴点14のオプティカルフローを算出しているが、空間特徴点14のオプティカルフローを算出する時刻の範囲は一例であり、時刻t〜tに限られないことは言うまでもない。ただし、後述する移動物体判定部80でオプティカルフローと、対応する空間特徴点14のオプティカルフローとを比較するため、算出する空間特徴点14のオプティカルフローの範囲を、特徴点3次元位置算出部60で空間特徴点14の位置を算出する際に使用した時刻の範囲に合わせることが好ましい。 FIG. 3 is a schematic diagram illustrating the reprojection of the feature point 9 in the second optical flow calculation unit 70. Note that the second optical flow calculation unit 70 calculates the position of the reprojection feature point 16 in the image for each feature point 9. In FIG. 3, the feature is focused on the spatial feature point 14 corresponding to one feature point 9. The reprojection of point 9 is described. Although calculates the optical flow of spatial feature point 14 at time t 1 ~t 4 in FIG. 3, the range of time for calculating the optical flow of the spatial feature point 14 is an example, the time t 1 ~t 4 It goes without saying that it is not limited to. However, in order to compare the optical flow and the optical flow of the corresponding spatial feature point 14 by the moving object determination unit 80 to be described later, the range of the optical flow of the spatial feature point 14 to be calculated is the feature point three-dimensional position calculation unit 60. It is preferable to match with the time range used when calculating the position of the spatial feature point 14.

第2オプティカルフロー算出部70は、空間特徴点14から自車両8の走行軌跡によって表される各時刻t〜tにおける自車両8の各々の位置に対して直線12を設定し、直線12が各時刻t〜tに撮影された画像と交わる各々の点(投影点)を、各時刻t〜tにおける再投影特徴点16の位置とする。そして、第2オプティカルフロー算出部70は、各時刻t〜tにおける再投影特徴点16を時系列に沿って追跡することで、空間特徴点14のオプティカルフローを得る。 The second optical flow calculation unit 70 sets a straight line 12 for each position of the host vehicle 8 at each time t 1 to t 4 represented by the travel locus of the host vehicle 8 from the spatial feature point 14. There point (projected point) of each intersecting the image taken at the respective times t 1 ~t 4, the position of the reprojection feature points 16 at each time t 1 ~t 4. Then, the second optical flow calculation unit 70, by tracking the reprojection feature points 16 at each time t 1 ~t 4 in chronological obtain an optical flow of the spatial feature point 14.

なお、インデックスmで示される空間特徴点14に対応する時刻tにおける再投影特徴点16の位置X'' t,mは(6)式で表される。 Note that the position X t, m of the reprojection feature point 16 at time t corresponding to the spatial feature point 14 indicated by the index m is expressed by equation (6).

第2オプティカルフロー算出部70は、第4の算出部の一例である。   The second optical flow calculation unit 70 is an example of a fourth calculation unit.

移動物体判定部80は、第1オプティカルフロー算出部30で算出したオプティカルフローと、第2オプティカルフロー算出部70で算出した、特徴点9に対応する空間特徴点14のオプティカルフローを特徴点9毎に比較する。そして、移動物体判定部80は、第1オプティカルフロー算出部30で算出したオプティカルフローが、移動物体の軌跡を示しているか否かを特徴点9毎に判定する。   The moving object determination unit 80 calculates the optical flow calculated by the first optical flow calculation unit 30 and the optical flow of the spatial feature points 14 corresponding to the feature points 9 calculated by the second optical flow calculation unit 70 for each feature point 9. Compare to. Then, the moving object determination unit 80 determines for each feature point 9 whether or not the optical flow calculated by the first optical flow calculation unit 30 indicates the locus of the moving object.

図4は、移動物体判定部80による移動物体の軌跡の判定方法を説明した模式図である。   FIG. 4 is a schematic diagram for explaining a moving object trajectory determination method by the moving object determination unit 80.

図4に示すように、移動物体判定部80は、各時刻におけるオプティカルフロー22と特徴点9に対応する空間特徴点14のオプティカルフロー24との距離(乖離距離18)を算出する。   As shown in FIG. 4, the moving object determination unit 80 calculates the distance (deviation distance 18) between the optical flow 22 and the optical flow 24 of the spatial feature point 14 corresponding to the feature point 9 at each time.

移動物体判定部80は、算出した乖離距離18からオプティカルフロー22と空間特徴点14のオプティカルフロー24との乖離度合いを表す乖離指標値を算出し、乖離指標値が予め定めた乖離閾値を越える場合、オプティカルフロー22が移動物体の軌跡であると判定する。   The moving object determination unit 80 calculates a divergence index value indicating the divergence degree between the optical flow 22 and the optical flow 24 of the spatial feature point 14 from the calculated divergence distance 18, and the divergence index value exceeds a predetermined divergence threshold value. Then, it is determined that the optical flow 22 is the locus of the moving object.

乖離指標値としては、例えば各時刻における乖離距離18の分散値、標準偏差、平均値、中央値、最大値、及び最小値等を用いることができるが、これに限られず、他の統計量を用いることができる。また、乖離閾値は、時刻毎の乖離距離18から算出した乖離指標値がこの値以上である場合に、オプティカルフローが移動物体の軌跡を示しているとみなすことができる値に設定される。乖離閾値は、例えば移動物体判定装置1の実機による実験や移動物体判定装置1の設計仕様に基づくコンピュータシミュレーション等により予め設定される閾値である。なお、移動物体判定部80は判定部の一例である。   As the divergence index value, for example, the variance value, standard deviation, average value, median value, maximum value, minimum value, and the like of the divergence distance 18 at each time can be used. Can be used. The divergence threshold is set to a value that allows the optical flow to be regarded as indicating the trajectory of the moving object when the divergence index value calculated from the divergence distance 18 for each time is equal to or greater than this value. The deviation threshold is a threshold set in advance, for example, by an experiment using an actual machine of the moving object determination device 1 or a computer simulation based on the design specifications of the moving object determination device 1. The moving object determination unit 80 is an example of a determination unit.

次に、移動物体判定装置1の作用について説明する。上述した移動物体判定装置1は、コンピュータ2を用いて構成することができる。   Next, the operation of the moving object determination device 1 will be described. The moving object determination apparatus 1 described above can be configured using a computer 2.

図5は、移動物体判定装置1の電気系統の要部構成例を示す図である。   FIG. 5 is a diagram illustrating a configuration example of a main part of the electric system of the moving object determination device 1.

移動物体判定装置1は、判定処理を実行するCPU(Central Processing Unit)2Aを備える。また、移動物体判定装置1は、各種プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)2B、及びCPU2Aによるプログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)2Cを備える。更に、移動物体判定装置1は、コンピュータ2の電源をオフにしてもデータが保持される不揮発性メモリ2D、及び外部モジュールを接続する入出力インターフェース(I/O)2Eを備える。   The moving object determination device 1 includes a CPU (Central Processing Unit) 2A that executes determination processing. The moving object determination device 1 includes a ROM (Read Only Memory) 2B in which various programs and various parameters are stored in advance, and a RAM (Random Access Memory) 2C used as a work area when the CPU 2A executes the program. Prepare. The moving object determination device 1 further includes a nonvolatile memory 2D that retains data even when the computer 2 is turned off, and an input / output interface (I / O) 2E that connects an external module.

CPU2A、ROM2B、RAM2C、不揮発性メモリ2D、及びI/O2Eは互いに内部バス2Fで接続され、I/O2Eには、例えばカメラ3、GPS(Global Positioning System)モジュール4、車速センサ5、及びジャイロセンサ6が接続される。   The CPU 2A, ROM 2B, RAM 2C, nonvolatile memory 2D, and I / O 2E are connected to each other via an internal bus 2F. The I / O 2E includes, for example, a camera 3, a GPS (Global Positioning System) module 4, a vehicle speed sensor 5, and a gyro sensor. 6 is connected.

GPSモジュール4は、複数のGPSから送信されるGPS電波を受信し、自車両8の位置を緯度及び経度で表す位置測定装置の一例である。   The GPS module 4 is an example of a position measuring device that receives GPS radio waves transmitted from a plurality of GPS and represents the position of the host vehicle 8 by latitude and longitude.

車速センサ5は、例えば自車両8の車軸の回転数を監視して、車軸の回転数から車速を測定する速度測定装置の一例である。   The vehicle speed sensor 5 is an example of a speed measuring device that monitors the rotational speed of the axle of the host vehicle 8 and measures the vehicle speed from the rotational speed of the axle.

ジャイロセンサ6は、例えば自車両8のピッチ方向、ロール方向、及びヨー方向のそれぞれの角速度を測定する慣性計測装置の一例である。ジャイロセンサ6における角速度の測定方法に制約はなく、機械的な動きを検知して角速度を測定する振動方式であってもよいし、コリオリ力によって発生した変位を静電容量の変位として検知して角速度を測定する静電容量方式であってもよい。   The gyro sensor 6 is an example of an inertial measurement device that measures angular velocities in the pitch direction, the roll direction, and the yaw direction of the host vehicle 8, for example. There is no restriction on the method of measuring the angular velocity in the gyro sensor 6, and a vibration method in which the angular velocity is measured by detecting a mechanical movement may be detected, or the displacement generated by the Coriolis force is detected as a capacitance displacement. An electrostatic capacitance method for measuring angular velocity may be used.

なお、I/O2Eに接続される外部モジュールは一例であり、カメラ3、GPSモジュール4、車速センサ5、及びジャイロセンサ6に限定されない。例えばI/O2Eに、インターネット等の通信回線に接続して他の外部装置とデータ通信を行う通信装置を接続してもよい。   The external module connected to the I / O 2E is an example, and is not limited to the camera 3, the GPS module 4, the vehicle speed sensor 5, and the gyro sensor 6. For example, a communication device that connects to a communication line such as the Internet and performs data communication with another external device may be connected to the I / O 2E.

図6は、移動物体判定装置1での移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1の電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。   FIG. 6 is a flowchart illustrating an example of the flow of moving object determination processing in the moving object determination apparatus 1. A moving object determination program for defining the moving object determination process is stored in the ROM 2B in advance. For example, when the power of the moving object determination device 1 is turned on, the CPU 2A reads the moving object determination program from the ROM 2B and executes it. Thereafter, the CPU 2A executes a moving object determination process every time a certain period of time elapses.

ステップS10において、CPU2Aは、カメラ3を制御して画像の撮影を開始させる。カメラ3で撮影された画像はRAM2Cに記憶されるため、CPU2Aは、画像を時系列に沿ってRAM2Cから取得する。   In step S10, the CPU 2A controls the camera 3 to start capturing an image. Since the image photographed by the camera 3 is stored in the RAM 2C, the CPU 2A acquires the image from the RAM 2C in time series.

ステップS20において、CPU2Aは、公知の特徴点抽出手法を用いて、ステップS10で取得した画像の各々から特徴点9を複数抽出し、画像と抽出した特徴点9の座標とを対応付けてRAM2Cに記憶する。   In step S20, the CPU 2A extracts a plurality of feature points 9 from each of the images acquired in step S10 using a known feature point extraction method, and associates the images with the coordinates of the extracted feature points 9 in the RAM 2C. Remember.

ステップS30において、CPU2Aは、ステップS20で抽出した各々の画像の特徴点9を時系列に沿って追跡することで得られるオプティカルフローを特徴点9毎に算出する。CPU2Aは、算出したオプティカルフローをRAM2Cに記憶する。   In step S30, the CPU 2A calculates, for each feature point 9, an optical flow obtained by tracking the feature points 9 of each image extracted in step S20 along the time series. The CPU 2A stores the calculated optical flow in the RAM 2C.

図7は、ステップS30で算出したオプティカルフローの一例を示す図である。ステップS20で抽出した時刻t(t=1〜5)における各画像の特徴点9を時間追跡することで、オプティカルフロー22が特徴点9毎に得られる。   FIG. 7 is a diagram illustrating an example of the optical flow calculated in step S30. The optical flow 22 is obtained for each feature point 9 by tracking the feature points 9 of each image at time t (t = 1 to 5) extracted in step S20.

ステップS40において、CPU2Aは、自車両8の時系列に沿った車速及び角速度を、予め定めた時間の範囲(判定期間)に亘ってそれぞれ車速センサ5及びジャイロセンサ6から取得する。なお、CPU2Aは、自車両8の方位角方向の角速度ω、ピッチ方向の角速度ψ、及びロール方向の角速度ξをそれぞれ取得する。CPU2Aは、取得した車速及び角速度をRAM2Cに記憶する。   In step S <b> 40, the CPU 2 </ b> A acquires the vehicle speed and angular velocity along the time series of the host vehicle 8 from the vehicle speed sensor 5 and the gyro sensor 6 over a predetermined time range (determination period), respectively. The CPU 2A acquires the angular velocity ω in the azimuth direction of the host vehicle 8, the angular velocity ψ in the pitch direction, and the angular velocity ξ in the roll direction. The CPU 2A stores the acquired vehicle speed and angular velocity in the RAM 2C.

ステップS50において、CPU2Aは、ステップS40で取得した自車両8の方位角方向の角速度ωと、時刻tにおける方位角θtを用いて、時刻(t+1)における方位角θt+1を(1)式によって算出する。 In step S50, CPU 2A is the angular velocity ω of the azimuthal direction of the own vehicle 8 obtained in step S40, by using the orientation angle theta t at time t, the time (t + 1) the azimuth angle theta t + 1 in (1) Calculated by the formula.

また、CPU2Aは、ステップS40で取得した自車両8のピッチ方向の角速度ψと、時刻tにおけるピッチ角φtを用いて、時刻(t+1)におけるピッチ角φt+1を(2)式によって算出する。 Further, CPU 2A calculates pitch angle φ t + 1 at time (t + 1) using equation (2) using angular velocity ψ in the pitch direction of host vehicle 8 acquired in step S40 and pitch angle φ t at time t. To do.

更に、CPU2Aは、算出した時刻(t+1)における方位角θt+1、ピッチ角φt+1、及びステップS40で取得した時刻(t+1)における車速Vt+1を用いて、時刻(t+1)における自車両8の位置(Xt+1、Yt+1、Zt+1)を(3)式によって算出する。 Further, the CPU 2A uses the calculated azimuth angle θ t + 1 and pitch angle φ t + 1 at the time (t + 1) and the vehicle speed V t + 1 at the time (t + 1) acquired in step S40 to obtain the time (t + 1). The position (X t + 1 , Y t + 1 , Z t + 1 ) of the host vehicle 8 is calculated by the equation (3).

CPU2Aは、判定期間内において、各時刻tにおける自車両8の位置を逐次算出することで、判定期間における自車両8の位置の変化、すなわち自車両8の走行軌跡を算出する。なお、車速及び角速度の測定間隔であるΔtは予め定められており、例えば不揮発性メモリ2Dに予め記憶しておけばよい。   The CPU 2A sequentially calculates the position of the host vehicle 8 at each time t within the determination period, thereby calculating the change in the position of the host vehicle 8 in the determination period, that is, the travel locus of the host vehicle 8. Note that Δt, which is the measurement interval of the vehicle speed and the angular velocity, is determined in advance, and may be stored in advance in, for example, the nonvolatile memory 2D.

CPU2Aは、判定期間における自車両8の各位置を、自車両8の走行軌跡としてRAM2Cに記憶する。   The CPU 2A stores each position of the host vehicle 8 in the determination period in the RAM 2C as a travel locus of the host vehicle 8.

ステップS60において、CPU2Aは、ステップS40で取得した自車両8のロール角方向の角速度ξと、時刻tにおけるロール角ρtを用いて、時刻(t+1)におけるロール角ρt+1を(5)式によって算出する。 In step S60, the CPU 2A uses the angular velocity ξ in the roll angle direction of the host vehicle 8 acquired in step S40 and the roll angle ρ t at time t to obtain the roll angle ρ t + 1 at time (t + 1) as (5). Calculated by the formula.

CPU2Aは、判定期間内において、各時刻tにおける自車両8のロール角ρtを逐次算出し、判定期間内における自車両8のロール角ρtと、ステップS50で算出した判定期間内における自車両8の方位角θt及びピッチ角φtを用いて、自車両8の3次元回転行列Rtを算出する。 CPU2A, within the decision period, the roll angle [rho t of the vehicle 8 sequentially calculated at each time t, and the roll angle [rho t of the vehicle 8 in a determined period, the vehicle in the determination period calculated in Step S50 The three-dimensional rotation matrix R t of the host vehicle 8 is calculated using the azimuth angle θ t and the pitch angle φ t of 8.

そして、CPU2Aは、カメラ3のカメラパラメータK、自車両8の3次元回転行列Rt、ステップS50で算出した自車両8の走行軌跡xt、及びステップS30で算出したインデックスmで示されるオプティカルフローX' t,mを用いて、特徴点9に対応する空間特徴点14の3次元位置Xを(4)式によって特徴点9毎に算出する。 Then, the CPU 2A performs the optical flow indicated by the camera parameter K of the camera 3, the three-dimensional rotation matrix R t of the host vehicle 8, the travel locus x t of the host vehicle 8 calculated in step S50, and the index m calculated in step S30. X 't, with m, calculated for each feature point 9 by a three-dimensional position X m (4) expression of spatial feature points 14 corresponding to the feature point 9.

なお、カメラ3のカメラパラメータKは、例えば不揮発性メモリ2Dに予め記憶しておいた値を用いればよい。   As the camera parameter K of the camera 3, for example, a value stored in advance in the nonvolatile memory 2D may be used.

CPU2Aは、算出した空間特徴点14の3次元位置Xを、空間特徴点14の算出に用いたオプティカルフローと対応付けて、特徴点9毎にRAM2Cに記憶する。 CPU2A the calculated three-dimensional position X m of the spatial feature point 14, in association with the optical flows used to calculate the spatial feature point 14, and stores the RAM2C for each feature point 9.

ステップS70において、CPU2Aは、RAM2Cに記憶したオプティカルフローのうち、選択していないオプティカルフローを1つ選択する。   In step S70, the CPU 2A selects one optical flow that has not been selected from the optical flows stored in the RAM 2C.

ステップS80において、CPU2Aは、ステップS70で選択したオプティカルフローに対応付けられている空間特徴点14の3次元位置Xを取得する。 In step S80, CPU 2A acquires the three-dimensional position X m of the spatial feature points 14 associated with the optical flow selected in step S70.

CPU2Aは、取得した空間特徴点14の3次元位置X、カメラ3のカメラパラメータK、ステップS60で算出した自車両8の3次元回転行列Rt、及びステップS50で算出した自車両8の走行軌跡xtを用いて、空間特徴点14に対応する判定期間における各画像内の再投影特徴点16の位置X'' t,mを(6)式によって算出する。 The CPU 2A acquires the three-dimensional position X m of the acquired spatial feature point 14, the camera parameter K of the camera 3, the three-dimensional rotation matrix R t of the host vehicle 8 calculated in step S60, and the travel of the host vehicle 8 calculated in step S50. Using the trajectory x t , the position X t, m of the reprojection feature point 16 in each image in the determination period corresponding to the spatial feature point 14 is calculated by the equation (6).

CPU2Aは、判定期間における各画像内の再投影特徴点16の位置X'' t,mを時系列に沿って追跡することで得られる空間特徴点14のオプティカルフローを、ステップS70で選択したオプティカルフローと対応付けてRAM2Cに記憶する。 The CPU 2A selects the optical flow of the spatial feature point 14 obtained by tracking the position X t, m of the reprojection feature point 16 in each image in the determination period along the time series in step S70. It is stored in the RAM 2C in association with the flow.

ステップS90において、CPU2Aは、ステップS70で選択したオプティカルフローと、ステップS80で算出した特徴点9に対応付けられている空間特徴点14のオプティカルフローとの乖離距離18を算出する。具体的には、CPU2Aは、選択したオプティカルフローと空間特徴点14のオプティカルフローとの乖離距離18から、乖離度合いを表す乖離指標値を算出する。一例として、CPU2Aは乖離指標値として、判定期間内の各時刻における乖離距離18の平均値を算出する。   In step S90, the CPU 2A calculates a divergence distance 18 between the optical flow selected in step S70 and the optical flow of the spatial feature point 14 associated with the feature point 9 calculated in step S80. Specifically, the CPU 2A calculates a deviation index value representing the degree of deviation from the deviation distance 18 between the selected optical flow and the optical flow of the spatial feature point 14. As an example, the CPU 2A calculates an average value of the divergence distances 18 at each time within the determination period as the divergence index value.

ステップS100において、CPU2Aは、ステップS90で算出した乖離指標値が乖離閾値を越えるか否かを判定する。乖離指標値が乖離閾値を超える場合、ステップS110に移行する。   In step S100, the CPU 2A determines whether or not the deviation index value calculated in step S90 exceeds the deviation threshold. When the deviation index value exceeds the deviation threshold value, the process proceeds to step S110.

選択したオプティカルフローが移動物体のオプティカルフローであれば、移動物体は移動していることから、乖離距離18が大きくなる傾向が見られる。すなわち、乖離指標値が乖離閾値を超える場合、ステップS70で選択したオプティカルフローが、例えば自車両8の周囲を走行している他の車両等の移動物体のオプティカルフローであるとみなすことができる。   If the selected optical flow is an optical flow of a moving object, since the moving object is moving, the deviation distance 18 tends to increase. That is, when the deviation index value exceeds the deviation threshold, the optical flow selected in step S70 can be regarded as an optical flow of a moving object such as another vehicle traveling around the host vehicle 8, for example.

したがって、ステップS110において、CPU2Aは、ステップS70で選択したオプティカルフローに移動物体OFのタグを対応付けてRAM2Cに記憶する。ここで「移動物体OF」とは、オプティカルフローが移動物体のオプティカルフローであることを表すタグである。   Accordingly, in step S110, the CPU 2A stores the tag of the moving object OF in the RAM 2C in association with the optical flow selected in step S70. Here, the “moving object OF” is a tag indicating that the optical flow is an optical flow of a moving object.

一方、ステップS100の判定処理が否定判定の場合、すなわち、乖離指標値が乖離閾値以下である場合は、ステップS110の処理を実行せずにステップS120に移行する。   On the other hand, if the determination process in step S100 is negative, that is, if the deviation index value is equal to or less than the deviation threshold, the process proceeds to step S120 without executing the process in step S110.

ステップS120において、CPU2Aは、ステップS30で算出した全てのオプティカルフローをステップS70で選択したか否かを判定する。選択していないオプティカルフローが存在する場合にはステップS70に移行する。ステップS70において、CPU2Aは、まだ選択していないオプティカルフローを選択し、ステップS70〜S120の処理を繰り返し実行することで、オプティカルフローが移動物体のオプティカルフローであるか否かを特徴点9毎に判定する。   In step S120, the CPU 2A determines whether or not all the optical flows calculated in step S30 have been selected in step S70. If there is an unselected optical flow, the process proceeds to step S70. In step S70, the CPU 2A selects an optical flow that has not yet been selected, and repeatedly executes the processing in steps S70 to S120 to determine whether the optical flow is an optical flow of a moving object for each feature point 9. judge.

そして、ステップS30で算出した全てのオプティカルフローに対して移動物体のオプティカルフローであるか否かの判定が行われると、ステップS120の判定処理が肯定判定となり、図6に示した移動物体判定処理が終了する。   Then, if it is determined whether or not all the optical flows calculated in step S30 are optical flows of the moving object, the determination process in step S120 is affirmative, and the moving object determination process illustrated in FIG. 6 is performed. Ends.

すなわち、移動物体のオプティカルフローであると判定されたオプティカルフローを伴う物体は、移動物体であると判定される。   In other words, an object with an optical flow determined to be an optical flow of a moving object is determined to be a moving object.

図8は、移動物体判定装置1で図6に示した移動物体判定処理を実行した場合の判定結果の一例を示す図である。   FIG. 8 is a diagram illustrating an example of a determination result when the moving object determination apparatus 1 performs the moving object determination process illustrated in FIG. 6.

図8において、画像32は、ステップS30で算出したオプティカルフローを統合した画像であり、画像34は、ステップS80で算出した空間特徴点14のオプティカルフロー24を統合した画像である。また、画像36は、オプティカルフロー22と空間特徴点14のオプティカルフロー24との乖離距離18の平均値をオプティカルフロー毎に算出し、乖離距離18の平均値が比較的長い軌跡を黒色で表し、乖離距離18の平均値が比較的短い軌跡を灰色で表した図である。画像38は、オプティカルフロー22のうち、移動物体のオプティカルフローであると判定されたオプティカルフローを黒色の実線で表し、静止物体のオプティカルフローであると判定されたオプティカルフローを灰色の実線で表した画像である。   In FIG. 8, an image 32 is an image obtained by integrating the optical flows calculated in step S30, and an image 34 is an image obtained by integrating the optical flow 24 of the spatial feature points 14 calculated in step S80. Further, the image 36 calculates the average value of the divergence distance 18 between the optical flow 22 and the optical flow 24 of the spatial feature point 14 for each optical flow, and represents a locus with a relatively long average value of the divergence distance 18 in black. It is the figure which represented the locus | trajectory in which the average value of the deviation distance 18 is comparatively short in gray. In the image 38, the optical flow determined to be an optical flow of a moving object in the optical flow 22 is represented by a black solid line, and the optical flow determined to be an optical flow of a stationary object is represented by a gray solid line. It is an image.

このように第1実施形態に係る移動物体判定装置1によれば、例えば画像の下部というように、画像から抽出する特徴点9の領域を限定することなく特徴点9を抽出する。また、移動物体判定装置1は、特徴点9に対応した空間特徴点14を算出し、空間特徴点14を画像に再投影することで、空間特徴点14のオプティカルフローを算出する。そして、移動物体判定装置1は、特徴点9を示すオプティカルフローと空間特徴点14のオプティカルフローの乖離度合いに基づいて、オプティカルフローが移動物体のオプティカルフローか否かを判定する。したがって、移動物体判定装置1は、自車両8と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動物体か否かを判定することができる。更に、移動物体判定装置1は、特徴点9を示すオプティカルフローだけから移動物体か否かを判定する場合と比較して、撮影した画像に含まれる物体が移動物体か否かを精度よく判定することができる。   As described above, according to the moving object determination device 1 according to the first embodiment, the feature point 9 is extracted without limiting the region of the feature point 9 extracted from the image, for example, at the lower part of the image. In addition, the moving object determination device 1 calculates the spatial feature point 14 corresponding to the feature point 9 and re-projects the spatial feature point 14 on the image, thereby calculating the optical flow of the spatial feature point 14. Then, the moving object determination device 1 determines whether the optical flow is an optical flow of the moving object based on the degree of deviation between the optical flow indicating the feature point 9 and the optical flow of the spatial feature point 14. Therefore, the moving object determination device 1 can determine whether or not the object included in the captured image is a moving object, regardless of the positional relationship between the host vehicle 8 and surrounding objects. Further, the moving object determination apparatus 1 determines whether or not the object included in the captured image is a moving object, as compared with the case of determining whether or not the object is a moving object only from the optical flow indicating the feature point 9. be able to.

<第2実施形態>
第1実施形態に係る移動物体判定装置1は、特徴点9を示すオプティカルフローと空間特徴点14のオプティカルフローの乖離度合いに基づいて、画像から抽出したオプティカルフローが移動物体のオプティカルフローか否か判定した。
Second Embodiment
The moving object determination device 1 according to the first embodiment determines whether the optical flow extracted from the image is the optical flow of the moving object based on the degree of deviation between the optical flow indicating the feature point 9 and the optical flow of the spatial feature point 14. Judged.

第2実施形態では、予め画像から移動物体の範囲を絞り込んでおくことで、オプティカルフローから画像に含まれる物体が移動物体か否かを精度よく判定することができる移動物体判定装置1Aについて説明する。   In the second embodiment, a moving object determination apparatus 1A that can accurately determine whether an object included in an image is a moving object from an optical flow by narrowing down the range of moving objects from the image in advance will be described. .

図9は、移動物体判定装置1Aの構成例を示す図である。移動物体判定装置1Aの構成が、図1に示した第1実施形態に係る移動物体判定装置1の構成と異なる点は、移動物体候補判定部90及び車両検出部100が追加され、移動物体判定部80が移動物体判定部80Aに置き換えられた点である。   FIG. 9 is a diagram illustrating a configuration example of the moving object determination device 1A. The difference of the configuration of the moving object determination device 1A from the configuration of the moving object determination device 1 according to the first embodiment shown in FIG. 1 is that a moving object candidate determination unit 90 and a vehicle detection unit 100 are added. The part 80 is replaced with a moving object determination part 80A.

移動物体候補判定部90は、第1実施形態に係る移動物体判定装置1の移動物体判定部80と同じ処理を行う。すなわち、移動物体判定装置1Aでは、移動物体候補判定部90が移動物体判定部80の機能を担う。   The moving object candidate determination unit 90 performs the same processing as the moving object determination unit 80 of the moving object determination device 1 according to the first embodiment. That is, in the moving object determination device 1A, the moving object candidate determination unit 90 functions as the moving object determination unit 80.

移動物体候補判定部90は、第1オプティカルフロー算出部30で算出したオプティカルフローの各々に対して移動物体のオプティカルフローか否かを判定した判定結果を、移動物体判定部80Aに通知する。以降では、移動物体候補判定部90で移動物体のオプティカルフローであると判定されたオプティカルフローを「移動物体OF候補」という。   The moving object candidate determination unit 90 notifies the moving object determination unit 80A of a determination result for determining whether or not each of the optical flows calculated by the first optical flow calculation unit 30 is an optical flow of a moving object. Hereinafter, the optical flow determined by the moving object candidate determination unit 90 as the optical flow of the moving object is referred to as “moving object OF candidate”.

車両検出部100は、画像情報取得部10で取得した画像の各々について、車両に相当する画像領域(車両画像領域)を検出する。画像から車両画像領域を検出する手法には公知の検出手法が用いられる。例えば、予め様々な車両の画像を教師信号として学習しておき、画像に含まれる物体が車両か否かのパターン認識を行うSVM(Support Vector Machine)や、車両の特徴をよく表している部分の局所的特徴量の集合を用いて、画像内に局所的特徴量の集合が含まれるか否かを判定することで車両画像領域を検出するBOF(Bag Of Features)が用いられる。また、車両画像領域の検出に、CNN(Convolutional Neural Network)等のニューラルネットワークを用いた深層学習(Deep Learning)手法を用いてもよい。   The vehicle detection unit 100 detects an image region (vehicle image region) corresponding to a vehicle for each of the images acquired by the image information acquisition unit 10. A known detection method is used as a method for detecting the vehicle image region from the image. For example, by learning various vehicle images as teacher signals in advance, SVM (Support Vector Machine) that performs pattern recognition of whether the object included in the image is a vehicle, or parts that well represent the characteristics of the vehicle BOF (Bag Of Features) that detects a vehicle image region by determining whether or not a set of local feature amounts is included in an image using a set of local feature amounts is used. Further, a deep learning method using a neural network such as CNN (Convolutional Neural Network) may be used for detection of the vehicle image region.

なお、車両検出部100は検出部の一例であり、車両画像領域は移動物体領域の一例である。   The vehicle detection unit 100 is an example of a detection unit, and the vehicle image region is an example of a moving object region.

移動物体判定部80Aは、移動物体候補判定部90で判定された移動物体OF候補と、車両検出部100で検出された車両画像領域を用いて、移動物体OF候補のうち、何れのオプティカルフローが移動物体のオプティカルフローか否かを判定する。   The moving object determination unit 80A uses the moving object OF candidate determined by the moving object candidate determination unit 90 and the vehicle image area detected by the vehicle detection unit 100 to determine which optical flow of the moving object OF candidates. It is determined whether or not the optical flow of the moving object.

具体的には、移動物体判定部80Aは、移動物体OF候補のうち、オプティカルフローの少なくとも一部が車両画像領域に含まれる移動物体OF候補を移動物体のオプティカルフローと判定する。すなわち、移動物体判定部80Aは、移動物体OF候補のうち、オプティカルフローの何れの部分も車両画像領域に含まれないオプティカルフローは移動物体のオプティカルフローではないと判定する。なお、オプティカルフローの少なくとも一部が車両画像領域に含まれることを、「車両画像領域にオプティカルフローが含まれる」という。   Specifically, the moving object determination unit 80A determines that the moving object OF candidate in which at least a part of the optical flow is included in the vehicle image area among the moving object OF candidates is the optical flow of the moving object. That is, the moving object determination unit 80A determines that the optical flow in which any part of the optical flow is not included in the vehicle image area among the moving object OF candidates is not the optical flow of the moving object. The fact that at least a part of the optical flow is included in the vehicle image area is referred to as “the optical flow is included in the vehicle image area”.

移動物体判定装置1Aにおいて、移動物体判定部80A及び移動物体候補判定部90は、判定部の一例である。   In the moving object determination device 1A, the moving object determination unit 80A and the moving object candidate determination unit 90 are examples of a determination unit.

次に、移動物体判定装置1Aの作用について説明する。移動物体判定装置1Aの電気系統の要部構成例は、図5に示した第1実施形態に係る移動物体判定装置1における電気系統の要部構成例と同じである。   Next, the operation of the moving object determination device 1A will be described. The configuration example of the main part of the electric system of the moving object determination device 1A is the same as the main configuration example of the electric system in the moving object determination device 1 according to the first embodiment shown in FIG.

図10は、移動物体判定装置1Aでの移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1Aの電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。   FIG. 10 is a flowchart illustrating an example of the flow of the moving object determination process in the moving object determination apparatus 1A. A moving object determination program that defines the moving object determination processing is stored in the ROM 2B in advance. For example, when the power of the moving object determination device 1A is turned on, the CPU 2A reads the moving object determination program from the ROM 2B and executes it. Thereafter, the CPU 2A executes a moving object determination process every time a certain period of time elapses.

図10の移動物体判定処理が、図6に示した第1実施形態に係る移動物体判定処理と異なる点は、ステップS130及びステップS140が追加された点であり、ステップS10〜S120の処理は同じである。   The moving object determination process in FIG. 10 is different from the moving object determination process according to the first embodiment shown in FIG. 6 in that steps S130 and S140 are added, and the processes in steps S10 to S120 are the same. It is.

ステップS130において、CPU2Aは、ステップS10で取得した画像の各々から、公知の抽出手法を用いて車両画像領域を検出する。CPU2Aは、検出した車両画像領域の座標データを検出元の画像と対応付けてRAM2Cに記憶する。   In step S130, the CPU 2A detects a vehicle image area from each of the images acquired in step S10 using a known extraction method. The CPU 2A stores the coordinate data of the detected vehicle image area in the RAM 2C in association with the detection source image.

図11は、画像52から検出した車両画像領域42の例を示す図である。図11では、車両画像領域42を点線の矩形で表している。   FIG. 11 is a diagram illustrating an example of the vehicle image area 42 detected from the image 52. In FIG. 11, the vehicle image area 42 is represented by a dotted rectangle.

ステップS140において、CPU2Aは、ステップS10で取得した何れかの画像に対応付けられた車両画像領域42と、ステップS30で算出されたオプティカルフローを統合して、オプティカルフローのうち、車両画像領域42に含まれる移動物体OF候補を最終的な移動物体のオプティカルフローとして判定する。   In step S140, the CPU 2A integrates the vehicle image area 42 associated with any of the images acquired in step S10 and the optical flow calculated in step S30 into the vehicle image area 42 in the optical flow. The included moving object OF candidate is determined as the optical flow of the final moving object.

したがって、CPU2Aは、移動物体OF候補のうち、最終的に移動物体のオプティカルフローであると判定した移動物体OF候補にのみ移動物体OFのタグを対応付けてRAM2Cに記憶し、移動物体のオプティカルフローではないと判定した移動物体OF候補からは移動物体OFのタグを取り除く。   Therefore, the CPU 2A stores the tag of the moving object OF in the RAM 2C in association with only the moving object OF candidate finally determined to be the optical flow of the moving object among the moving object OF candidates, and stores the optical flow of the moving object in the RAM 2C. The tag of the moving object OF is removed from the moving object OF candidates determined not to be.

なお、ステップS140における最終的な移動物体のオプティカルフローの判定方法はこれに限定されない。例えば、ステップS30で抽出したオプティカルフローのうち、車両画像領域42に含まれるオプティカルフローを全て移動物体のオプティカルフローと判定し、これ以外のオプティカルフローは移動物体のオプティカルフローではないと判定してもよい。   Note that the method of determining the final optical flow of the moving object in step S140 is not limited to this. For example, among the optical flows extracted in step S30, all the optical flows included in the vehicle image area 42 are determined to be optical flows of moving objects, and other optical flows are determined not to be optical flows of moving objects. Good.

以上により、図10に示した移動物体判定処理が終了する。   The moving object determination process shown in FIG.

図12は、移動物体判定装置1Aで図10に示した移動物体判定処理を実行した場合の判定結果の一例を示す図である。   FIG. 12 is a diagram illustrating an example of a determination result when the moving object determination process illustrated in FIG. 10 is executed by the moving object determination apparatus 1A.

図12において、画像52は、車両画像領域42を統合した画像であり、画像54は、オプティカルフローを統合した画像である。画像54において、黒色の実線は移動物体OF候補を表し、灰色の実線は移動物体候補判定部90で静止物体のオプティカルフローと判定されたオプティカルフローを表す。また、画像56は、画像52と画像54を統合した画像である。   In FIG. 12, an image 52 is an image obtained by integrating the vehicle image areas 42, and an image 54 is an image obtained by integrating the optical flow. In the image 54, the black solid line represents the moving object OF candidate, and the gray solid line represents the optical flow determined as the optical flow of the stationary object by the moving object candidate determination unit 90. The image 56 is an image obtained by integrating the image 52 and the image 54.

移動物体判定装置1Aは、例えば画像56に示した移動物体OF候補のうち、車両画像領域42に含まれる移動物体OF候補を移動物体のオプティカルフローとして判定することになる。   For example, the moving object determination apparatus 1A determines the moving object OF candidate included in the vehicle image area 42 among the moving object OF candidates shown in the image 56 as the optical flow of the moving object.

このように第2実施形態に係る移動物体判定装置1Aによれば、画像から車両画像領域42を検出することで、移動物体OF候補の中から更に移動物体のオプティカルフローを絞り込むことができるため、移動物体のオプティカルフローを精度よく判定することができる。   Thus, according to the moving object determination device 1A according to the second embodiment, the optical flow of the moving object can be further narrowed down from the moving object OF candidates by detecting the vehicle image region 42 from the image. The optical flow of the moving object can be accurately determined.

<第3実施形態>
第2実施形態に係る移動物体判定装置1Aは、移動物体OF候補のうち、車両画像領域42に含まれる移動物体OF候補を移動物体のオプティカルフローとして判定した。
<Third Embodiment>
The moving object determination device 1A according to the second embodiment determines the moving object OF candidate included in the vehicle image area 42 among the moving object OF candidates as the optical flow of the moving object.

第3実施形態では、移動物体OF候補の信頼度を判定し、信頼度の低い移動物体OF候補を移動物体のオプティカルフローの判定に用いないようにする移動物体判定装置1Bについて説明する。   In the third embodiment, a moving object determination apparatus 1B that determines the reliability of a moving object OF candidate and prevents the moving object OF candidate with low reliability from being used for determination of the optical flow of the moving object will be described.

図13は、移動物体判定装置1Bの構成例を示す図である。移動物体判定装置1Bの構成が、図9に示した第2実施形態に係る移動物体判定装置1Aの構成と異なる点は、信頼度判定部110が追加された点である。   FIG. 13 is a diagram illustrating a configuration example of the moving object determination device 1B. The configuration of the moving object determination device 1B is different from the configuration of the moving object determination device 1A according to the second embodiment illustrated in FIG. 9 in that a reliability determination unit 110 is added.

信頼度判定部110は、IMU情報取得部40で取得した自車両8の角速度のうち、ピッチ方向の角速度ψの変動度合いを表すピッチレイトを用いて、移動物体候補判定部90で判定された移動物体OF候補の信頼度を判定する。ピッチレイトは、例えば判定期間といった予め定めた期間における角速度ψの変動量で表される。   The reliability determination unit 110 uses the pitch rate representing the degree of variation of the angular velocity ψ in the pitch direction among the angular velocities of the host vehicle 8 acquired by the IMU information acquisition unit 40 to determine the movement determined by the moving object candidate determination unit 90. The reliability of the object OF candidate is determined. The pitch rate is represented by a variation amount of the angular velocity ψ in a predetermined period such as a determination period.

移動物体判定装置1Bにおいて、移動物体判定部80A、移動物体候補判定部90、及び信頼度判定部110は、判定部の一例である。   In the moving object determination device 1B, the moving object determination unit 80A, the moving object candidate determination unit 90, and the reliability determination unit 110 are examples of a determination unit.

次に、移動物体判定装置1Bの作用について説明する。移動物体判定装置1Bの電気系統の要部構成例は、図5に示した第1実施形態に係る移動物体判定装置1における電気系統の要部構成例と同じである。   Next, the operation of the moving object determination device 1B will be described. The configuration example of the main part of the electric system of the moving object determination apparatus 1B is the same as the main configuration example of the electric system in the moving object determination apparatus 1 according to the first embodiment shown in FIG.

図14は、移動物体判定装置1Bでの移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1Bの電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。   FIG. 14 is a flowchart illustrating an example of a flow of moving object determination processing in the moving object determination apparatus 1B. A moving object determination program that defines the moving object determination process is stored in the ROM 2B in advance. For example, when the power of the moving object determination device 1B is turned on, the CPU 2A reads the moving object determination program from the ROM 2B and executes it. Thereafter, the CPU 2A executes a moving object determination process every time a certain period of time elapses.

図14の移動物体判定処理が、図10に示した第2実施形態に係る移動物体判定処理と異なる点は、ステップS122〜S126が追加された点であり、その他の処理は同じである。   The moving object determination process of FIG. 14 is different from the moving object determination process according to the second embodiment shown in FIG. 10 in that steps S122 to S126 are added, and the other processes are the same.

ステップS10〜S120で移動物体OF候補が得られた後、ステップS122において、CPU2Aは、ステップS40で取得した自車両8のピッチ方向の角速度ψを用いて、判定期間におけるピッチレイトを算出する。   After the moving object OF candidate is obtained in steps S10 to S120, in step S122, the CPU 2A calculates the pitch rate in the determination period using the angular velocity ψ in the pitch direction of the host vehicle 8 acquired in step S40.

自車両8のピッチ方向に頻繁に変動が生じる場合、例えば車速センサ5、ジャイロセンサ6、及びカメラ3の設置位置の相違によって、車速及び角速度から算出した自車両8の走行軌跡と、カメラ3で撮影した画像から算出したオプティカルフローとの乖離距離18の算出精度が低くなる。すなわち、ピッチレイトが大きくなるにつれて、ステップS10〜S120で得られた移動物体OF候補のうち、実際に移動物体のオプティカルフローを示すオプティカルフローの割合が低下するため、移動物体OF候補が移動物体のオプティカルフローを表しているという信頼度が低下する傾向が見られる。   When frequent fluctuations occur in the pitch direction of the host vehicle 8, the traveling locus of the host vehicle 8 calculated from the vehicle speed and the angular velocity due to differences in the installation positions of the vehicle speed sensor 5, the gyro sensor 6, and the camera 3, for example, The calculation accuracy of the deviation distance 18 from the optical flow calculated from the photographed image is lowered. That is, as the pitch rate increases, the ratio of the optical flow that actually indicates the optical flow of the moving object among the moving object OF candidates obtained in steps S10 to S120 decreases. There is a tendency for the reliability to represent the optical flow to decrease.

したがって、変動閾値を設け、ピッチレイトがこの値より大きい場合には、移動物体OF候補の信頼度が低いとみなすことができる値に変動閾値を予め設定しておく。   Therefore, a variation threshold value is provided, and when the pitch rate is larger than this value, the variation threshold value is set in advance to a value that can be considered that the reliability of the moving object OF candidate is low.

そして、ステップS124において、CPU2Aは、ステップS122で算出したピッチレイトが変動閾値より大きいか否かを判定する。   In step S124, the CPU 2A determines whether or not the pitch rate calculated in step S122 is larger than the variation threshold.

なお、変動閾値は、例えば移動物体判定装置1Bの実機による実験や移動物体判定装置1Bの設計仕様に基づくコンピュータシミュレーション等により設定し、不揮発性メモリ2Dに予め記憶しておけばよい。   The variation threshold value may be set by, for example, an experiment using the actual moving object determination device 1B or a computer simulation based on the design specifications of the moving object determination device 1B, and may be stored in advance in the nonvolatile memory 2D.

ピッチレイトが変動閾値以下の場合には、移動物体OF候補の信頼度は高いと判定される。したがって、CPU2Aは、ステップS140において、直前にステップS10〜S120で得られた移動物体OF候補と、ステップS130で検出した車両画像領域42を用いて、最終的な移動物体のオプティカルフローを判定する。   When the pitch rate is less than or equal to the variation threshold, it is determined that the reliability of the moving object OF candidate is high. Therefore, in step S140, the CPU 2A determines the final optical flow of the moving object using the moving object OF candidate obtained in steps S10 to S120 and the vehicle image area 42 detected in step S130.

一方、ピッチレイトが変動閾値より大きい場合には、移動物体OF候補の信頼度は低いと判定される。したがって、ステップS126に移行し、ステップS126においてCPU2Aは、前回実行した移動物体判定処理で得られた移動物体OF候補(前回の移動物体OF候補)をRAM2Cから取得する。   On the other hand, when the pitch rate is larger than the fluctuation threshold, it is determined that the reliability of the moving object OF candidate is low. Therefore, the process proceeds to step S126, and in step S126, the CPU 2A acquires the moving object OF candidate (previous moving object OF candidate) obtained by the previously executed moving object determination process from the RAM 2C.

この場合、CPU2Aは、ステップS140において、ステップS126で取得した前回の移動物体OF候補と、ステップS130で検出した車両画像領域42を用いて、最終的な移動物体のオプティカルフローを判定する。   In this case, in step S140, the CPU 2A determines the final optical flow of the moving object using the previous moving object OF candidate acquired in step S126 and the vehicle image area 42 detected in step S130.

このように、第3実施形態に係る移動物体判定装置1Bによれば、自車両8のピッチレイトを用いて移動物体OF候補の信頼度を判定し、信頼度が低いと判定された場合には、前回取得した移動物体OF候補を用いて移動物体のオプティカルフローを判定する。したがって、移動物体判定装置1Bは、移動物体OF候補の信頼度を考慮せずに移動物体のオプティカルフローを判定する場合と比較して、移動物体のオプティカルフローを精度よく判定することができる。   As described above, according to the moving object determination device 1B according to the third embodiment, the reliability of the moving object OF candidate is determined using the pitch rate of the host vehicle 8, and when it is determined that the reliability is low. Then, the optical flow of the moving object is determined using the previously acquired moving object OF candidate. Therefore, the moving object determination apparatus 1B can determine the optical flow of the moving object with higher accuracy than the case of determining the optical flow of the moving object without considering the reliability of the moving object OF candidate.

なお、移動物体判定装置1Bではピッチレイトを用いて移動物体OF候補の信頼度を判定したが、移動物体OF候補の信頼度の判定方法はこれに限られない。例えばロール方向の角速度ξの変動度合いを表すロールレイトを用いて移動物体OF候補の信頼度を判定してもよい。ピッチレイトと同様に、ロールレイトが大きくなるにつれて、移動物体OF候補の信頼度が低下する。また、ピッチレイトとロールレイトを組み合わせて移動物体OF候補の信頼度を判定してもよい。   Although the moving object determination apparatus 1B determines the reliability of the moving object OF candidate using the pitch rate, the method for determining the reliability of the moving object OF candidate is not limited to this. For example, the reliability of the moving object OF candidate may be determined using a roll rate that represents the degree of fluctuation of the angular velocity ξ in the roll direction. Similar to the pitch rate, the reliability of the moving object OF candidate decreases as the roll rate increases. Further, the reliability of the moving object OF candidate may be determined by combining the pitch rate and the roll rate.

<第4実施形態>
第3実施形態に係る移動物体判定装置1Bは、車両検出部100で検出された車両画像領域42に含まれる車両を移動している車両とみなし、車両画像領域42に含まれる移動物体OF候補は全て移動物体のオプティカルフローとして判定した。
<Fourth embodiment>
The moving object determination device 1B according to the third embodiment regards the vehicle included in the vehicle image area 42 detected by the vehicle detection unit 100 as a moving vehicle, and the moving object OF candidates included in the vehicle image area 42 are All were determined as optical flows of moving objects.

しかしながら、車両画像領域42に含まれる車両には、駐車中の車両といった静止している車両が含まれることがある。   However, the vehicle included in the vehicle image area 42 may include a stationary vehicle such as a parked vehicle.

したがって、第4実施形態では、車両検出部100で検出された車両画像領域42のうち、移動している車両を含む車両画像領域42に含まれる移動物体OF候補を移動物体のオプティカルフローとして判定する移動物体判定装置1Cについて説明する。   Therefore, in 4th Embodiment, the moving object OF candidate contained in the vehicle image area 42 containing the moving vehicle among the vehicle image areas 42 detected by the vehicle detection part 100 is determined as an optical flow of a moving object. The moving object determination device 1C will be described.

図15は、移動物体判定装置1Cの構成例を示す図である。移動物体判定装置1Cの構成が、図13に示した第3実施形態に係る移動物体判定装置1Bの構成と異なる点は、移動車両領域判定部120が追加され、移動物体判定部80Aが移動物体判定部80Bに置き換えられた点である。また、移動車両領域判定部120の追加に伴い、車両検出部100で検出した車両画像領域42の出力先が、移動物体判定部80Aから移動車両領域判定部120に変更されている。   FIG. 15 is a diagram illustrating a configuration example of the moving object determination device 1C. The configuration of the moving object determination device 1C is different from the configuration of the moving object determination device 1B according to the third embodiment shown in FIG. 13 in that a moving vehicle region determination unit 120 is added and the moving object determination unit 80A This is a point replaced with the determination unit 80B. With the addition of the moving vehicle area determination unit 120, the output destination of the vehicle image area 42 detected by the vehicle detection unit 100 is changed from the moving object determination unit 80A to the moving vehicle area determination unit 120.

移動車両領域判定部120は、信頼度判定部110で信頼度が高いと判定された移動物体OF候補と、車両検出部100で検出された車両画像領域42を用いて、車両画像領域42が移動している車両を含んでいる車両画像領域42か否かを車両画像領域42毎に判定する。そして、移動車両領域判定部120は、車両検出部100で検出された車両画像領域42を、静止している車両を含んでいる車両画像領域42(静止車両画像領域)と、移動している車両を含んでいる車両画像領域42(移動車両画像領域)に分類し、移動車両画像領域を移動物体判定部80Bに出力する。   The moving vehicle area determination unit 120 moves the vehicle image area 42 using the moving object OF candidate determined as having high reliability by the reliability determination unit 110 and the vehicle image area 42 detected by the vehicle detection unit 100. It is determined for each vehicle image area 42 whether or not the vehicle image area 42 includes the vehicle in question. The moving vehicle area determination unit 120 then moves the vehicle image area 42 detected by the vehicle detection unit 100 to a vehicle image area 42 (stationary vehicle image area) that includes a stationary vehicle and a moving vehicle. Are included in the vehicle image region 42 (moving vehicle image region) including the moving vehicle image region, and the moving vehicle image region is output to the moving object determination unit 80B.

移動物体判定部80Bは、信頼度判定部110で信頼度が高いと判定された移動物体OF候補と、移動車両領域判定部120で得られた移動車両画像領域を用いて、移動物体のオプティカルフローを判定する。   The moving object determination unit 80B uses the moving object OF candidate determined to have high reliability by the reliability determination unit 110 and the moving vehicle image region obtained by the moving vehicle region determination unit 120, and the optical flow of the moving object. Determine.

移動物体判定装置1Cにおいて、 移動物体判定部80B、移動物体候補判定部90、信頼度判定部110、及び移動車両領域判定部は、判定部の一例である。   In the moving object determination device 1C, the moving object determination unit 80B, the moving object candidate determination unit 90, the reliability determination unit 110, and the moving vehicle area determination unit are examples of a determination unit.

次に、移動物体判定装置1Cの作用について説明する。移動物体判定装置1Cの電気系統の要部構成例は、図5に示した第1実施形態に係る移動物体判定装置1における電気系統の要部構成例と同じである。   Next, the operation of the moving object determination device 1C will be described. The configuration example of the main part of the electric system of the moving object determination apparatus 1C is the same as the main configuration example of the electric system in the moving object determination apparatus 1 according to the first embodiment shown in FIG.

図16は、移動物体判定装置1Cでの移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1Cの電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。   FIG. 16 is a flowchart illustrating an example of a flow of moving object determination processing in the moving object determination apparatus 1C. The moving object determination program for defining the moving object determination process is stored in the ROM 2B in advance. For example, when the power of the moving object determination device 1C is turned on, the CPU 2A reads the moving object determination program from the ROM 2B and executes it. Thereafter, the CPU 2A executes a moving object determination process every time a certain period of time elapses.

図16の移動物体判定処理が、図14に示した第3実施形態に係る移動物体判定処理と異なる点は、ステップS135が追加された点であり、その他の処理は同じである。   The moving object determination process in FIG. 16 is different from the moving object determination process according to the third embodiment shown in FIG. 14 in that step S135 is added, and the other processes are the same.

ステップS10〜S126で信頼度の高い移動物体OF候補を取得し、ステップS130で画像から車両画像領域42を取得した後、ステップS135において、CPU2Aは、移動車両領域判定処理を実行する。   After acquiring the moving object OF candidate with high reliability in steps S10 to S126 and acquiring the vehicle image area 42 from the image in step S130, in step S135, the CPU 2A executes a moving vehicle area determination process.

図17は、ステップS135で実行される移動車両領域判定処理の流れの一例を示すフローチャートである。   FIG. 17 is a flowchart illustrating an example of the flow of the moving vehicle area determination process executed in step S135.

ステップS200において、CPU2Aは、ステップS130で検出した何れかの画像の車両画像領域42のうち、まだ選択していない車両画像領域42を1つ選択する。   In step S200, the CPU 2A selects one vehicle image area 42 that has not been selected from the vehicle image areas 42 of any of the images detected in step S130.

ステップS210において、CPU2Aは、ステップS30で抽出したオプティカルフローと、ステップS200で選択した車両画像領域42を統合し、ステップS200で選択した車両画像領域42における移動物体OF候補割合を算出する。移動物体OF候補割合は、選択した車両画像領域42に含まれるオプティカルフロー数に対する、当該車両画像領域42に含まれる移動物体OF候補のオプティカルフロー数の割合として表される。   In step S210, the CPU 2A integrates the optical flow extracted in step S30 and the vehicle image area 42 selected in step S200, and calculates the moving object OF candidate ratio in the vehicle image area 42 selected in step S200. The moving object OF candidate ratio is expressed as a ratio of the number of optical flows of the moving object OF candidate included in the vehicle image area 42 to the number of optical flows included in the selected vehicle image area 42.

移動物体OF候補割合が小さくなるにつれて、選択した車両画像領域42に含まれる車両は静止している可能性が高くなる。   As the moving object OF candidate ratio decreases, the possibility that the vehicle included in the selected vehicle image area 42 is stationary increases.

したがって、移動物体OF候補割合がこの値未満の場合には、選択した車両画像領域42は静止している車両に対応する車両画像領域42であるとみなすことができる静止閾値を設け、ステップS220において、CPU2Aは、算出した移動物体OF候補割合が静止閾値未満であるか否かを判定する。   Therefore, when the moving object OF candidate ratio is less than this value, the selected vehicle image area 42 is provided with a stationary threshold value that can be regarded as the vehicle image area 42 corresponding to the stationary vehicle, and in step S220. The CPU 2A determines whether or not the calculated moving object OF candidate ratio is less than the stationary threshold.

なお、静止閾値は、例えば移動物体判定装置1Cの実機による実験や移動物体判定装置1Cの設計仕様に基づくコンピュータシミュレーション等により設定し、不揮発性メモリ2Dに予め記憶しておけばよい。   The stationary threshold value may be set by, for example, an experiment using the actual moving object determination apparatus 1C or a computer simulation based on the design specifications of the moving object determination apparatus 1C, and may be stored in advance in the nonvolatile memory 2D.

ステップS220の判定処理が肯定判定の場合、ステップS230に移行する。   If the determination process in step S220 is affirmative, the process proceeds to step S230.

ステップS200で選択した車両画像領域42の移動物体OF候補割合が静止閾値未満であることから、ステップS230において、CPU2Aは、当該車両画像領域42を静止車両画像領域に分類する。具体的には、CPU2Aは、ステップS200で選択した車両画像領域42に、値を“0”に設定した領域タグを対応付けてRAM2Cに記憶する。領域タグは、車両画像領域42が静止車両画像領域であるか、移動車両画像領域であるかを示す情報であり、例えば領域タグの値が“0”の場合には静止車両画像領域であることを示し、領域タグの値が“1”の場合には移動車両画像領域であることを示す。   Since the moving object OF candidate ratio in the vehicle image area 42 selected in step S200 is less than the stationary threshold value, in step S230, the CPU 2A classifies the vehicle image area 42 into a stationary vehicle image area. Specifically, the CPU 2A stores the vehicle image area 42 selected in step S200 in association with the area tag whose value is set to “0” in the RAM 2C. The area tag is information indicating whether the vehicle image area 42 is a stationary vehicle image area or a moving vehicle image area. For example, when the value of the area tag is “0”, the area tag is a stationary vehicle image area. When the value of the area tag is “1”, it indicates a moving vehicle image area.

一方、ステップS220の判定処理が否定判定の場合、ステップS240に移行する。   On the other hand, when the determination process in step S220 is negative, the process proceeds to step S240.

この場合、ステップS200で選択した車両画像領域42の移動物体OF候補割合が静止閾値より大きいことから、ステップS240において、CPU2Aは、当該車両画像領域42を移動車両画像領域に分類する。具体的には、CPU2Aは、ステップS200で選択した車両画像領域42に、値を“1”に設定した領域タグを対応付けてRAM2Cに記憶する。   In this case, since the moving object OF candidate ratio in the vehicle image area 42 selected in step S200 is larger than the static threshold, in step S240, the CPU 2A classifies the vehicle image area 42 into the moving vehicle image area. Specifically, the CPU 2A associates an area tag whose value is set to “1” with the vehicle image area 42 selected in step S200 and stores it in the RAM 2C.

そして、ステップS250において、CPU2Aは、画像に含まれる全ての車両画像領域42をステップS200で選択したか否かを判定する。選択していない車両画像領域42が存在する場合にはステップS200に移行する。   In step S250, CPU 2A determines whether all vehicle image areas 42 included in the image have been selected in step S200. If there is an unselected vehicle image area 42, the process proceeds to step S200.

ステップS200において、CPU2Aは、まだ選択していない車両画像領域42を選択し、ステップS200〜S250の処理を繰り返し実行することで、車両画像領域42が静止車両画像領域であるか移動車両画像領域であるかを車両画像領域42毎に判定する。   In step S200, the CPU 2A selects a vehicle image area 42 that has not yet been selected, and repeatedly executes the processes in steps S200 to S250, so that the vehicle image area 42 is a stationary vehicle image area or a moving vehicle image area. Whether or not there is is determined for each vehicle image area 42.

一方、ステップS250の判定処理が肯定判定の場合、すなわち、画像に含まれる車両画像領域42を全て選択した場合には、図17に示した移動車両領域判定処理を終了する。   On the other hand, if the determination process in step S250 is affirmative, that is, if all the vehicle image areas 42 included in the image are selected, the moving vehicle area determination process shown in FIG. 17 is terminated.

CPU2Aは、図16のステップS140において、ステップS30で抽出したオプティカルフローと、ステップS130で検出した車両画像領域42を統合し、車両画像領域42のうち、ステップS135で移動車両画像領域に分類された車両画像領域42に含まれるオプティカルフローを全て最終的な移動物体のオプティカルフローとして判定する。   In step S140 of FIG. 16, the CPU 2A integrates the optical flow extracted in step S30 and the vehicle image area 42 detected in step S130, and is classified as a moving vehicle image area in step S135 out of the vehicle image areas 42. All the optical flows included in the vehicle image area 42 are determined as the optical flows of the final moving object.

なお、ステップS140における最終的な移動物体のオプティカルフローの判定方法はこれに限定されない。例えば、移動物体OF候補のうち、ステップS135で移動車両画像領域に分類された車両画像領域42に含まれるオプティカルフローのみを移動物体のオプティカルフローと判定し、これ以外のオプティカルフローは移動物体のオプティカルフローではないと判定してもよい。また、移動車両画像領域に分類された車両画像領域42に過去に1度でも含まれたことがあるオプティカルフローについては、現時刻において当該車両画像領域42に含まれているか否かに関わらず、移動物体のオプティカルフローと判定してもよい。   Note that the method of determining the final optical flow of the moving object in step S140 is not limited to this. For example, among the moving object OF candidates, only the optical flow included in the vehicle image area 42 classified as the moving vehicle image area in step S135 is determined as the optical flow of the moving object, and the other optical flows are the optical objects of the moving object. You may determine that it is not a flow. In addition, optical flows that have been included once in the vehicle image area 42 classified as a moving vehicle image area, regardless of whether or not they are included in the vehicle image area 42 at the current time. You may determine with the optical flow of a moving object.

図18は、移動物体判定装置1Cで図16のステップS135における移動車両領域判定処理を実行した場合の、車両画像領域42の判定結果の一例を示す図である。   FIG. 18 is a diagram illustrating an example of the determination result of the vehicle image region 42 when the moving object region determination apparatus 1C executes the moving vehicle region determination process in step S135 of FIG.

図18において、画像58が移動車両領域判定処理の判定結果を示しており、実線の矩形44が移動車両画像領域を表し、点線の矩形46が静止車両画像領域を表している。   In FIG. 18, an image 58 shows the determination result of the moving vehicle area determination process, a solid rectangle 44 represents a moving vehicle image area, and a dotted rectangle 46 represents a stationary vehicle image area.

また、図19は、移動車両画像領域に含まれるオプティカルフローを最終的な移動物体のオプティカルフローとする判定結果の一例を示す図である。   FIG. 19 is a diagram illustrating an example of a determination result in which the optical flow included in the moving vehicle image region is the final optical flow of the moving object.

画像62において、黒色の実線は移動物体OF候補を表し、灰色の実線は静止物体のオプティカルフローと判定されたオプティカルフローを表す。また、画像64において、黒色の実線は移動物体のオプティカルフローを表し、灰色の実線は静止物体のオプティカルフローを表す   In the image 62, a black solid line represents a moving object OF candidate, and a gray solid line represents an optical flow determined to be an optical flow of a stationary object. Further, in the image 64, the black solid line represents the optical flow of the moving object, and the gray solid line represents the optical flow of the stationary object.

画像62において移動物体OF候補ではないオプティカルフローであっても、移動車両画像領域44に含まれる場合は移動物体のオプティカルフローとして判定される。逆に、画像62において移動物体OF候補であるオプティカルフローであっても、移動車両画像領域44に含まれない場合は静止物体のオプティカルフローとして判定される。   Even if an optical flow that is not a moving object OF candidate in the image 62 is included in the moving vehicle image area 44, it is determined as an optical flow of the moving object. Conversely, even if an optical flow that is a moving object OF candidate in the image 62 is not included in the moving vehicle image area 44, it is determined as an optical flow of a stationary object.

このように第4実施形態に係る移動物体判定装置1Cによれば、画像から検出した車両画像領域42のうち、移動している車両が含まれる車両画像領域42とオプティカルフローを用いて、移動物体のオプティカルフローを判定する。したがって、実際には静止している車両に対応した車両画像領域42に含まれるオプティカルフローを、移動物体のオプティカルフローであると誤判定する可能性が低下するため、移動物体判定装置1Cは、移動物体のオプティカルフローを精度よく判定することができる。   As described above, according to the moving object determination device 1C according to the fourth embodiment, the moving object is detected using the vehicle image area 42 including the moving vehicle and the optical flow among the vehicle image areas 42 detected from the image. Determine the optical flow. Therefore, since the possibility that the optical flow included in the vehicle image area 42 corresponding to the actually stationary vehicle is erroneously determined as the optical flow of the moving object is reduced, the moving object determination device 1C The optical flow of the object can be accurately determined.

本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、発明の要旨を逸脱しない範囲で、各実施形態に係る移動物体判定処理内の実行順序を変更してもよい。   The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention. For example, the execution order in the moving object determination process according to each embodiment may be changed without departing from the gist of the invention.

また、移動物体判定装置1A、1B、1Cにおける車両検出部100では、画像から車両に相当する画像領域を検出したが、車両に加えて、例えば歩行者及び2輪車等の移動物体を検出するようにしてもよい。   In addition, the vehicle detection unit 100 in the moving object determination devices 1A, 1B, and 1C detects an image area corresponding to the vehicle from the image, but detects a moving object such as a pedestrian and a two-wheeled vehicle in addition to the vehicle. You may do it.

また、各実施形態に係る移動物体判定装置1、1A、1B、1Cでは、移動物体判定処理をソフトウエアによって実現する場合について説明したが、本発明はこれに限定されるものではなく、移動物体判定処理を、例えばASIC(Application Specific Integrated Circuit)等を用いたハードウエア構成により実現するようにしてもよい。この場合、ソフトウエアを用いた場合と比較して、処理を高速化することができる。   In the moving object determination devices 1, 1A, 1B, and 1C according to the embodiments, the case where the moving object determination process is realized by software has been described. However, the present invention is not limited to this, and the moving object is determined. The determination process may be realized by a hardware configuration using, for example, an ASIC (Application Specific Integrated Circuit) or the like. In this case, the processing speed can be increased as compared with the case where software is used.

また、各実施の形態に係る移動物体判定装置1、1A、1B、1Cでは、移動物体判定プログラムがROM2Bにインストールされている形態について説明したが、これに限定されるものではない。本発明に係る移動物体判定プログラムを、コンピュータ読取可能な記憶媒体に記録した形態で提供してもよい。例えば、本発明に係る移動物体判定プログラムを、CD(Compact Disc)−ROM、及びDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態、又はUSB(Universal Serial Bus)メモリ及びメモリカード等の半導体メモリに記録した形態で提供してもよい。また、本発明に係る移動物体判定プログラムを、通信回線に接続された外部装置から取得するようにしてもよい。   In the moving object determination devices 1, 1A, 1B, and 1C according to each embodiment, the moving object determination program is installed in the ROM 2B. However, the present invention is not limited to this. The moving object determination program according to the present invention may be provided in a form recorded on a computer-readable storage medium. For example, a moving object determination program according to the present invention is recorded on an optical disc such as a CD (Compact Disc) -ROM and a DVD (Digital Versatile Disc) -ROM, or a USB (Universal Serial Bus) memory and a memory card. You may provide with the form recorded on the semiconductor memory. The moving object determination program according to the present invention may be acquired from an external device connected to a communication line.

1(1A、1B、1C)・・・移動物体判定装置、2・・・コンピュータ、2A・・・CPU、3・・・カメラ、4・・・GPSモジュール、5・・・車速センサ、6・・・ジャイロセンサ、8・・・自車両、9・・・特徴点、10・・・画像情報取得部、14・・・空間特徴点、16・・・再投影特徴点、18・・・乖離距離、20・・・画像特徴抽出部、22・・・オプティカルフロー、24・・・空間特徴点のオプティカルフロー、30・・・第1オプティカルフロー算出部、40・・・IMU情報取得部、42・・・車両画像領域、50・・・車両軌跡算出部、60・・・特徴点3次元位置算出部、70・・・第2オプティカルフロー算出部、80(80A、80B)・・・移動物体判定部、90・・・移動物体候補判定部、100・・・車両検出部、110・・・信頼度判定部、120・・・移動車両領域判定部 1 (1A, 1B, 1C) ... Moving object determination device, 2 ... Computer, 2A ... CPU, 3 ... Camera, 4 ... GPS module, 5 ... Vehicle speed sensor, 6. ..Gyro sensor, 8 ... own vehicle, 9 ... feature point, 10 ... image information acquisition unit, 14 ... spatial feature point, 16 ... reprojection feature point, 18 ... divergence Distance, 20 ... Image feature extraction unit, 22 ... Optical flow, 24 ... Optical flow of spatial feature points, 30 ... First optical flow calculation unit, 40 ... IMU information acquisition unit, 42 ... Vehicle image area, 50 ... Vehicle trajectory calculation unit, 60 ... Feature point three-dimensional position calculation unit, 70 ... Second optical flow calculation unit, 80 (80A, 80B) ... Moving object Determination unit, 90... Moving object candidate determination unit, 100 · Vehicle detection section, 110 ... reliability determination unit, 120 ... mobile vehicle area determining unit

Claims (7)

移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、
前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、
前記移動体の移動速度及び運動に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、
前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、
前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、
前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部と、
を備えた移動物体判定装置。
An extraction unit for extracting feature points from each image photographed in time series with a photographing device attached to a moving body;
A first calculation unit that tracks a corresponding feature point in each image among the feature points extracted by the extraction unit, and calculates a time series of the position of the tracked feature point for each feature point;
A second calculation unit that calculates a travel locus of the moving body using a physical quantity related to a moving speed and motion of the moving body;
Using the time series of the position of the feature point calculated by the first calculation unit and the travel locus of the moving body calculated by the second calculation unit, the position of the extracted feature point in the three-dimensional space is characterized. A third calculation unit for calculating each point;
Using the travel locus of the moving body calculated by the second calculation unit and the position of the spatial feature point representing the feature point in the three-dimensional space calculated by the third calculation unit, the spatial feature point Calculating a position in each of the images, and calculating a time series of the positions of the feature points corresponding to the spatial feature points represented by the respective images for each feature point corresponding to the spatial feature points A calculation unit;
By comparing the time series of the feature point positions calculated by the first calculation unit with the time series of the spatial feature point positions calculated by the fourth calculation unit corresponding to the feature points, A determination unit that determines, for each feature point, whether the object represented by is a moving object;
A moving object determination apparatus comprising:
前記各々の画像から移動物体領域を検出する検出部を備え、
前記判定部は、移動物体を表すと判定した特徴点のうち、前記検出部で前記各々の画像から検出された前記移動物体領域の何れにも含まれない特徴点は、移動物体を表す特徴点ではないと再判定する
請求項1記載の移動物体判定装置。
A detection unit for detecting a moving object region from each of the images;
Of the feature points determined to represent the moving object, the determination unit that is not included in any of the moving object regions detected from the respective images by the detection unit is a feature point that represents the moving object The moving object determination device according to claim 1, wherein the determination is made again.
前記各々の画像における何れかの画像から移動物体領域を検出する検出部を備え、
前記判定部は、前記検出部で検出された前記移動物体領域毎に、前記移動物体領域に含まれる特徴点に対する移動物体を表す特徴点の割合を算出し、前記割合が予め定めた割合未満となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点ではないと再判定すると共に、前記割合が予め定めた割合以上となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点であると再判定する
請求項1記載の移動物体判定装置。
A detection unit for detecting a moving object region from any one of the images;
The determination unit calculates, for each moving object region detected by the detection unit, a ratio of feature points representing a moving object to feature points included in the moving object region, and the ratio is less than a predetermined ratio. The feature point included in the moving object region is re-determined as not a feature point representing the moving object, and the feature point included in the moving object region in which the ratio is equal to or higher than a predetermined ratio is The moving object determination device according to claim 1, wherein the moving object determination device is re-determined as a feature point.
前記判定部は、過去に前記移動物体領域を表すと判定されたことがある特徴点は、移動物体を表す特徴点であると判定する
請求項2又は請求項3に記載の移動物体判定装置。
The moving object determination device according to claim 2, wherein the determination unit determines that a feature point that has been determined to represent the moving object region in the past is a feature point that represents a moving object.
前記判定部は、前記移動体の運動に関する物理量の変動度合いが予め定めた閾値より大きい場合、特徴点の位置の時系列として、前回の判定で得られた特徴点の位置の時系列を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する
請求項2〜請求項4の何れか1項に記載の移動物体判定装置。
The determination unit uses the time series of the feature point positions obtained in the previous determination as the time series of the feature point positions when the degree of variation of the physical quantity related to the motion of the moving body is greater than a predetermined threshold. The moving object determination device according to any one of claims 2 to 4, wherein, for each feature point, it is determined whether or not the object represented by the feature point is a moving object.
前記判定部は、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列との距離を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する
請求項1〜請求項5の何れか1項に記載の移動物体判定装置。
The determination unit is a distance between a time series of the feature point positions calculated by the first calculation unit and a time series of the spatial feature point positions calculated by the fourth calculation unit corresponding to the feature points. The moving object determination device according to any one of claims 1 to 5, wherein, for each feature point, it is determined whether or not the object represented by the feature point is a moving object.
コンピュータを、
移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、
前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、
前記移動体の移動速度及び移動方向に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、
前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、
前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、
前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部
として機能させるための移動物体判定プログラム。
Computer
An extraction unit for extracting feature points from each image photographed in time series with a photographing device attached to a moving body;
A first calculation unit that tracks a corresponding feature point in each image among the feature points extracted by the extraction unit, and calculates a time series of the position of the tracked feature point for each feature point;
A second calculation unit that calculates a travel locus of the moving body using physical quantities related to a moving speed and a moving direction of the moving body;
Using the time series of the position of the feature point calculated by the first calculation unit and the travel locus of the moving body calculated by the second calculation unit, the position of the extracted feature point in the three-dimensional space is characterized. A third calculation unit for calculating each point;
Using the travel locus of the moving body calculated by the second calculation unit and the position of the spatial feature point representing the feature point in the three-dimensional space calculated by the third calculation unit, the spatial feature point Calculating a position in each of the images, and calculating a time series of the positions of the feature points corresponding to the spatial feature points represented by the respective images for each feature point corresponding to the spatial feature points A calculation unit;
By comparing the time series of the feature point positions calculated by the first calculation unit with the time series of the spatial feature point positions calculated by the fourth calculation unit corresponding to the feature points, A moving object determination program for functioning as a determination unit for determining for each feature point whether or not the object represented by is a moving object.
JP2017087697A 2017-04-26 2017-04-26 Moving object determination device, and moving object determination program Pending JP2018185694A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087697A JP2018185694A (en) 2017-04-26 2017-04-26 Moving object determination device, and moving object determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087697A JP2018185694A (en) 2017-04-26 2017-04-26 Moving object determination device, and moving object determination program

Publications (1)

Publication Number Publication Date
JP2018185694A true JP2018185694A (en) 2018-11-22

Family

ID=64355948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087697A Pending JP2018185694A (en) 2017-04-26 2017-04-26 Moving object determination device, and moving object determination program

Country Status (1)

Country Link
JP (1) JP2018185694A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022135552A (en) * 2021-03-05 2022-09-15 キヤノン株式会社 Posture estimation device and control method for the same
CN116279446A (en) * 2023-03-15 2023-06-23 重庆赛力斯新能源汽车设计院有限公司 A vehicle anti-collision control method, system, device and storage medium
JP2024144974A (en) * 2023-03-31 2024-10-15 横河電機株式会社 Apparatus, method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022135552A (en) * 2021-03-05 2022-09-15 キヤノン株式会社 Posture estimation device and control method for the same
CN116279446A (en) * 2023-03-15 2023-06-23 重庆赛力斯新能源汽车设计院有限公司 A vehicle anti-collision control method, system, device and storage medium
JP2024144974A (en) * 2023-03-31 2024-10-15 横河電機株式会社 Apparatus, method and program
JP7794162B2 (en) 2023-03-31 2026-01-06 横河電機株式会社 Apparatus, method and program

Similar Documents

Publication Publication Date Title
US10762643B2 (en) Method for evaluating image data of a vehicle camera
US12313428B2 (en) Position estimation method, position estimation device, and position estimation program
US10699441B2 (en) Calibration apparatus, calibration method and storage medium
JP7077910B2 (en) Bound line detection device and lane marking method
CN112292711A (en) Correlating LIDAR data and image data
CN112001456B (en) Vehicle positioning method and device, storage medium and electronic equipment
KR102043366B1 (en) Method for measuring trajectory similarity between geo-referenced videos using largest common view
KR20220160850A (en) Method and apparatus of estimating vanishing point
CN107392080B (en) Image evaluation method and electronic device thereof
JP6479296B2 (en) Position / orientation estimation apparatus and position / orientation estimation method
JP2017181476A (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP6965325B2 (en) Auto-discovery system and auto-detection program
JP2018185694A (en) Moving object determination device, and moving object determination program
JP2006330908A (en) Position recording apparatus and position recording method
KR20220062709A (en) System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor
JP7234840B2 (en) position estimator
JP2019160147A (en) Own position detecting apparatus
JP6571492B2 (en) Corresponding point search method and distance measuring device
CN115578463B (en) Monocular image object identification method and device and electronic equipment
JP5891802B2 (en) Vehicle position calculation device
JP5251460B2 (en) Approaching object detection device, approaching object detection program, approaching object detection method
JP7585147B2 (en) Arithmetic device, speed calculation method
JP2023053997A (en) Map data collection device and map data collection computer program
Garcia et al. Mobile based pedestrian detection with accurate tracking
CN117670999A (en) Pose estimation method, device, equipment and computer-readable storage medium