JP2008304344A - 物標検出装置 - Google Patents
物標検出装置 Download PDFInfo
- Publication number
- JP2008304344A JP2008304344A JP2007152291A JP2007152291A JP2008304344A JP 2008304344 A JP2008304344 A JP 2008304344A JP 2007152291 A JP2007152291 A JP 2007152291A JP 2007152291 A JP2007152291 A JP 2007152291A JP 2008304344 A JP2008304344 A JP 2008304344A
- Authority
- JP
- Japan
- Prior art keywords
- target
- parallax
- image
- dimensional
- acquisition means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims description 76
- 238000012937 correction Methods 0.000 claims abstract description 27
- 230000000875 corresponding effect Effects 0.000 claims description 52
- 230000003287 optical effect Effects 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 11
- 238000012217 deletion Methods 0.000 claims description 10
- 230000037430 deletion Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 230000002596 correlated effect Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 10
- 239000007787 solid Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004088 simulation Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
【解決手段】制御部3が双方の相関性が極めて高いと評価した場合には、視差修正手段80において、新たに取得したステレオ画像B1から導出された第2視差D1のうち、物標追跡手段60で切り出された特定物標T1の物標候補領域の2次元画像K3から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち物標追跡手段60で切り出された特定物標T1の物標候補領域の2次元画像K3に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する。これにより、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。
【選択図】図2
Description
(A1)レーダ情報と、ステレオ画像と、レーダ情報から導出された第1視差と、ステレオ画像から導出された第2視差または視差修正手段で修正された後の第2視差とから各物標候補のステレオ画像上の位置および幅ならびに高さを導出すると共に、ステレオカメラにおける3次元座標系の3次元座標とをステレオ画像の画素ごとに導出する位置等取得手段
(A2)位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像をステレオ画像から切り出すと共に、切り出した2次元画像から導出される視差を第2視差から切り出したのち、切り出した2次元画像のうち、第2視差のうち当該切り出した2次元画像から導出された視差と第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さを修正する位置等修正手段
(A3)位置等修正手段で切り出された2次元画像または第1部分画像を用いて各物標候補の種類を判別する種類判別手段
(A4)種類判別手段および物標追跡手段で種類が判別された各物標候補のステレオ画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを物標リストに登録する物標リスト登録手段
(A5)新たに取得したステレオ画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、物標リストに記録されている各物標候補のステレオ画像上の位置および幅と、高さと、種類と、ステレオカメラにおける3次元座標系の3次元座標とに基づいて、新たに取得したステレオ画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて特定物標の新たに取得したステレオ画像上の位置および幅ならびに高さを修正すると共に、特定物標のステレオカメラにおける3次元座標系の3次元座標を取得し、修正により得られた特定物標の新たに取得したステレオ画像上の位置および幅ならびに高さを利用して特定物標の物標候補領域の2次元画像を新たに取得したステレオ画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の新たに取得したステレオ画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを、特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標の物標候補領域の2次元画像を用いて準特定物標の種類を判別する物標追跡手段
(A6)物標リストにおいて、物標追跡手段で導出された特定物標のステレオ画像上の位置および幅と、高さと、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを更新する物標リスト更新手段
(A7)新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する視差修正手段
(B1)レーダ情報と、単一画像と、レーダ情報から導出された第1視差と、単一画像および被写体までの距離から導出された第2視差または視差修正手段で修正された後の第2視差とから各物標候補の単一画像上の位置および幅ならびに高さを導出すると共に、光飛行時間型距離センサにおける3次元座標系の3次元座標とを単一画像の画素ごとに導出する位置等取得手段
(B2)位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像を単一画像から切り出すと共に、切り出した2次元画像およびこれに対応する被写体までの距離から導出される視差を第2視差から切り出したのち、切り出した2次元画像のうち、第2視差のうち当該切り出した2次元画像およびこれに対応する被写体までの距離から導出された視差と第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さを修正する位置等修正手段
(B3)位置等修正手段で切り出された2次元画像または第1部分画像を用いて各物標候補の種類を判別する種類判別手段
(B4)種類判別手段および物標追跡手段で種類が判別された各物標候補の単一画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを物標リストに登録する物標リスト登録手段
(B5)新たに取得した単一画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、物標リストに記録されている各物標候補のステレオ画像上の位置および幅と、高さと、種類と、ステレオカメラにおける3次元座標系の3次元座標とに基づいて、新たに取得した単一画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて特定物標の新たに取得した単一画像上の位置および幅ならびに高さを修正すると共に、特定物標の光飛行時間型距離センサにおける3次元座標系の3次元座標を取得し、修正により得られた特定物標の新たに取得した単一画像上の位置および幅ならびに高さを利用して特定物標の物標候補領域の2次元画像を前記新たに取得した単一画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の新たに取得した単一画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを、特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標の物標候補領域の2次元画像を用いて準特定物標の種類を判別する物標追跡手段
(B6)物標リストにおいて、物標追跡手段で導出された特定物標の単一画像上の位置および幅と、高さと、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを更新する物標リスト更新手段
(B7)新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する視差修正手段
(C1)ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得する第1位置情報取得手段
(C2)ステレオ画像における各画素を、ステレオ画像から導出された第2視差およびステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差およびステレオ画像の縦座標が含まれるセルに振り分け、第2視差をx軸とし、ステレオ画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出する直線取得手段
(C3)直線L1と直線L2との交差点のx座標V0を導出し、このx座標V0と、ステレオカメラの焦点距離fとを用いてステレオカメラの俯角αを導出する俯角情報取得手段
(C4)直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正する視差情報削除手段
(C5)視差情報削除手段により補正された後の第2視差および第1位置情報取得手段で得られた3次元座標の横座標を用いて、ステレオ画像における各画素を、第2視差および3次元座標の横座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および3次元座標の横座標が含まれるセルに振り分け、3次元座標の横座標をx軸とし、第2視差をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の3次元座標の縦座標の最大値および平均値を各セルごとに算出する占用度情報取得手段
(C6)占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、固まりに含まれるセルの最高値および平均値とを用いて、検出対象物ごとに決められた所定ルールで固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得する第1物標取得手段
(C7)レーザレーダによって得られたレーダ情報を俯角αを利用して補正したのち、補正後のレーダ情報から第1視差とステレオカメラにおける3次元座標系の3次元座標とを取得する第2位置情報取得手段
(C8)第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得する第2物標取得手段
(C9)第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補のステレオ画像上の位置および幅を、第1物標取得手段で得られたxy平面上の中心位置および幅と、第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅をステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、第1位置情報取得手段で得られた3次元座標の縦座標から取得する第3物標導出手段
(D1)光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得する第1位置情報取得手段
(D2)単一画像における各画素を、単一画像および被写体までの距離から導出された第2視差および単一画像の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および単一画像の縦座標が含まれるセルに振り分け、第2視差をx軸とし、単一画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出する直線取得手段
(D3)直線L1と直線L2との交差点のx座標V0を導出し、このx座標V0と、光飛行時間型距離センサの焦点距離fとを用いて光飛行時間型距離センサの俯角αを導出する俯角情報取得手段
(D4)直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正する視差情報削除手段
(D5)視差情報削除手段により補正された後の第2視差および第1位置情報取得手段で得られた3次元座標の横座標を用いて、単一画像における各画素を、第2視差および3次元座標の横座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および3次元座標の横座標が含まれるセルに振り分け、3次元座標の横座標をx軸とし、第2視差をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の3次元座標の縦座標の最大値および平均値を各セルごとに算出する占用度情報取得手段
(D6)占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、固まりに含まれるセルの最高値および平均値とを用いて、検出対象物ごとに決められた所定ルールで固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得する第1物標取得手段
(D7)レーザレーダによって得られたレーダ情報を俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得する第2位置情報取得手段
(D8)第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得する第2物標取得手段
(D9)第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の単一画像上の位置および幅を、第1物標取得手段で得られたxy平面上の中心位置および幅と、第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、第1位置情報取得手段で得られた3次元座標の縦座標から取得する第3物標導出手段
例えば、自動車Cの前方の物標T上の微小領域が右カメラ21の画面上の2次元座標(Xr,Yr)に投影されると共に、左カメラ22の画面上の2次元座標(Xl,Yl)に投影されたとする。このとき、これらの2次元座標(Xr,Yr),(Xl,Yl)を、ステレオカメラ2の3次元座標系の3次元座標(X,Y,Z)に変換する際には次の式(1)〜(4)を用いる。
Y=Yl×L/dc…(2)
Z=f×L/dc…(3)
dc=Xl−Xr…(4)
Ym=dc×cosθ×sinξ…(6)
Zm=dc×cosθ…(7)
OFMは、一般的には、物標表面の各点の3次元座標に基づいて測定点を水平平面に投影し、座標軸を等間隔で区切ることにより水平平面内内に形成される格子状に配置されたセル内に投影される測定点の数を累積することによって得られるものであり、このOFMに対してクラスタリング処理を行うことにより物標を抽出することができる。
このX−Disparity平面とは、横軸xをステレオカメラ2の3次元座標系の横座標とし、縦軸yを視差とするxy平面のことである(図5(A),(B)、図6(A),(B)参照)。座標軸を等間隔で区切ることによりこのxy平面内に形成される格子状に配置されたセルは、実世界では縦軸y方向において不均等なサイズを持っている。そのため、自動車Cに近づくほど、解像度が大きくなり、実サイズが小さくなる。
上記実施の形態では、ステレオカメラ2を用いていたが、その代わりに、例えば、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサを用いることも可能である。ただし、この場合には、上記実施の形態において、「ステレオ画像」を「単一画像」に読み替えることが必要となる。また、上記実施の形態において「ステレオ画像から切り出した2次元画像から導出される視差」は、単一画像から切り出した2次元画像およびこれに対応する被写体までの距離から導出することが可能である。
上記実施の形態およびその変形例に係るセンサフュージョンによる物標検出の有効性を検証するために、シミュレーション環境(障害物の少ない駐車場)での歩行者検知を行った。対象歩行者は、表1に示したような動作を行った。また、センサを車載した車両を停止した状態での撮影、低速走行状態での撮影の違いを含めた計10シーンを対象とした。また、表2に示したように、実道路環境に存在する様々な歩行者を対象として実験を行った。市街地を走行しながら撮影したシーンから、信号、細道、歩道上等の歩行者の計10シーンを選出し、評価シーンとした。
Claims (26)
- 車両前方のレーダ情報を取得するレーザレーダと、
車両前方のステレオ画像を取得するステレオカメラと、
前記レーザレーダで取得したレーダ情報および前記ステレオカメラで取得したステレオ画像を処理する制御部と
を備え、
前記制御部は、位置等取得手段と、位置等修正手段と、種類判別手段と、物標リスト登録手段と、物標追跡手段と、物標リスト更新手段と、視差修正手段とを有し、
前記位置等取得手段は、前記レーダ情報と、前記ステレオ画像と、前記レーダ情報から導出された第1視差と、前記ステレオ画像から導出された第2視差または前記視差修正手段で修正された後の第2視差とから各物標候補の前記ステレオ画像上の位置および幅ならびに高さを導出すると共に、前記ステレオカメラにおける3次元座標系の3次元座標とを前記ステレオ画像の画素ごとに導出し、
前記位置等修正手段は、前記位置等取得手段で導出された各物標候補の前記ステレオ画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像を前記ステレオ画像から切り出すと共に、切り出した2次元画像から導出される視差を前記第2視差から切り出したのち、前記切り出した2次元画像のうち、前記第2視差のうち当該切り出した2次元画像から導出された視差と前記第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、前記位置等取得手段で導出された各物標候補の前記ステレオ画像上の位置および幅ならびに高さを修正し、
前記種類判別手段は、前記位置等修正手段で切り出された2次元画像または前記第1部分画像を用いて各物標候補の種類を判別し、
前記物標リスト登録手段は、前記種類判別手段および前記物標追跡手段で種類が判別された各物標候補の前記ステレオ画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、前記ステレオカメラにおける3次元座標系の3次元座標とを物標リストに登録し、
前記物標追跡手段は、新たに取得したステレオ画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、前記物標リストに記録されている各物標候補の前記ステレオ画像上の位置および幅と、高さと、種類と、前記ステレオカメラにおける3次元座標系の3次元座標とに基づいて、前記新たに取得したステレオ画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、前記物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて前記特定物標の前記新たに取得したステレオ画像上の位置および幅ならびに高さを修正すると共に、前記特定物標の前記ステレオカメラにおける3次元座標系の3次元座標を取得し、修正により得られた前記特定物標の前記新たに取得したステレオ画像上の位置および幅ならびに高さを利用して前記特定物標の物標候補領域の2次元画像を前記新たに取得したステレオ画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の前記新たに取得したステレオ画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、前記ステレオカメラにおける3次元座標系の3次元座標とを、前記特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した前記準特定物標の物標候補領域の2次元画像を用いて前記準特定物標の種類を判別し、
前記物標リスト更新手段は、前記物標リストにおいて、前記物標追跡手段で導出された前記特定物標の前記ステレオ画像上の位置および幅と、高さと、物標候補領域の2次元画像と、前記ステレオカメラにおける3次元座標系の3次元座標とを更新し、
前記視差修正手段は、前記新たに取得したステレオ画像から導出された第2視差のうち、前記物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち前記物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する
ことを特徴とする物標検知装置。 - 前記視差修正手段は、前記新たに取得したステレオ画像から導出された第2視差のうち、前記物標追跡手段で切り出された前記準特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち前記物標追跡手段で切り出された前記準特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する
ことを特徴とする請求項1に記載の物標検知装置。 - 前記物標リスト更新手段は、前記物標リストに含まれる物標のうち前記物標追跡手段において相関性が高い対応領域が見つからない物標が所定の条件を満たしたときには、当該物標を前記物標リストから削除する
ことを特徴とする請求項1に記載の物標検知装置。 - 前記物標追跡手段は、過去に取得された複数のステレオ画像における各物標候補の位置から得られる速度ベクトルを用いて前記予想位置を導出する
ことを特徴とする請求項1に記載の物標検出装置。 - 前記物標追跡手段は、前記物標リストに含まれる各物標の2次元画像を正規化してグレースケールモデルに変換し、このグレースケールモデルと、前記物標追跡手段から導出される各物標候補の予想位置を中心とする所定のサイズの2次元画像との相関スコアを求め、この相関スコアの大きさに応じて相関性を評価する
ことを特徴とする請求項1に記載の物標検出装置。 - 前記位置等取得手段は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
前記第1位置情報取得手段は、前記ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得し、
前記直線取得手段は、前記ステレオ画像における各画素を、前記視差修正手段で修正された後の第2視差および前記ステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記ステレオ画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記ステレオ画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記ステレオカメラの焦点距離fとを用いて前記ステレオカメラの俯角αを導出し、
前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記ステレオ画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値を各セルごとに算出し、
前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記ステレオカメラにおける3次元座標系の3次元座標とを取得し、
前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記ステレオ画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記ステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
ことを特徴とする請求項1に記載の物標検出装置。 - 前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
ことを特徴とする請求項6に記載の物標検出装置。 - 前記第3物標導出手段は、前記レーザレーダおよび前記ステレオカメラの、前記第1物標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
ことを特徴とする請求項6に記載の物標検出装置。 - 前記第3物標導出手段は、前記第2物標取得手段で取得された各物標候補のうち存在すると判定した物標候補を除いた残留物標候補の前記ステレオ画像上の位置および幅と、あらかじめ規定された高さとを利用して、前記ステレオ画像から前記残留物標候補の2次元画像を切り出し、切り出した2次元画像のうち、前記第2視差のうち当該切り出した2次元画像から導出された視差と前記第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の画素数が所定の閾値より小さい場合には、その残留物標候補が存在すると判定し、存在すると判定した残留物標候補の前記ステレオ画像上の位置および幅を、前記第2物標取得手段で得られたxy平面上の中心位置および幅を前記ステレオ画像上の位置および幅に変換することにより取得する
ことを特徴とする請求項6に記載の物標検出装置。 - 車両前方のレーダ情報を取得するレーザレーダと、
車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、
前記レーザレーダで取得したレーダ情報および前記光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部と
を備え、
前記制御部は、位置等取得手段と、位置等修正手段と、種類判別手段と、物標リスト登録手段と、物標追跡手段と、物標リスト更新手段と、視差修正手段とを有し、
前記位置等取得手段は、前記レーダ情報と、前記単一画像と、前記レーダ情報から導出された第1視差と、前記単一画像および被写体までの距離から導出された第2視差または前記視差修正手段でされた後の第2視差とから各物標候補の前記単一画像上の位置および幅ならびに高さを導出すると共に、前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを前記単一画像の画素ごとに導出し、
前記位置等修正手段は、前記位置等取得手段で導出された各物標候補の前記単一画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像を前記単一画像から切り出すと共に、切り出した2次元画像およびこれに対応する被写体までの距離から導出される視差を前記第2視差から切り出したのち、前記切り出した2次元画像のうち、前記第2視差のうち当該切り出した2次元画像およびこれに対応する被写体までの距離から導出された視差と前記第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、前記位置等取得手段で導出された各物標候補の前記単一画像上の位置および幅ならびに高さを修正し、
前記種類判別手段は、前記位置等修正手段で切り出された2次元画像または前記第1部分画像を用いて各物標候補の種類を判別し、
前記物標リスト登録手段は、前記種類判別手段および前記物標追跡手段で種類が判別された各物標候補の前記単一画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを物標リストに登録し、
前記物標追跡手段は、新たに取得した単一画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、前記物標リストに記録されている各物標候補の前記ステレオ画像上の位置および幅と、高さと、種類と、前記ステレオカメラにおける3次元座標系の3次元座標とに基づいて、前記新たに取得した単一画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、前記物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて前記特定物標の前記新たに取得した単一画像上の位置および幅ならびに高さを修正すると共に、前記特定物標の前記光飛行時間型距離センサにおける3次元座標系の3次元座標を取得し、修正により得られた前記特定物標の前記新たに取得した単一画像上の位置および幅ならびに高さを利用して前記特定物標の物標候補領域の2次元画像を前記新たに取得した単一画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の前記新たに取得した単一画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを、前記特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した前記準特定物標の物標候補領域の2次元画像を用いて前記準特定物標の種類を判別し、
前記物標リスト更新手段は、前記物標リストにおいて、前記物標追跡手段で導出された前記特定物標の前記単一画像上の位置および幅と、高さと、物標候補領域の2次元画像と、前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを更新し、
前記視差修正手段は、前記新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、前記物標追跡手段で導出された前記特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち前記物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する
ことを特徴とする物標検知装置。 - 前記視差修正手段は、前記新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、前記物標追跡手段で切り出された前記準特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち前記物標追跡手段で切り出された前記準特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する
ことを特徴とする請求項10に記載の物標検知装置。 - 前記物標リスト更新手段は、前記物標リストに含まれる物標のうち前記物標追跡手段において相関性が高い対応領域が見つからない物標が所定の条件を満たしたときには、当該物標を前記物標リストから削除する
ことを特徴とする請求項10に記載の物標検知装置。 - 前記物標追跡手段は、過去に取得された複数の単一画像における各物標候補の位置から得られる速度ベクトルを用いて前記予想位置を導出する
ことを特徴とする請求項10に記載の物標検出装置。 - 前記物標追跡手段は、前記物標リストに含まれる各物標の2次元画像を正規化してグレースケールモデルに変換し、このグレースケールモデルと、前記物標追跡手段から導出される各物標候補の予想位置を中心とする所定のサイズの2次元画像との相関スコアを求め、この相関スコアの大きさに応じて相関性を評価する
ことを特徴とする請求項10に記載の物標検出装置。 - 前記位置等取得手段は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
前記第1位置情報取得手段は、前記光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得し、
前記直線取得手段は、前記単一画像における各画素を、前記視差修正手段で修正された後の第2視差および前記単一画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記単一画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記ステレオ画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
前記俯角情報取得手段は、前記直線L1と、前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記光飛行時間型距離センサの焦点距離fとを用いて前記光飛行時間型距離センサの俯角αを導出し、
前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記単一画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値を各セルごとに算出し、
前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得し、
前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記単一画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
ことを特徴とする請求項10に記載の物標検出装置。 - 前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
ことを特徴とする請求項15に記載の物標検出装置。 - 前記第3物標導出手段は、前記レーザレーダおよび前記光飛行時間型距離センサの、前記第1物標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
ことを特徴とする請求項15に記載の物標検出装置。 - 前記第3物標導出手段は、前記第2物標取得手段で取得された各物標候補のうち存在すると判定した物標候補を除いた残留物標候補の前記単一画像上の位置および幅と、あらかじめ規定された高さとを利用して、前記単一画像から前記残留物標候補の2次元画像を切り出し、切り出した2次元画像のうち、前記第2視差のうち当該切り出した2次元画像から導出された視差と前記第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の画素数が所定の閾値より小さい場合には、その残留物標候補が存在すると判定し、存在すると判定した残留物標候補の前記単一画像上の位置および幅を、前記第2物標取得手段で得られたxy平面上の中心位置および幅を前記単一画像上の位置および幅に変換することにより取得する
ことを特徴とする請求項15に記載の物標検出装置。 - 車両前方のレーダ情報を取得するレーザレーダと、
車両前方のステレオ画像を取得するステレオカメラと、
前記レーザレーダで取得したレーダ情報および前記ステレオカメラで取得したステレオ画像を処理する制御部と
を備え、
前記制御部は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
前記第1位置情報取得手段は、前記ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得し、
前記直線取得手段は、前記ステレオ画像における各画素を、前記ステレオ画像から導出された第2視差および前記ステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記ステレオ画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記ステレオ画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記ステレオカメラの焦点距離fとを用いて前記ステレオカメラの俯角αを導出し、
前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記ステレオ画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値を各セルごとに算出し、
前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記ステレオカメラにおける3次元座標系の3次元座標とを取得し、
前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記ステレオ画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記ステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
ことを特徴とする物標検出装置。 - 前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
ことを特徴とする請求項19に記載の物標検出装置。 - 前記第3物標導出手段は、前記レーザレーダおよび前記ステレオカメラの、前記第1物標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
ことを特徴とする請求項19に記載の物標検出装置。 - 前記第3物標導出手段は、前記第2物標取得手段で取得された各物標候補のうち存在すると判定した物標候補を除いた残留物標候補の前記ステレオ画像上の位置および幅と、あらかじめ規定された高さとを利用して、前記ステレオ画像から前記残留物標候補の2次元画像を切り出し、切り出した2次元画像のうち、前記第2視差のうち当該切り出した2次元画像から導出された視差と前記第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の画素数が所定の閾値より小さい場合には、その残留物標候補が存在すると判定し、存在すると判定した残留物標候補の前記ステレオ画像上の位置および幅を、前記第2物標取得手段で得られたxy平面上の中心位置および幅を前記ステレオ画像上の位置および幅に変換することにより取得する
ことを特徴とする請求項19に記載の物標検出装置。 - 車両前方のレーダ情報を取得するレーザレーダと、
車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、
前記レーザレーダで取得したレーダ情報および前記光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部と
を備え、
前記制御部は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
前記第1位置情報取得手段は、前記光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得し、
前記直線取得手段は、前記単一画像における各画素を、前記単一画像および被写体までの距離から導出された第2視差および前記単一画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記単一画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記単一画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記光飛行時間型距離センサの焦点距離fとを用いて前記光飛行時間型距離センサの俯角αを導出し、
前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記単一画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値を各セルごとに算出し、
前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得し、
前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記単一画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
ことを特徴とする物標検出装置。 - 前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
ことを特徴とする請求項23に記載の物標検出装置。 - 前記第3物標導出手段は、前記レーザレーダおよび前記光飛行時間型距離センサの、前記第1物標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
ことを特徴とする請求項23に記載の物標検出装置。 - 前記第3物標導出手段は、前記第2物標取得手段で取得された各物標候補のうち存在すると判定した物標候補を除いた残留物標候補の前記単一画像上の位置および幅と、あらかじめ規定された高さとを利用して、前記単一画像から前記残留物標候補の2次元画像を切り出し、切り出した2次元画像のうち、前記第2視差のうち当該切り出した2次元画像から導出された視差と前記第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の画素数が所定の閾値より小さい場合には、その残留物標候補が存在すると判定し、存在すると判定した残留物標候補の前記単一画像上の位置および幅を、前記第2物標取得手段で得られたxy平面上の中心位置および幅を前記単一画像上の位置および幅に変換することにより取得する
ことを特徴とする請求項23に記載の物標検出装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007152291A JP5145585B2 (ja) | 2007-06-08 | 2007-06-08 | 物標検出装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007152291A JP5145585B2 (ja) | 2007-06-08 | 2007-06-08 | 物標検出装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008304344A true JP2008304344A (ja) | 2008-12-18 |
| JP5145585B2 JP5145585B2 (ja) | 2013-02-20 |
Family
ID=40233198
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007152291A Expired - Fee Related JP5145585B2 (ja) | 2007-06-08 | 2007-06-08 | 物標検出装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5145585B2 (ja) |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010273178A (ja) * | 2009-05-22 | 2010-12-02 | Konica Minolta Holdings Inc | ステレオ測定システムおよび動画再生システム |
| JP2011014148A (ja) * | 2009-07-06 | 2011-01-20 | Valeo Vision | 自動車用の障害物検知方法 |
| JP2011023002A (ja) * | 2009-07-06 | 2011-02-03 | Valeo Vision | 自動車用の障害物検知方法 |
| JP2011166316A (ja) * | 2010-02-05 | 2011-08-25 | Nippon Telegr & Teleph Corp <Ntt> | 撮像方法、撮像表示装置、及び遠隔対面コミュニケーション装置 |
| JP2011242860A (ja) * | 2010-05-14 | 2011-12-01 | Toyota Motor Corp | 障害物認識装置 |
| WO2012101967A1 (ja) * | 2011-01-25 | 2012-08-02 | パナソニック株式会社 | 測位情報形成装置、検出装置、及び測位情報形成方法 |
| JP2013123221A (ja) * | 2011-12-09 | 2013-06-20 | Ricoh Co Ltd | 道路分割体検知方法及び装置 |
| KR20150080834A (ko) * | 2014-01-02 | 2015-07-10 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
| JP2015132540A (ja) * | 2014-01-14 | 2015-07-23 | 株式会社リコー | 測距装置及びロボットピッキングシステム |
| JP2017532628A (ja) * | 2014-08-05 | 2017-11-02 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | 自動車の周囲エリアの周囲マップを生成するための方法、運転支援システム、および自動車 |
| CN108139475A (zh) * | 2015-09-30 | 2018-06-08 | 索尼公司 | 信号处理设备、信号处理方法和程序 |
| KR101875517B1 (ko) * | 2016-12-16 | 2018-07-09 | (주)넥스트칩 | 영상 처리 방법 및 장치 |
| US20180259621A1 (en) * | 2015-09-30 | 2018-09-13 | Sony Corporation | Signal processing apparatus, signal processing method, program, and object detection system |
| CN109636837A (zh) * | 2018-12-21 | 2019-04-16 | 浙江大学 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
| JP2020160914A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社豊田自動織機 | 物体検出装置 |
| EP3913392A1 (en) * | 2020-05-22 | 2021-11-24 | Hyundai Mobis Co., Ltd. | Method and apparatus for rear cross collision warning |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018095278A1 (zh) * | 2016-11-24 | 2018-05-31 | 腾讯科技(深圳)有限公司 | 飞行器的信息获取方法、装置及设备 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000329852A (ja) * | 1999-05-17 | 2000-11-30 | Nissan Motor Co Ltd | 障害物認識装置 |
| JP2001349944A (ja) * | 2000-06-06 | 2001-12-21 | Mitsubishi Electric Corp | 追尾処理装置 |
| JP2004028727A (ja) * | 2002-06-25 | 2004-01-29 | Fuji Heavy Ind Ltd | 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法 |
| JP2006260098A (ja) * | 2005-03-16 | 2006-09-28 | Matsushita Electric Works Ltd | 障害物検出装置 |
| JP2006292621A (ja) * | 2005-04-13 | 2006-10-26 | Toyota Motor Corp | 物体検出装置 |
| JP4918676B2 (ja) * | 2006-02-16 | 2012-04-18 | 国立大学法人 熊本大学 | 校正装置および校正方法 |
-
2007
- 2007-06-08 JP JP2007152291A patent/JP5145585B2/ja not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000329852A (ja) * | 1999-05-17 | 2000-11-30 | Nissan Motor Co Ltd | 障害物認識装置 |
| JP2001349944A (ja) * | 2000-06-06 | 2001-12-21 | Mitsubishi Electric Corp | 追尾処理装置 |
| JP2004028727A (ja) * | 2002-06-25 | 2004-01-29 | Fuji Heavy Ind Ltd | 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法 |
| JP2006260098A (ja) * | 2005-03-16 | 2006-09-28 | Matsushita Electric Works Ltd | 障害物検出装置 |
| JP2006292621A (ja) * | 2005-04-13 | 2006-10-26 | Toyota Motor Corp | 物体検出装置 |
| JP4918676B2 (ja) * | 2006-02-16 | 2012-04-18 | 国立大学法人 熊本大学 | 校正装置および校正方法 |
Non-Patent Citations (3)
| Title |
|---|
| JPN6012015838; 山田洸太、外4名: '"レーザレーダとステレオ視のフュージョンによる道路走行環境の理解"' 平成18年度電気関係学会九州支部連合大会(第59回連合大会)講演論文集(CD-ROM) , 20060921, p.486 * |
| JPN6012031682; Zhencheng Hu, et al.: '"A Complete U-V-Disparity Study for Stereovision Based 3D Driving Environment Analysis"' Proceedings of the Fifth International Conference on 3-D Digital Imaging and Modeling(3DIM'05) , 20050613, p.204-211 * |
| JPN6012031683; Raphael Labayrade, et al.: '"Real Time Obstacle Detection in Stereovision on Non Flat Road Geometry Through "V-Disparity" Repre' Proceedings of 2002 IEEE Intelligent Vehicle Symposium Vol.2, 20020617, p.646-651 * |
Cited By (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010273178A (ja) * | 2009-05-22 | 2010-12-02 | Konica Minolta Holdings Inc | ステレオ測定システムおよび動画再生システム |
| JP2011014148A (ja) * | 2009-07-06 | 2011-01-20 | Valeo Vision | 自動車用の障害物検知方法 |
| JP2011023002A (ja) * | 2009-07-06 | 2011-02-03 | Valeo Vision | 自動車用の障害物検知方法 |
| JP2011166316A (ja) * | 2010-02-05 | 2011-08-25 | Nippon Telegr & Teleph Corp <Ntt> | 撮像方法、撮像表示装置、及び遠隔対面コミュニケーション装置 |
| JP2011242860A (ja) * | 2010-05-14 | 2011-12-01 | Toyota Motor Corp | 障害物認識装置 |
| JP2012154731A (ja) * | 2011-01-25 | 2012-08-16 | Panasonic Corp | 測位情報形成装置、検出装置、及び測位情報形成方法 |
| US8983130B2 (en) | 2011-01-25 | 2015-03-17 | Panasonic Intellectual Property Management Co., Ltd. | Positioning information forming device, detection device, and positioning information forming method |
| WO2012101967A1 (ja) * | 2011-01-25 | 2012-08-02 | パナソニック株式会社 | 測位情報形成装置、検出装置、及び測位情報形成方法 |
| JP2013123221A (ja) * | 2011-12-09 | 2013-06-20 | Ricoh Co Ltd | 道路分割体検知方法及び装置 |
| KR20150080834A (ko) * | 2014-01-02 | 2015-07-10 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
| KR101641491B1 (ko) | 2014-01-02 | 2016-07-29 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
| JP2015132540A (ja) * | 2014-01-14 | 2015-07-23 | 株式会社リコー | 測距装置及びロボットピッキングシステム |
| US10338601B2 (en) | 2014-08-05 | 2019-07-02 | Valeo Schalter Und Sensoren Gmbh | Method for generating a surroundings map of a surrounding area of a motor vehicle, driver assistance system and motor vehicle |
| JP2017532628A (ja) * | 2014-08-05 | 2017-11-02 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | 自動車の周囲エリアの周囲マップを生成するための方法、運転支援システム、および自動車 |
| US10670697B2 (en) * | 2015-09-30 | 2020-06-02 | Sony Corporation | Signal processing apparatus, signal processing method, and object detection system |
| CN108139475A (zh) * | 2015-09-30 | 2018-06-08 | 索尼公司 | 信号处理设备、信号处理方法和程序 |
| US20180259621A1 (en) * | 2015-09-30 | 2018-09-13 | Sony Corporation | Signal processing apparatus, signal processing method, program, and object detection system |
| EP3358364A4 (en) * | 2015-09-30 | 2019-03-13 | Sony Corporation | SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING, PROGRAM AND OBJECT DETECTION SYSTEM |
| EP3358368A4 (en) * | 2015-09-30 | 2019-03-13 | Sony Corporation | SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD AND PROGRAM |
| US11719788B2 (en) | 2015-09-30 | 2023-08-08 | Sony Corporation | Signal processing apparatus, signal processing method, and program |
| US11061111B2 (en) | 2015-09-30 | 2021-07-13 | Sony Corporation | Signal processing apparatus, signal processing method, and object detection system |
| JPWO2017057041A1 (ja) * | 2015-09-30 | 2018-08-09 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
| KR101875517B1 (ko) * | 2016-12-16 | 2018-07-09 | (주)넥스트칩 | 영상 처리 방법 및 장치 |
| CN109636837B (zh) * | 2018-12-21 | 2023-04-28 | 浙江大学 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
| CN109636837A (zh) * | 2018-12-21 | 2019-04-16 | 浙江大学 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
| JP2020160914A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社豊田自動織機 | 物体検出装置 |
| EP3913392A1 (en) * | 2020-05-22 | 2021-11-24 | Hyundai Mobis Co., Ltd. | Method and apparatus for rear cross collision warning |
| CN113706887A (zh) * | 2020-05-22 | 2021-11-26 | 现代摩比斯株式会社 | 用于后方交叉碰撞警告的方法和装置 |
| US12007503B2 (en) | 2020-05-22 | 2024-06-11 | Hyundai Mobis Co., Ltd. | Method and apparatus for rear cross collision warning |
| US12287427B2 (en) | 2020-05-22 | 2025-04-29 | Hyundai Mobis Co., Ltd. | Method and apparatus for rear cross collision warning |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5145585B2 (ja) | 2013-02-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5145585B2 (ja) | 物標検出装置 | |
| US10690770B2 (en) | Navigation based on radar-cued visual imaging | |
| JP6550881B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
| JP6519262B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
| JP6340850B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
| EP2639781A1 (en) | Vehicle with improved traffic-object position detection | |
| JP5804180B2 (ja) | 立体物検出装置 | |
| JP6150164B2 (ja) | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム | |
| WO2017090326A1 (ja) | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム | |
| JP5682735B2 (ja) | 立体物検出装置 | |
| JP5943077B2 (ja) | 立体物検出装置および立体物検出方法 | |
| JP5743020B2 (ja) | 立体物検出装置 | |
| JP5482672B2 (ja) | 移動物体検出装置 | |
| US12371068B2 (en) | Electronic instrument, movable apparatus, distance calculation method, and storage medium | |
| JP7165630B2 (ja) | 認識システム、車両制御システム、認識方法、およびプログラム | |
| CN108535727A (zh) | 跟踪主车辆附近的多个对象的方法 | |
| US11861914B2 (en) | Object recognition method and object recognition device | |
| JP6340849B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム | |
| Kim et al. | An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing | |
| Ponsa et al. | On-board image-based vehicle detection and tracking | |
| JP2025115612A (ja) | 環境認識装置 | |
| JP2024037536A (ja) | 認識システム | |
| JP5668891B2 (ja) | 立体物検出装置 | |
| Krapukhina et al. | A method for constructing an actual virtual map of the road scene for recognition of dangerous situations in real time |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100607 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100611 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120319 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120327 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120528 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
| RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20120730 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120820 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120903 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121011 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121107 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |