[go: up one dir, main page]

JP6464783B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP6464783B2
JP6464783B2 JP2015020323A JP2015020323A JP6464783B2 JP 6464783 B2 JP6464783 B2 JP 6464783B2 JP 2015020323 A JP2015020323 A JP 2015020323A JP 2015020323 A JP2015020323 A JP 2015020323A JP 6464783 B2 JP6464783 B2 JP 6464783B2
Authority
JP
Japan
Prior art keywords
image
road
target
detection device
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015020323A
Other languages
Japanese (ja)
Other versions
JP2016143324A (en
Inventor
悠貴 大石
悠貴 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015020323A priority Critical patent/JP6464783B2/en
Publication of JP2016143324A publication Critical patent/JP2016143324A/en
Application granted granted Critical
Publication of JP6464783B2 publication Critical patent/JP6464783B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に備えられたカメラにより撮像された画像から特定の対象物を検出する技術に関する。   The present invention relates to a technique for detecting a specific object from an image captured by a camera provided in a vehicle.

特許文献1には、車両に搭載されたカメラによる撮像画像から対象物を認識する車両周辺監視装置において、自車両と対象物との相対的な位置関係に基づき、対象物の認識処理を開始するタイミングや、対象物を認識するための画像処理範囲(認識枠)を決定する技術が記載されている。このような技術により、対象物の認識を的確なタイミングで始め、かつ高精度に認識することができるとされている。   In Patent Literature 1, in a vehicle periphery monitoring device that recognizes an object from a captured image by a camera mounted on the vehicle, recognition processing for the object is started based on a relative positional relationship between the host vehicle and the object. A technique for determining timing and an image processing range (recognition frame) for recognizing an object is described. With such a technique, it is said that recognition of an object can be started at an accurate timing and can be recognized with high accuracy.

特開2005−347945号公報JP 2005-347945 A

上述の先行技術によれば、自車両と対象物との相対的な位置関係に基づいて、対象物に対する認識処理を開始するタイミングや認識枠を的確に決定できるものの、その認識処理の結果について信頼性を評価することについて考慮されていない。そのため、認識枠内に複数の対象物らしき物体がある場合、認識すべき対象物とは別の物体を対象物として誤検出する可能性がある。   According to the above-described prior art, although the timing and the recognition frame for starting the recognition process for the object can be accurately determined based on the relative positional relationship between the host vehicle and the object, the result of the recognition process is reliable. No consideration is given to assessing sex. Therefore, when there are a plurality of objects that appear to be objects in the recognition frame, there is a possibility that an object other than the object to be recognized is erroneously detected as the object.

また、通常、センサの取付け位置の設置誤差や、振動によりセンサの姿勢が変化する誤差を考慮して、認識枠は余裕をもって大き目に設定される。加えて、対象物が存在すると期待される実空間上における位置情報を予め取得する位置取得手段(先行技術においてはGPSによる自車両位置情報と対象物の実空間上における位置が格納された地図データベースの組合せ)と、実際に現在時刻において対象物を認識する認識手段(先行技術においてはカメラ)とが、別センサとして構成される。このため、位置取得手段によって取得された位置情報を、認識手段に対して精密に対応付けることができない。したがって、認識手段において、対象物の実際の画像面積よりも大きな認識枠を設定せざるを得ず、認識枠内に対象物以外の物体が含まれる可能性が高まる。   In general, the recognition frame is set to a large size with a margin in consideration of an installation error of the sensor mounting position and an error in which the posture of the sensor changes due to vibration. In addition, position acquisition means for acquiring in advance position information in the real space where the object is expected to exist (in the prior art, a map database storing the position information of the object in the real space and the position information of the object in the real space by GPS And a recognition means (a camera in the prior art) that actually recognizes the object at the current time is configured as a separate sensor. For this reason, the position information acquired by the position acquisition unit cannot be precisely associated with the recognition unit. Therefore, the recognition means must set a recognition frame larger than the actual image area of the target object, and the possibility that an object other than the target object is included in the recognition frame increases.

例えば、自車両が従うべき交通信号機を対象物として想定した場合において、対象物となる交通信号機の他に、隣接する別道路や1つ先の交差点の交通信号機を含む複数の交通信号機を認識枠内で検出することが考えられる。このような場合、自車両が従うべき交通信号機とは別の交通信号機に対する認識結果に基づいて、誤った車両制御や情報提供が行われるおそれがある。また、先行車両の尾灯や制動灯等のように、対象物としての交通信号機と似た模様を持つ物体が認識枠に映りこんだときに、交通信号機でない物体を対象物として誤検出してしまう可能性がある。   For example, when a traffic signal to be followed by the host vehicle is assumed as an object, in addition to the traffic signal that is the object, a plurality of traffic signals including a traffic signal at another adjacent road or one intersection ahead is recognized. It is possible to detect within. In such a case, there is a possibility that erroneous vehicle control or information provision may be performed based on a recognition result for a traffic signal different from the traffic signal that the host vehicle should follow. Also, when an object with a pattern similar to the traffic signal as the target object appears in the recognition frame, such as the taillight or brake light of the preceding vehicle, an object that is not a traffic signal is erroneously detected as the target object. there is a possibility.

本発明は、上記問題を解決するためになされたものである。本発明の目的は、画像認識による対象物の検出結果の信頼性を評価することにより、画像認識による検出性能を向上させるための技術を提供することにある。   The present invention has been made to solve the above problems. The objective of this invention is providing the technique for improving the detection performance by image recognition by evaluating the reliability of the detection result of the target object by image recognition.

本発明の物体検出装置は、自車両に設けられた撮像手段により撮像された車両周辺の画像の中から、特定の対象物を検出する物体検出装置であって、画像認識手段と、画像位置取得手段と、評価手段と、判断手段とを備える。   An object detection device according to the present invention is an object detection device that detects a specific target object from an image around a vehicle imaged by an imaging unit provided in the host vehicle. Means, evaluation means, and judgment means.

画像認識手段は、撮像手段により撮像された画像に対して画像処理による物標検出処理を行い、画像の中から対象物の候補である候補物標を検出する。画像位置取得手段は、撮像手段により撮像された画像について、画像認識手段により検出された候補物標に相当する画像部分の実空間における自車両との相対位置に関する画像位置情報を取得する。評価手段は、画像位置情報で表される候補物標に相当する画像部分の実空間における位置と、自車両の現在位置及び所与の地図データに基づいて特定した検出すべき対象物の位置との比較に基づいて、画像認識手段により検出された候補物標に関する信頼性を評価する。判断手段は、評価手段による信頼性の評価結果に応じて、候補物標が実際に対象物であるか否かを判断する。   The image recognition means performs target detection processing by image processing on the image picked up by the image pickup means, and detects candidate targets that are candidate objects from the image. The image position acquisition means acquires image position information relating to a relative position of the image portion corresponding to the candidate target detected by the image recognition means with respect to the host vehicle in the real space for the image captured by the imaging means. The evaluation means includes the position in the real space of the image portion corresponding to the candidate target represented by the image position information, the current position of the host vehicle and the position of the target object to be detected specified based on the given map data. Based on these comparisons, the reliability of the candidate target detected by the image recognition means is evaluated. The determining means determines whether or not the candidate target is actually an object in accordance with the reliability evaluation result by the evaluating means.

本発明によれば、自車両と対象物との相対位置を基準として、検出された候補物標が認識すべき対象物であるか否かを的確に判断できる。つまり、撮像された画像から測定される候補物標の実空間における位置と、地図データに記されている対象物の実空間における位置とが合っていれば、物体検出結果が正しいと推定することができる。一方、撮像画像から測定した候補物標の実空間における位置と、地図データに基づく対象物の実空間における位置とが離れていれば、その候補物標は非対象物であると推定することができる。このようにすることで、たとえ、同じ画像から対象物によく似た候補物標が複数検出されたとしても、検出された候補物標が認識すべき対象物であるか否かを的確に判断でき、画像認識による検出性能を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, it can be judged exactly whether the detected candidate target is a target object which should be recognized on the basis of the relative position of the own vehicle and a target object. In other words, if the position in the real space of the candidate target measured from the captured image matches the position in the real space of the object described in the map data, the object detection result is assumed to be correct. Can do. On the other hand, if the position in the real space of the candidate target measured from the captured image is separated from the position in the real space of the target object based on the map data, it can be estimated that the candidate target is a non-target object. it can. In this way, even if a plurality of candidate targets that are similar to the target are detected from the same image, it is accurately determined whether or not the detected candidate target is the target to be recognized. And detection performance by image recognition can be improved.

物体検出装置の構成を表すブロック図。The block diagram showing the structure of an object detection apparatus. 地図データの情報内容を模式的に表す説明図。Explanatory drawing which represents the information content of map data typically. 物体検出処理の手順を表すフローチャート。The flowchart showing the procedure of an object detection process. 認識枠の設定例を表す説明図。Explanatory drawing showing the example of a setting of a recognition frame. 認識枠内で検出された候補物標(交通信号機の候補)を表す説明図。Explanatory drawing showing the candidate target (traffic signal candidate) detected within the recognition frame.

以下、本発明の実施形態を図面に基づいて説明する。なお、本発明は下記の実施形態に限定されるものではなく様々な態様にて実施することが可能である。
[物体検出装置の構成の説明]
実施形態の物体検出装置の構成について、図1を参照しながら説明する。物体検出装置は、画像処理を行うプロセッサ(不図示)を含むコンピュータを中心に構成されており、撮像部10により撮像された画像の中から特定の対象物を検出する画像認識処理を行う機能を有する。この物体検出装置は、車両に搭載され、例えば自動運転等の各種の車両制御に用いられる物体情報の検出を担う車載システムとして具現化される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, this invention is not limited to the following embodiment, It is possible to implement in various aspects.
[Description of configuration of object detection apparatus]
The configuration of the object detection apparatus according to the embodiment will be described with reference to FIG. The object detection apparatus is mainly configured by a computer including a processor (not shown) that performs image processing, and has a function of performing image recognition processing for detecting a specific target object from images captured by the imaging unit 10. Have. This object detection apparatus is mounted on a vehicle and embodied as an in-vehicle system that is responsible for detecting object information used for various vehicle controls such as automatic driving.

撮像部10は、車両の前方を撮像する車載カメラで構成される。この撮像部10は、例えば、左右一対のカメラによって構成されるステレオカメラで具現化される。このステレオカメラは、自車両の進行方向に向けて平行等位の位置に配置され、互いに共通する領域(自車両の前方領域)を同一タイミングで撮像し、左右一対の画像からなるステレオ画像を得る。この撮像部10は、後述の候補物標検出部17による画像認識処理、及び後述の画像距離推定部18による画像処理で用いられる画像を取得するためのセンサである。画像入力部11は、撮像部10により撮像された画像を表す画像データを候補物標検出部17に入力する入力インタフェースである。   The imaging unit 10 is configured with an in-vehicle camera that images the front of the vehicle. The imaging unit 10 is embodied by a stereo camera configured by a pair of left and right cameras, for example. This stereo camera is arranged at a parallel equiposition to the traveling direction of the host vehicle, and images a common area (a front area of the host vehicle) at the same timing to obtain a stereo image composed of a pair of left and right images. . The imaging unit 10 is a sensor for acquiring an image used in image recognition processing by a candidate target detection unit 17 described later and image processing performed by an image distance estimation unit 18 described later. The image input unit 11 is an input interface that inputs image data representing an image captured by the imaging unit 10 to the candidate target detection unit 17.

位置情報入力部12は、例えばGPS(Global positioning System)受信機等による衛星測位情報や、車速センサ、ジャイロセンサ、加速センサ等による自律測位情報を入力する機能を担う。現在位置推定部13は、位置情報入力部12から入力された情報に基づいて、自車両の現在位置を推定する機能を担う。   The position information input unit 12 has a function of inputting satellite positioning information by a GPS (Global positioning System) receiver or the like, and autonomous positioning information by a vehicle speed sensor, a gyro sensor, an acceleration sensor, or the like. The current position estimation unit 13 has a function of estimating the current position of the host vehicle based on information input from the position information input unit 12.

地図データベース14は、道路地図に関する情報が記された地図データを格納する記憶装置である。地図データベース14に格納されている地図データには、交差点や分岐点、道路の形状点に対応する各ノードに関する情報(位置座標等)や、ノード間を接続する道路のリンクに関する情報等が含まれる。さらに、地図データベース14に格納されている地図データには、本実施形態の物体検出装置により検出される対象物に関する位置情報が含まれる。本実施形態では、道路において従うべき交通情報を提示する物体を、対象物として想定している。具体的には、交通信号機や電光掲示板といった、提示する情報内容が経時的に変化するものや、道路標識や、区画線、道路標示等が挙げられる。   The map database 14 is a storage device that stores map data in which information about road maps is recorded. The map data stored in the map database 14 includes information on each node corresponding to intersections, branch points, road shape points (position coordinates, etc.), information on road links connecting the nodes, and the like. . Further, the map data stored in the map database 14 includes position information related to the object detected by the object detection device of the present embodiment. In the present embodiment, an object presenting traffic information to be followed on a road is assumed as a target object. Specifically, the information contents to be presented such as traffic lights and electric bulletin boards change over time, road signs, lane markings, road markings, and the like.

ここで、地図データの対象物に関する情報内容について、図2を参照しながら説明する。図2に例示されるとおり、地図データには道路を構成する情報として、交差点や道路の形状点に対応するノードと、ノード間を接続する道路のリンクが記されている。   Here, the information content regarding the object of map data is demonstrated, referring FIG. As illustrated in FIG. 2, the map data includes nodes corresponding to intersections and road shape points and road links connecting the nodes as information constituting the roads.

また、交差点のノードには、当該ノードに接続する道路のリンクと、そのリンクで表される道路において従うべき交通情報を提示する対象物とが対応付けて定義されている。図2の事例では、交差点のノードαに接続するリンクaを走行する車両が従うべき対象物として、信号機a,b、停止線a等が定義されているものとする。そして、信号機や停止線等の個々の対象物について、位置情報が定義されている。この対象物の位置情報は、各対象物が対応付けられているノード等の基準地点の位置座標(例えば、緯度・経度)に対する相対的な位置や、対象物の大きさ(幅)を表す情報である。   In addition, a road link connected to the node and an object presenting traffic information to be followed on the road represented by the link are defined in association with the node at the intersection. In the example of FIG. 2, it is assumed that traffic lights a and b, a stop line a and the like are defined as objects to be followed by a vehicle traveling on a link a connected to the node α at the intersection. And position information is defined about each object, such as a traffic light and a stop line. The position information of the target object is information indicating a relative position with respect to position coordinates (for example, latitude / longitude) of a reference point such as a node to which each target object is associated, and the size (width) of the target object. It is.

例えば、道路の延伸方向(すなわち、車両の進行方向)に対して横に垂直な方向をX軸、道路の延伸方向に一致する方向をY軸、X軸Y軸双方に対して垂直な高さ方向をZ軸として、交通信号機に関する位置情報は、対応するノードの位置座標を基準とする偏差(ΔX,ΔY,ΔZ)として定義される。また、交通信号機の大きさ(幅)が、Wとして定義される。また、停止線に関する位置座標は、対応するノードの位置座標を基準とする偏差(ΔX,ΔY)として定義される。また、停止線の幅が、Wとして定義される。   For example, the direction perpendicular to the road extending direction (that is, the traveling direction of the vehicle) is the X axis, the direction coinciding with the road extending direction is the Y axis, and the height perpendicular to both the X axis and the Y axis. With the direction as the Z-axis, the position information regarding the traffic signal is defined as a deviation (ΔX, ΔY, ΔZ) with reference to the position coordinates of the corresponding node. In addition, the size (width) of the traffic signal is defined as W. Further, the position coordinates regarding the stop line are defined as deviations (ΔX, ΔY) with reference to the position coordinates of the corresponding node. In addition, the width of the stop line is defined as W.

図1の説明に戻る。認識タイミング決定部15は、現在位置推定部13により推定された現在位置と、地図データベース14の地図データに記された対象物の位置情報に基づいて、対象物を検出するための画像認識処理を実行するタイミングを決定する。認識枠決定部16は、自車両の現在位置と自車両の進路前方に存在する対象物との位置関係に基づいて、撮像部10により撮像された画像から対象物を検出するための画像処理範囲(認識枠)の位置・大きさを決定する。   Returning to the description of FIG. The recognition timing determination unit 15 performs image recognition processing for detecting an object based on the current position estimated by the current position estimation unit 13 and the position information of the object described in the map data of the map database 14. Decide when to run. The recognition frame determination unit 16 is an image processing range for detecting an object from an image captured by the imaging unit 10 based on a positional relationship between the current position of the host vehicle and the object existing in the forward direction of the host vehicle. Determine the position and size of the (recognition frame).

候補物標検出部17は、前記認識タイミング決定部15により決定されたタイミングにおいて、画像入力部11から入力された撮像画像に対して、認識枠決定部16により決定された認識枠の範囲で周知のパターンマッチング等の画像認識処理を行う。この画像認識処理により、候補物標検出部17は撮像画像の中から対象物の候補である候補物標が存在する画像部分を検出する。   The candidate target detection unit 17 is well-known in the recognition frame range determined by the recognition frame determination unit 16 for the captured image input from the image input unit 11 at the timing determined by the recognition timing determination unit 15. Image recognition processing such as pattern matching is performed. By this image recognition processing, the candidate target detection unit 17 detects an image portion where a candidate target that is a candidate for the target exists from the captured image.

画像距離推定部18は、撮像部10により取得された画像から、候補物標検出部17により検出された候補物標と自車両との実空間における相対位置を推定する。具体的には、撮像部10がステレオカメラで構成されている場合、画像距離推定部18は、周知のステレオ法等の三次元計測技術を用いて、撮像部10により撮像されたステレオ画像の距離情報を取得する。この距離情報は、画像を構成するピクセル単位で物体の実空間における距離を表す情報を対応付けたものである。   The image distance estimation unit 18 estimates the relative position in real space between the candidate target detected by the candidate target detection unit 17 and the host vehicle from the image acquired by the imaging unit 10. Specifically, when the imaging unit 10 is configured by a stereo camera, the image distance estimation unit 18 uses a three-dimensional measurement technique such as a well-known stereo method to detect the distance between stereo images captured by the imaging unit 10. Get information. This distance information is associated with information representing the distance of the object in the real space in units of pixels constituting the image.

そして、画像距離推定部18は、画像から取得した距離情報と、候補物標検出部17により検出された候補物標の画像上における位置座標に基づいて、候補物標と自車両との相対位置(横方向偏差、奥行方向偏差、高さ方向偏差)を推定する。   Then, the image distance estimation unit 18 determines the relative position between the candidate target and the host vehicle based on the distance information acquired from the image and the position coordinates on the image of the candidate target detected by the candidate target detection unit 17. (Lateral direction deviation, depth direction deviation, height direction deviation) is estimated.

信頼性評価部19は、候補物標検出部17により検出された候補物標について信頼性を評価する。候補物標の対象物らしさを表す信頼性は、画像距離推定部18により推定された候補物標の相対位置と、地図データに記された対象物の位置情報に基づく自車両と対象物との相対位置とを比較することにより導出される。   The reliability evaluation unit 19 evaluates the reliability of the candidate target detected by the candidate target detection unit 17. The reliability representing the object likeness of the candidate target is determined based on the relative position of the candidate target estimated by the image distance estimation unit 18 and the vehicle and the object based on the position information of the object described in the map data. It is derived by comparing the relative position.

物体判別部20は、信頼性評価部19による評価結果に基づいて、候補物標が実際に対象物であるか否かを判定する。車両制御部21は、物体判別部20により判定された対象物が示す交通情報(例えば、信号の現示色や停止線)を認識し、認識した交通情報に基づく情報提示や走行安全に係る車両制御を実行する。具体的には、車両制御部21は、対象物の認識結果に応じて、例えば、交通信号機の現示状況に基づく交差点への進入・停止判断を行い、その判断結果に基づいて、車両の加速・操舵・制動等の運転操作を自動的に行ったり、運転者に対する情報提示を行う。   The object determination unit 20 determines whether or not the candidate target is actually a target based on the evaluation result by the reliability evaluation unit 19. The vehicle control unit 21 recognizes traffic information indicated by the object determined by the object determination unit 20 (for example, a current signal color or a stop line), and a vehicle related to information presentation or travel safety based on the recognized traffic information. Execute control. Specifically, for example, the vehicle control unit 21 determines whether to enter or stop an intersection based on the current traffic signal display status according to the recognition result of the object, and based on the determination result, accelerates the vehicle.・ Automatically perform driving operations such as steering and braking, and present information to the driver.

[物体検出処理の説明]
実施形態の物体検出装置が備える各部により実行される処理の手順について、図3のフローチャートを参照しながら説明する。
[Description of object detection processing]
A procedure of processing executed by each unit included in the object detection device of the embodiment will be described with reference to a flowchart of FIG.

S100では、認識タイミング決定部15が、現在位置推定部13により推定された自車両の現在位置を基準とする周辺の地図データを、地図データデータベース14から読込む。S102では、認識タイミング決定部15が、S101で読込んだ地図データに基づいて、自車両の現在位置に対応する道路(すなわち、自車両が現在走行している道路)のリンクを特定する。   In S <b> 100, the recognition timing determination unit 15 reads, from the map data database 14, surrounding map data based on the current position of the host vehicle estimated by the current position estimation unit 13. In S102, the recognition timing determination unit 15 specifies the link of the road corresponding to the current position of the host vehicle (that is, the road on which the host vehicle is currently traveling) based on the map data read in S101.

S104では、認識タイミング決定部15が、S101で読込んだ地図データに記された道路と対象物に関する位置情報に基づいて、自車両が現在走行している道路の進行方向前方の規定距離内に認識すべき対象物が存在するか否かを判定する。ここでは、自車両の現在位置と、地図データに記された道路と対象物との対応関係に基づいて、現時点で従うべき対象物のみに認識すべき対象を絞り込むことが考えられる。あるいは、全ての対象物を検出すべき対象としたうえで、画像認識後に現時点で従うべき対象物を選択する処理を実施してもよい。ここでいう、現時点で従うべき対象物とは、例えば、自車両の現在位置から直近の交差点や道路に対応する交通信号機や、停止線、道路標識等である。   In S104, the recognition timing determination unit 15 is within a specified distance ahead of the traveling direction of the road on which the vehicle is currently traveling based on the position information regarding the road and the object described in the map data read in S101. It is determined whether there is an object to be recognized. Here, based on the current vehicle position and the correspondence between the road and the object described in the map data, it is conceivable to narrow down the objects to be recognized only to the object to be followed at the present time. Alternatively, after all the objects are to be detected, a process for selecting an object to be followed at the present time after image recognition may be performed. The target object to be followed at this time is, for example, a traffic signal, a stop line, a road sign, or the like corresponding to the nearest intersection or road from the current position of the host vehicle.

進行方向前方の規定距離内に対象物が存在しない場合(S104:NO)、物体検出装置は本処理を終了する。一方、進行方向前方の規定距離内に対象物が存在する場合(S104:YES)、物体検出装置はS106に進む。S106では、認識タイミング決定部15が、対象物を検出するための画像認識処理を開始するタイミングを決定する。具体的には、S104において判定された認識すべき対象物と自車両との相対的な位置関係や、自車両の速度、道路形状、予定進路に基づいて、例えば、対象物と自車両との距離が規定値になると推定される時刻を、画像認識処理を開始するタイミングとして決定する。   When there is no target object within the specified distance ahead in the traveling direction (S104: NO), the object detection apparatus ends this process. On the other hand, when the target is present within the specified distance ahead in the traveling direction (S104: YES), the object detection apparatus proceeds to S106. In S106, the recognition timing determination part 15 determines the timing which starts the image recognition process for detecting a target object. Specifically, based on the relative positional relationship between the object to be recognized determined in S104 and the host vehicle, the speed of the host vehicle, the road shape, and the planned course, for example, the target and the host vehicle The time when the distance is estimated to be a predetermined value is determined as the timing for starting the image recognition process.

なお、ここでいう予定進路とは、カーナビゲーションシステムにおいて設定された案内経路や、車両の自動運転機能において設定された走行予定の経路等、今後走行することが予定されている進路である。S106で決定されたタイミングの到来以降、物体検出装置は、対象物を検出するための画像認識処理を開始し、所定の周期で画像入力部11から入力される画像データに対して、画像認識処理を所定期間継続する。   Here, the planned route is a route scheduled to travel in the future, such as a guide route set in the car navigation system or a planned travel route set in the automatic driving function of the vehicle. After the arrival of the timing determined in S106, the object detection apparatus starts image recognition processing for detecting the target object, and performs image recognition processing on image data input from the image input unit 11 at a predetermined cycle. Is continued for a predetermined period.

この際、S108では、認識枠決定部16が、画像全体の中から画像認識の対象となる一部領域(認識枠)の位置・大きさを決定する。具体的には、認識枠決定部16は、画像が撮像された時点における自車両の現在位置と、地図データに記された対象物の位置情報とに基づき、対象物と自車両との相対的な位置関係を算出する。対象物と自車両との相対的な位置関係は、横方向偏差、奥行方向偏差、高さ方向偏差で表される。そして、対象物と自車両との相対的な位置関係、自車両の速度、道路形状、予定進路等に基づいて、地図データに記された対象物が画像上に存在すると推定される位置を包含する範囲を認識枠に決定する。   At this time, in S108, the recognition frame determination unit 16 determines the position / size of a partial area (recognition frame) to be subjected to image recognition from the entire image. Specifically, the recognition frame determination unit 16 determines the relative position between the target object and the host vehicle based on the current position of the host vehicle at the time when the image is captured and the position information of the target object described in the map data. The relative positional relationship is calculated. The relative positional relationship between the object and the host vehicle is represented by a lateral deviation, a depth deviation, and a height deviation. Then, based on the relative positional relationship between the target object and the host vehicle, the speed of the host vehicle, the road shape, the planned route, etc., the position where the target object described in the map data is estimated to exist on the image is included. The range to be recognized is determined as a recognition frame.

なお、認識枠の位置や大きさを決定するにあたって、地図データに記された対象物の位置情報は、自車両に対する横方向偏差、奥行方向偏差、及び高さ方向偏差を一意に特定できる情報で構成されていることが理想的である。しかし、地図データに記された対象物の位置情報の一部が欠けている場合、対象物が設置される基準となる法規や仕様等の既存知識を利用して、自車両と対象物との相対位置を推定してもよい。検出された候補物標の信頼性を評価する際(後述)についても、同様である。   In determining the position and size of the recognition frame, the position information of the object described in the map data is information that can uniquely identify the lateral deviation, the depth direction deviation, and the height direction deviation with respect to the host vehicle. Ideally configured. However, if some of the location information of the object described in the map data is missing, use existing knowledge such as the regulations and specifications that will be the basis for the installation of the object, and The relative position may be estimated. The same applies to the evaluation of the reliability of the detected candidate target (described later).

S108において決定された認識枠の具体例を図4に示す。図4の事例では、認識すべき対象物として、自車両の前方直近の交差点に設置されている交通信号機を想定している。図4に例示されるとおり、画像には、自車両の前方直近の交差点に設置されている交通信号機が現示している赤信号(従うべき直近の赤信号)が写っている。その他にも、直近の交差点より先にある交差点に設置されている交通信号機が現示する青信号や、先行車両の後部が写っている。   A specific example of the recognition frame determined in S108 is shown in FIG. In the example of FIG. 4, the traffic signal installed in the intersection nearest the front of the own vehicle is assumed as an object to be recognized. As illustrated in FIG. 4, the image shows a red signal (the latest red signal to be followed) indicated by a traffic signal installed at the nearest intersection in front of the host vehicle. In addition, a green light displayed by a traffic signal installed at an intersection ahead of the most recent intersection and the rear part of the preceding vehicle are shown.

そして、この画像に対して、自車両の前方直近の交差点に設置されている交通信号機を認識するための2つの認識枠1,2(破線部)が設定されている。図4の事例のように、認識枠は、1つの画像上に複数箇所にわたって設定されてもよい。また、認識枠の形状については、矩形に限らず様々な形状であってもよい。   And the two recognition frames 1 and 2 (dashed line part) for recognizing the traffic signal installed in the nearest intersection ahead of the own vehicle are set with respect to this image. As in the case of FIG. 4, the recognition frame may be set over a plurality of locations on one image. Further, the shape of the recognition frame is not limited to a rectangle and may be various shapes.

図3のフローチャートの説明に戻る。S110では、候補物標検出部17が、S108で設定された認識枠内の画像部分に対して、対象物の候補である候補物標を検出するための画像認識処理を実行する。S110の画像認識処理の事例を図5に示す。なお、図5の事例は、図4で例示した認識枠に対する画像認識処理の結果を表したものである。ここでは、認識すべき対象物として、自車両の前方直近の交差点に設置されている交通信号機を想定している。   Returning to the flowchart of FIG. In S110, the candidate target detection unit 17 performs image recognition processing for detecting a candidate target that is a candidate for the target, on the image portion within the recognition frame set in S108. An example of the image recognition processing in S110 is shown in FIG. In addition, the example of FIG. 5 represents the result of the image recognition process with respect to the recognition frame illustrated in FIG. Here, the traffic signal installed in the intersection nearest the front of the own vehicle is assumed as an object to be recognized.

図5に例示されるとおり、認識枠1の中から候補物標として、従うべき直近の赤信号が検出されている。一方、認識枠2の中から候補物標として、先の交差点の青信号や先行車の尾灯が検出されている。認識枠1,2の中から検出された複数の候補物標のうち、認識すべき対象物に該当するのは、従うべき直近の赤信号である。これに対し、先の交差点の青信号や先行車の尾灯については、認識すべき対象物に該当しない物体である。これらの物体については、認識すべき対象物と画像上の特徴が似ている物体が認識枠内に含まれていたために、偶然に検出された状況を想定したものである。   As illustrated in FIG. 5, the latest red signal to be followed is detected as a candidate target from the recognition frame 1. On the other hand, from the recognition frame 2, as a candidate target, a green light at the previous intersection and a taillight of the preceding vehicle are detected. Among the plurality of candidate targets detected from the recognition frames 1 and 2, the latest red signal to be followed corresponds to the object to be recognized. On the other hand, the green light at the previous intersection and the taillight of the preceding vehicle are objects that do not correspond to the object to be recognized. These objects are assumed to have been detected by chance because an object whose characteristics on the image are similar to the object to be recognized is included in the recognition frame.

図3のフローチャートの説明に戻る。S112では、画像距離推定部18が、S110の画像認識処理に用いられた画像から、S110において検出された各候補物標と自車両との実空間における相対位置を表す画像位置情報を取得する。具体的には、画像距離推定部18は、候補物標の実空間における距離を表す情報を、候補物標の画像を構成するピクセル単位で対応付けた距離情報を取得する。そして、取得した距離情報と候補物標の画像上における位置座標に基づいて、候補物標と自車両との相対位置を算出する。候補物標と自車両との相対位置は、自車両の位置を基準とする横方向偏差、奥行方向偏差、高さ方向偏差で表される。   Returning to the flowchart of FIG. In S112, the image distance estimation unit 18 acquires image position information representing a relative position in real space between each candidate target detected in S110 and the host vehicle from the image used in the image recognition process in S110. Specifically, the image distance estimation unit 18 acquires distance information in which information representing the distance of the candidate target in the real space is associated in units of pixels constituting the candidate target image. Then, based on the acquired distance information and the position coordinates on the image of the candidate target, the relative position between the candidate target and the host vehicle is calculated. The relative position between the candidate target and the host vehicle is represented by a lateral deviation, a depth direction deviation, and a height direction deviation based on the position of the host vehicle.

S114では、信頼性評価部19が、S110において検出された候補物標それぞれについて信頼性を評価する。ここでは、信頼性評価部19は、S112で算出された画像上の候補物標の相対位置と、S104において地図データから判定された対象物と自車両との相対位置とを比較し、両者の偏差を算出する。そして、算出した偏差の大きさに応じて信頼性の評価を決定する。具体的には、画像上の候補物標の相対位置と、地図データに記された対象物の相対位置との偏差が小さいほど信頼性を高く評価し、偏差が大きいほど信頼性を低く評価する。あるいは、画像認識処理において候補物標が検出されたときの、基準モデルとの一致度を表すパターンマッチングのスコアと、信頼性の評価結果とを総合して、総合信頼度を算出する構成であってもよい。   In S114, the reliability evaluation unit 19 evaluates the reliability of each candidate target detected in S110. Here, the reliability evaluation unit 19 compares the relative position of the candidate target on the image calculated in S112 with the relative position of the object determined from the map data in S104 and the host vehicle. Calculate the deviation. And reliability evaluation is determined according to the magnitude | size of the calculated deviation. Specifically, the smaller the deviation between the relative position of the candidate target on the image and the relative position of the object described in the map data, the higher the reliability, and the larger the deviation, the lower the reliability. . Alternatively, the overall reliability is calculated by combining the pattern matching score indicating the degree of coincidence with the reference model and the reliability evaluation result when a candidate target is detected in the image recognition process. May be.

S116では、物体判別部20が、S114における信頼性の評価結果に基づいて対象物を判別する。ここでは、物体判別部20は、信頼性の評価値が規定値以上となる候補物標について、実際の対象物であると特定する。   In S116, the object discriminating unit 20 discriminates an object based on the reliability evaluation result in S114. Here, the object discriminating unit 20 identifies a candidate target having a reliability evaluation value equal to or higher than a specified value as an actual target object.

[実施形態の物体検出装置に適用可能な他の工夫]
道路に関する設備は時と共に更新されていくため、地図データベース14に格納されている地図データについては、外部のコンピュータネットワークを介して取得される最新のデータに基づいて適宜アップデートするとよい。さらに、物体検出装置が、地図データベース14に格納されている地図データに記されていない物標や交差点を検出した場合、地図情報を管理するデータセンタにそれらの情報を提供して、地図情報の更新を促す構成であってもよい。その際、自動運転中においては、自車両の路肩等の安全な場所に停止したり、運転者に対して警告する等、安全に運行できるように処置をしてもよい。
[Other devices applicable to the object detection apparatus of the embodiment]
Since the equipment related to the road is updated with time, the map data stored in the map database 14 may be appropriately updated based on the latest data acquired via an external computer network. Further, when the object detection device detects a target or an intersection not described in the map data stored in the map database 14, the information is provided to the data center that manages the map information, and the map information A configuration that prompts an update may be used. At that time, during automatic driving, the vehicle may be stopped so that it can be operated safely, such as by stopping at a safe place such as the shoulder of the host vehicle, or warning the driver.

[変形例]
上述の実施形態においては、撮像部10によって撮像された画像を用いて、候補物標検出部17が画像認識処理を行い、加えて、画像距離推定部18が画像処理により画像上の候補物標との相対位置を算出する事例について説明した。この事例は、同一のセンサにより取得された画像を用いて画像認識処理と画像距離推定処理を行う構成である。
[Modification]
In the above-described embodiment, the candidate target detection unit 17 performs image recognition processing using the image captured by the imaging unit 10, and in addition, the image distance estimation unit 18 performs candidate processing on the image by image processing. The example of calculating the relative position with the above has been described. In this example, an image recognition process and an image distance estimation process are performed using images acquired by the same sensor.

これとは別に、撮像部10は、例えばカメラとレーザ光によって対象の距離や方向を測定するレーザレーダといった、複数のセンサの組合せで構成されるものであってもよい。この場合、レーザレーダにより取得される物体の距離情報と、カメラにより撮像される画像の座標とが対応付されているものとする。撮像部10がレーザレーダ及びカメラで構成されている場合、画像距離推定部18は、レーザレーダにより取得される物体の距離情報と、カメラにより撮像される画像の座標との対応関係に基づいて、撮像画像の距離情報を取得してもよい。すなわち、この変形例は、複数のセンサにより取得された情報を用いて画像認識処理と画像距離推定処理を行う構成である。   Apart from this, the imaging unit 10 may be configured by a combination of a plurality of sensors such as a laser radar that measures the distance and direction of an object using a camera and laser light, for example. In this case, it is assumed that the distance information of the object acquired by the laser radar is associated with the coordinates of the image captured by the camera. When the imaging unit 10 is configured by a laser radar and a camera, the image distance estimation unit 18 is based on the correspondence between the object distance information acquired by the laser radar and the coordinates of the image captured by the camera. You may acquire the distance information of a captured image. In other words, this modification is configured to perform image recognition processing and image distance estimation processing using information acquired by a plurality of sensors.

[効果]
実施形態の物体検出装置によれば、次の効果を奏する。
自車両と対象物との相対位置を基準として、検出された候補物標が認識すべき対象物であるか否かを的確に判断できる。つまり、画像から測定される候補物標の実空間における位置と、地図データに記された対象物の実空間における位置とが合っていれば、物体検出結果が正しいと推定することができる。一方、撮像画像から測定した候補物標の実空間における位置と、地図データに記された対象物の実空間における位置とが離れていれば、その候補物標は非対象物であると推定することができる。このようにすることで、たとえ、同じ画像から対象物によく似た候補物標が複数検出されたとしても、検出された候補物標が認識すべき対象物であるか否かを的確に判断でき、画像認識による検出性能を向上させることができる。
[effect]
The object detection device according to the embodiment has the following effects.
It is possible to accurately determine whether or not the detected candidate target is an object to be recognized with reference to the relative position between the host vehicle and the object. That is, if the position in the real space of the candidate target measured from the image matches the position in the real space of the target object described in the map data, it can be estimated that the object detection result is correct. On the other hand, if the position in the real space of the candidate target measured from the captured image is separated from the position in the real space of the target object described in the map data, the candidate target is estimated to be a non-target object. be able to. In this way, even if a plurality of candidate targets that are similar to the target are detected from the same image, it is accurately determined whether or not the detected candidate target is the target to be recognized. And detection performance by image recognition can be improved.

実施形態の物体検出装置は、交通信号機や電光掲示板、道路標識、区画線、道路標示等、走行中の道路において従うべき交通情報を提示する物体を対象物とし、画像認識の信頼性の評価に基づいてこれらの対象物の検出を行う。このようにすることで、例えば、自動運転による交差点進入等に関する状況判断を的確に行うことができる。   The object detection device of the embodiment is an object that presents traffic information to be followed on a running road, such as a traffic signal, an electric bulletin board, a road sign, a lane marking, and a road marking, and is used to evaluate reliability of image recognition. Based on these detections, these objects are detected. By doing in this way, the situation judgment regarding the intersection approach by automatic driving etc. can be performed exactly, for example.

10…撮像部、11…画像入力部、12…位置情報入力部、13…現在位置推定部、14…地図データベース、15…認識タイミング決定部、16…認識枠決定部、17…候補物標検出部、18…画像距離推定部、19…信頼性評価部、20…物体判別部、21…車両制御部。   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 11 ... Image input part, 12 ... Position information input part, 13 ... Current position estimation part, 14 ... Map database, 15 ... Recognition timing determination part, 16 ... Recognition frame determination part, 17 ... Candidate target detection 18, an image distance estimation unit, 19 a reliability evaluation unit, 20 an object determination unit, and 21 a vehicle control unit.

Claims (6)

自車両に設けられた撮像手段(10)により撮像された車両周辺の画像の中から、特定の対象物を検出する物体検出装置であって、
前記撮像手段により撮像された画像に対して画像処理による物標検出処理を行い、前記画像の中から前記対象物の候補である候補物標を検出する画像認識手段(17)と、
前記撮像手段により撮像された画像について、前記画像認識手段により検出された候補物標に相当する画像部分の実空間における自車両との相対位置に関する画像位置情報を取得する画像位置取得手段(18)と、
前記画像位置取得手段により取得された画像位置情報で表される前記候補物標に相当する画像部分の実空間における位置と、自車両に設けられた測位手段により検出された現在位置、及び前記対象物の位置に関する対象物位置情報を含む所与の地図データに基づいて特定した検出すべき対象物の位置との比較に基づいて、前記画像認識手段により検出された候補物標に関する信頼性を評価する評価手段(19)と、
前記評価手段による信頼性の評価結果に応じて、前記候補物標が実際に対象物であるか否かを判断する判断手段(20)とを備え
前記地図データには、道路と、その道路において認識すべき対象物とが対応付けて定義されていると共に、各対象物の位置を表す前記対象物位置情報が記録されており、
前記評価手段は、前記地図データにおいて自車両が走行している道路に対応付けられている対象物に関する前記対象物位置情報に基づいて、前記検出すべき対象物の位置を特定するように構成されていること、
特徴とする物体検出装置。
An object detection device for detecting a specific object from images around a vehicle imaged by an imaging means (10) provided in the host vehicle,
Image recognition means (17) for performing target detection processing by image processing on the image picked up by the image pickup means and detecting candidate targets that are candidates for the target object from the images;
Image position acquisition means (18) for acquiring image position information related to the relative position of the image portion corresponding to the candidate target detected by the image recognition means in the real space with respect to the image captured by the image recognition means. When,
The position in the real space of the image portion corresponding to the candidate target represented by the image position information acquired by the image position acquisition means, the current position detected by the positioning means provided in the host vehicle, and the target The reliability of the candidate target detected by the image recognition means is evaluated based on the comparison with the position of the object to be detected that is specified based on given map data including the object position information regarding the position of the object. Evaluation means (19) for
Depending on the reliability of the evaluation result by the evaluation means, and a determining means (20) to the candidate target object actually determines whether a target object,
In the map data, a road and an object to be recognized on the road are defined in association with each other, and the object position information representing the position of each object is recorded.
The evaluation means is configured to identify the position of the object to be detected based on the object position information regarding the object associated with the road on which the host vehicle is traveling in the map data. That
Object detection apparatus according to claim.
請求項1に記載の物体検出装置において、
前記画像位置取得手段は、前記画像認識手段による候補物標の検出に用いられる画像を取得する撮像手段と同一の撮像手段によって撮像された画像を用いて画像処理を行うことで、前記画像位置情報を取得すること、
を特徴とする物体検出装置。
The object detection apparatus according to claim 1,
The image position acquisition unit performs image processing using an image captured by the same imaging unit as an imaging unit that acquires an image used for detection of a candidate target by the image recognition unit, thereby obtaining the image position information. To get the
An object detection device characterized by.
請求項1又は請求項2に記載の物体検出装置において、
前記特定の対象物は、自車両が走行している道路において従うべき交通情報を提示する物体であり、
前記地図データには、道路と、当該道路において従うべき交通情報を提示する対象物に関する位置情報とが対応付けられて記憶されており、
前記評価手段は、前記画像位置情報で表される前記候補物標に相当する画像部分の実空間における位置と、前記地図データにおいて自車両が走行している道路に対応する対象物の位置との比較に基づいて、前記画像認識手段により検出された候補物標に関する信頼性を評価すること、
を特徴とする物体検出装置。
In the object detection device according to claim 1 or 2,
The specific object is an object that presents traffic information to be followed on a road on which the host vehicle is traveling,
In the map data, a road and position information related to an object presenting traffic information to be followed on the road are stored in association with each other,
The evaluation means includes a position in an actual space of an image portion corresponding to the candidate target represented by the image position information, and a position of an object corresponding to a road on which the host vehicle is traveling in the map data. Evaluating the reliability of the candidate target detected by the image recognition means based on the comparison;
An object detection device characterized by.
請求項3に記載の物体検出装置において、
前記特定の対象物は、自車両が走行している道路において従うべき交通情報を提示する物体であって、提示する情報内容が経時的に変化するものであること、
を特徴とする物体検出装置。
The object detection device according to claim 3,
The specific object is an object that presents traffic information to be followed on a road on which the host vehicle is traveling, and the information content to be presented changes with time.
An object detection device characterized by.
請求項4に記載の物体検出装置において、
前記特定の対象物は、交通信号機であること、
を特徴とする物体検出装置。
The object detection device according to claim 4,
The specific object is a traffic signal;
An object detection device characterized by.
請求項1ないし請求項5の何れか1項に記載の物体検出装置において、In the object detection device according to any one of claims 1 to 5,
前記画像認識手段は、前記画像の中から複数の前記候補物標を検出し得るように構成されており、The image recognition means is configured to detect a plurality of the candidate targets from the image,
前記評価手段は、検出された前記複数の候補物標それぞれについて信頼性を評価するように構成されていること、The evaluation means is configured to evaluate reliability for each of the detected candidate targets;
を特徴とする物体検出装置。An object detection device characterized by.
JP2015020323A 2015-02-04 2015-02-04 Object detection device Active JP6464783B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015020323A JP6464783B2 (en) 2015-02-04 2015-02-04 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015020323A JP6464783B2 (en) 2015-02-04 2015-02-04 Object detection device

Publications (2)

Publication Number Publication Date
JP2016143324A JP2016143324A (en) 2016-08-08
JP6464783B2 true JP6464783B2 (en) 2019-02-06

Family

ID=56569016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015020323A Active JP6464783B2 (en) 2015-02-04 2015-02-04 Object detection device

Country Status (1)

Country Link
JP (1) JP6464783B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240069559A1 (en) * 2020-12-25 2024-02-29 Thk Co., Ltd. Autonomous moving robot

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112018000708B1 (en) 2015-07-13 2023-03-14 Nissan Motor Co., Ltd TRAFFIC LIGHT SIGN RECOGNITION DEVICE AND TRAFFIC LIGHT SIGN RECOGNITION METHOD
JP6819996B2 (en) * 2016-10-14 2021-01-27 国立大学法人金沢大学 Traffic signal recognition method and traffic signal recognition device
JP2018120303A (en) * 2017-01-23 2018-08-02 株式会社Soken Object detection device
JP6729723B2 (en) 2017-01-24 2020-07-22 富士通株式会社 Information processing apparatus, feature point extraction program, and feature point extraction method
JP6589926B2 (en) * 2017-04-07 2019-10-16 トヨタ自動車株式会社 Object detection device
US11409307B2 (en) 2017-08-08 2022-08-09 Lg Electronics Inc. Apparatus for providing map
JP7290240B2 (en) * 2018-04-27 2023-06-13 成典 田中 Object recognition device
JP6843819B2 (en) * 2018-11-27 2021-03-17 本田技研工業株式会社 Traffic guide recognition device, traffic guide recognition method, and program
KR20250044935A (en) 2019-03-13 2025-04-01 엘지전자 주식회사 Dmvr-based inter-prediction method and device
JP7229111B2 (en) * 2019-06-25 2023-02-27 株式会社Mobility Technologies MAP UPDATE DATA GENERATION DEVICE AND MAP UPDATE DATA GENERATION METHOD
JP6979438B2 (en) * 2019-11-05 2021-12-15 三菱スペース・ソフトウエア株式会社 Database generation system and database generation program
JP6965325B2 (en) * 2019-11-05 2021-11-10 三菱スペース・ソフトウエア株式会社 Auto-discovery system and auto-detection program
JP7271413B2 (en) * 2019-12-26 2023-05-11 エヌ・ティ・ティ・コムウェア株式会社 Object detection device and object detection method
JP7236377B2 (en) * 2019-12-26 2023-03-09 エヌ・ティ・ティ・コムウェア株式会社 Object detection device and object detection method
US11681780B2 (en) * 2020-09-30 2023-06-20 Nissan North America, Inc. Annotation and mapping for vehicle operation in low-confidence object detection conditions
JP7690408B2 (en) * 2022-01-25 2025-06-10 トヨタ自動車株式会社 Traffic sign recognition device and traffic sign recognition method
JP7592657B2 (en) * 2022-02-01 2024-12-02 本田技研工業株式会社 Driving assistance device, vehicle, driving assistance method, and program
CN116092029A (en) * 2022-12-29 2023-05-09 虹软科技股份有限公司 Vehicle-mounted distance measuring method, system, device, electronic device and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4475015B2 (en) * 2004-06-01 2010-06-09 トヨタ自動車株式会社 Vehicle periphery monitoring device and vehicle periphery monitoring method
JP4506299B2 (en) * 2004-06-17 2010-07-21 トヨタ自動車株式会社 Vehicle periphery monitoring device
US8831849B2 (en) * 2012-02-13 2014-09-09 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for traffic signal recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240069559A1 (en) * 2020-12-25 2024-02-29 Thk Co., Ltd. Autonomous moving robot

Also Published As

Publication number Publication date
JP2016143324A (en) 2016-08-08

Similar Documents

Publication Publication Date Title
JP6464783B2 (en) Object detection device
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
CN113710988B (en) Method for detecting the functional capability of an environmental sensor, control unit and vehicle
RU2742213C1 (en) Method to control information on lanes, method of traffic control and device for control of information on lanes
JP7074438B2 (en) Vehicle position estimation device
JP4370869B2 (en) Map data updating method and map data updating apparatus
JP5747787B2 (en) Lane recognition device
JP5441549B2 (en) Road shape recognition device
US20200346654A1 (en) Vehicle Information Storage Method, Vehicle Travel Control Method, and Vehicle Information Storage Device
JP6747269B2 (en) Object recognition device
CN101091103B (en) Image recognition apparatus and method, and positioning apparatus, vehicle control apparatus, and navigation apparatus using the same
JP6941178B2 (en) Automatic operation control device and method
JP6252252B2 (en) Automatic driving device
JP2008123462A (en) Object detection device
JP6911312B2 (en) Object identification device
JP3666332B2 (en) Pedestrian detection device
US20230349719A1 (en) Map generation apparatus, map generation program and on-vehicle equipment
JP2018097398A (en) Sight line estimation system
US20170103271A1 (en) Driving assistance system and driving assistance method for vehicle
CN110843786A (en) Method and system for determining and displaying a water-engaging condition and vehicle having such a system
JP2005258941A (en) Obstacle detection device
KR20170082374A (en) Lane detection apparatus
WO2023286303A1 (en) Vehicle control appraratus
JP6115429B2 (en) Own vehicle position recognition device
JP6232883B2 (en) Own vehicle position recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181224

R151 Written notification of patent or utility model registration

Ref document number: 6464783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250