[go: up one dir, main page]

JP2020064681A - Recognition device, recognition method, and program - Google Patents

Recognition device, recognition method, and program Download PDF

Info

Publication number
JP2020064681A
JP2020064681A JP2020004695A JP2020004695A JP2020064681A JP 2020064681 A JP2020064681 A JP 2020064681A JP 2020004695 A JP2020004695 A JP 2020004695A JP 2020004695 A JP2020004695 A JP 2020004695A JP 2020064681 A JP2020064681 A JP 2020064681A
Authority
JP
Japan
Prior art keywords
signal
information
recognition
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020004695A
Other languages
Japanese (ja)
Other versions
JP6939919B2 (en
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2020064681A publication Critical patent/JP2020064681A/en
Application granted granted Critical
Publication of JP6939919B2 publication Critical patent/JP6939919B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像情報から信号機の信号領域をより正確に認識できる認識装置、認識方法及びプログラムを提供することを目的とする。
【解決手段】実施形態の認識装置は、車両の周囲の画像情報を取得する画像取得部と、車両の位置を示す位置情報を取得する位置取得部と、位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、認識情報に基づいて画像情報から信号機の信号の形状を示す信号形状領域を認識する認識部と、認識情報に基づいて信号形状領域が信号機の信号を示す信号領域であるか否かを判定する判定部と、を備える。
【選択図】図2
PROBLEM TO BE SOLVED: To provide a recognition device, a recognition method and a program capable of more accurately recognizing a signal area of a traffic light from image information.
A recognition device according to an embodiment includes an image acquisition unit that acquires image information around a vehicle, a position acquisition unit that acquires position information indicating a position of the vehicle, and a traffic light in an area specified by the position information. A selection unit that selects recognition information for recognition, a recognition unit that recognizes a signal shape region indicating the shape of a signal of a traffic signal from image information based on the recognition information, and a signal shape region is a signal of the traffic signal based on the recognition information. And a determination unit that determines whether or not the signal area is
[Selection diagram] Figure 2

Description

本発明は認識装置、認識方法及びプログラムに関する。   The present invention relates to a recognition device, a recognition method and a program.

車載カメラを利用して、運転者を支援したり、事故発生時の映像を記憶したりする技術が従来から知られている。例えば車載カメラを利用した運転者支援技術には、障害物の回避又は衝突時の衝撃を軽減する自動ブレーキ機能、及び、先行車両との車間距離の維持等を警告する警報機能等がある。   2. Description of the Related Art Techniques for assisting a driver and storing an image at the time of an accident using an in-vehicle camera have been known. For example, driver assist technology using an in-vehicle camera includes an automatic braking function for avoiding an obstacle or reducing an impact at the time of a collision, and an alarm function for warning a distance between a preceding vehicle and the like.

また例えば特許文献1には、信号機の信号の色と、信号の形状と、を同じ被写体が撮影された2枚の画像から別々に認識することにより、精度良く画像から信号機の信号を認識する発明が開示されている。   Further, for example, in Patent Document 1, an invention in which a signal color of a traffic signal and a signal shape are separately recognized from two images in which the same subject is photographed, so that the signal of the traffic signal is accurately recognized from the image. Is disclosed.

しかしながら従来の技術では、信号機の信号領域の色及び形状と類似する物体を、信号機の信号領域として誤認識する可能性があった。   However, in the related art, there is a possibility that an object having a color and shape similar to the signal area of the traffic signal may be erroneously recognized as the signal area of the traffic signal.

本発明は、上記に鑑みてなされたものであって、画像情報から信号機の信号領域をより正確に認識できる認識装置、認識方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a recognition device, a recognition method, and a program capable of more accurately recognizing a signal area of a traffic light from image information.

上述した課題を解決し、目的を達成するために、本発明は、車両の周囲の画像情報を取得する画像取得部と、前記車両の位置を示す位置情報を取得する位置取得部と、前記位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識する認識部と、前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定する判定部と、を備える。   In order to solve the above-mentioned problems and achieve the object, the present invention provides an image acquisition unit that acquires image information of the surroundings of a vehicle, a position acquisition unit that acquires position information indicating the position of the vehicle, and the position. A selection unit for selecting recognition information for recognizing a traffic light in an area specified from the information; a recognition unit for recognizing a signal shape region indicating the shape of the signal of the traffic light from the image information based on the recognition information; A determination unit that determines whether the signal shape region is a signal region indicating a signal of the traffic light based on the recognition information.

本発明によれば、画像情報から信号機の信号領域をより正確に認識できるという効果を奏する。   According to the present invention, it is possible to more accurately recognize the signal area of the traffic signal from the image information.

図1は第1実施形態の認識装置が搭載された車両の例を示す図である。FIG. 1 is a diagram showing an example of a vehicle equipped with the recognition device of the first embodiment. 図2は第1実施形態の認識装置の構成の例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the recognition device according to the first embodiment. 図3は信号機を含む画像情報の例1を示す図である。FIG. 3 is a diagram showing Example 1 of image information including a traffic light. 図4は信号機を含む画像情報の例2を示す図である。FIG. 4 is a diagram illustrating a second example of image information including a traffic light. 図5は赤信号画素の(U,V)分布の例を示す図である。FIG. 5 is a diagram showing an example of the (U, V) distribution of red signal pixels. 図6は青信号画素の(U,V)分布の例を示す図である。FIG. 6 is a diagram showing an example of the (U, V) distribution of blue signal pixels. 図7は黄信号画素の(U,V)分布の例を示す図である。FIG. 7 is a diagram showing an example of the (U, V) distribution of yellow signal pixels. 図8は第1実施形態の青信号画素の領域の例を示す図である。FIG. 8 is a diagram showing an example of a blue signal pixel region according to the first embodiment. 図9は第1実施形態の青信号画素の膨張領域の例を示す図である。FIG. 9 is a diagram showing an example of the expansion region of the green signal pixel according to the first embodiment. 図10は第1実施形態の青信号形状領域の例を示す図である。FIG. 10 is a diagram showing an example of the green signal shape region of the first embodiment. 図11は第1実施形態の矩形領域の例を示す図である。FIG. 11 is a diagram showing an example of the rectangular area of the first embodiment. 図12は第1実施形態の周辺領域の例を示す図である。FIG. 12 is a diagram showing an example of the peripheral region of the first embodiment. 図13は第1実施形態の青信号の認識結果の例を示す図である。FIG. 13 is a diagram showing an example of a green signal recognition result of the first embodiment. 図14は第1実施形態の認識方法の例を示すフローチャートである。FIG. 14 is a flowchart showing an example of the recognition method of the first embodiment. 図15は第1実施形態の画像取得部のハードウェア構成の例を示す図である。FIG. 15 is a diagram illustrating an example of the hardware configuration of the image acquisition unit of the first embodiment. 図16は第2実施形態の青信号形状領域の周辺領域の例を示す図である。FIG. 16 is a diagram showing an example of a peripheral region of the green signal shape region of the second embodiment. 図17は第2実施形態の赤信号形状領域の周辺領域の例を示す図である。FIG. 17 is a diagram showing an example of a peripheral area of the red traffic light shape area of the second embodiment. 図18は第2実施形態の青信号形状領域の周辺領域の例を示す図である。FIG. 18 is a diagram showing an example of a peripheral region of the green signal shape region of the second embodiment. 図19は第2実施形態の赤信号形状領域の周辺領域の例を示す図である。FIG. 19 is a diagram showing an example of a peripheral area of the red traffic light shape area of the second embodiment. 図20は第2実施形態の青信号形状領域の周辺領域の位置及びサイズを決定する方法の例を説明するための図である。FIG. 20 is a diagram for explaining an example of the method of determining the position and size of the peripheral area of the green signal shape area according to the second embodiment.

以下に添付図面を参照して、認識装置、認識方法及びプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of a recognition device, a recognition method, and a program will be described in detail with reference to the accompanying drawings.

(第1実施形態)
図1は第1実施形態の認識装置100が搭載された車両200の例を示す図である。第1実施形態の認識装置100は、車両200のフロントガラスのバックミラー付近に設置される。第1実施形態の認識装置100は、画像認識処理によって画像情報から信号機300の信号を示す信号領域を認識する。
(First embodiment)
FIG. 1 is a diagram showing an example of a vehicle 200 equipped with the recognition device 100 of the first embodiment. The recognition device 100 of the first embodiment is installed near the rearview mirror of the windshield of the vehicle 200. The recognition apparatus 100 according to the first embodiment recognizes a signal area indicating a signal of the traffic signal 300 from image information by image recognition processing.

図2は第1実施形態の認識装置100の構成の例を示す図である。第1実施形態の認識装置100は、画像取得部10、位置取得部11及び信号処理部20を備える。信号処理部20は、インタフェース部21、選択部22、記憶部23、認識部24、判定部25及び出力部26を備える。   FIG. 2 is a diagram showing an example of the configuration of the recognition device 100 according to the first embodiment. The recognition device 100 according to the first embodiment includes an image acquisition unit 10, a position acquisition unit 11, and a signal processing unit 20. The signal processing unit 20 includes an interface unit 21, a selection unit 22, a storage unit 23, a recognition unit 24, a determination unit 25, and an output unit 26.

画像取得部10は、(R,G,B)色空間により表現されたカラーの画像情報を取得する。画像取得部10は当該画像情報をインタフェース部21に入力する。画像取得部10は、例えば車両200の周囲を撮影するカメラである。   The image acquisition unit 10 acquires image information of a color represented by the (R, G, B) color space. The image acquisition unit 10 inputs the image information to the interface unit 21. The image acquisition unit 10 is, for example, a camera that captures an image around the vehicle 200.

位置取得部11は車両200の位置を示す位置情報を取得し、当該位置情報をインタフェース部21に入力する。位置情報は、例えばGPS(Global Positioning System)情報、及び、車両200の位置を示す地図の座標情報等である。   The position acquisition unit 11 acquires position information indicating the position of the vehicle 200 and inputs the position information into the interface unit 21. The position information is, for example, GPS (Global Positioning System) information, coordinate information of a map indicating the position of the vehicle 200, and the like.

インタフェース部21は、画像取得部10から画像情報を受け付けると、当該画像情報を、認識部24が時系列の連続画像フレームとして受け付け可能な情報形式に変換する。インタフェース部21は情報形式が変換された画像情報を認識部24に入力する。   When the interface unit 21 receives the image information from the image acquisition unit 10, the interface unit 21 converts the image information into an information format that the recognition unit 24 can accept as a time-series continuous image frame. The interface unit 21 inputs the image information whose information format has been converted to the recognition unit 24.

またインタフェース部21は、位置取得部11から位置情報を受け付けると、当該位置情報を選択部22に入力する。   When the interface unit 21 receives the position information from the position acquisition unit 11, the interface unit 21 inputs the position information to the selection unit 22.

選択部22は、インタフェース部21から位置情報を受け付けると、当該位置情報から地域を特定する。そして選択部22は、特定された地域の信号機300を認識するための認識情報を、記憶部23に記憶されている1以上の認識情報から選択する。選択部22は当該認識情報を認識部24及び判定部25に入力する。   Upon receiving the position information from the interface unit 21, the selection unit 22 specifies the area from the position information. Then, the selection unit 22 selects recognition information for recognizing the traffic signal 300 in the specified area from one or more pieces of recognition information stored in the storage unit 23. The selection unit 22 inputs the recognition information to the recognition unit 24 and the determination unit 25.

記憶部23は情報を記憶する。記憶部23は、例えば認識情報を地域毎に記憶する。信号機300の信号の形状及び信号の色は、地域によって異なる。例えば信号機300の形状は、地域によって横型の場合と縦型の場合とがある。   The storage unit 23 stores information. The storage unit 23 stores, for example, the recognition information for each area. The shape of the signal and the color of the signal of the traffic signal 300 vary depending on the region. For example, the shape of the traffic light 300 may be horizontal or vertical depending on the area.

図3は信号機300aを含む画像情報の例1を示す図である。図3の例は、信号の配列が横型の場合の信号機300aを示す。青信号領域101は青信号を示す領域である。例えば日本では、横型の信号機300aが一般的である。   FIG. 3 is a diagram showing Example 1 of image information including the traffic light 300a. The example of FIG. 3 shows a traffic light 300a when the signal array is horizontal. The green signal area 101 is an area showing a green signal. For example, in Japan, a horizontal traffic light 300a is common.

図4は信号機300bを含む画像情報の例2を示す図である。図4の例は、信号の配列が縦型の場合の信号機300bを示す。青信号領域401は青信号を示す領域である。例えばアメリカでは、縦型の信号機300bが一般的である。なお日本でも、積雪量の多い地域では縦型の信号機300bが設置されている。   FIG. 4 is a diagram illustrating a second example of image information including the traffic light 300b. The example of FIG. 4 shows the traffic signal 300b in the case where the signal arrangement is vertical. The green signal area 401 is an area showing a green signal. For example, in the United States, a vertical traffic light 300b is common. Even in Japan, a vertical traffic light 300b is installed in an area with a large amount of snow.

認識情報は、位置情報から特定される地域の信号機300を認識するための情報である。認識情報は、信号画素を判定する色情報、及び、信号形状領域の周辺領域の特徴情報を含む。信号形状領域は信号機300の信号の形状を示す領域である。信号形状領域の周辺領域の特徴情報の説明は、表1及び図12を参照して後述する。   The recognition information is information for recognizing the traffic signal 300 in the area specified by the position information. The recognition information includes color information for determining the signal pixel and characteristic information of the peripheral area of the signal shape area. The signal shape area is an area indicating the shape of the signal of the traffic signal 300. A description of the characteristic information of the peripheral area of the signal shape area will be given later with reference to Table 1 and FIG.

信号画素を判定する色情報は、例えば赤信号画素を判定する閾値、青信号画素を判定する閾値、及び、黄信号画素を判定する閾値を含む。   The color information for determining a signal pixel includes, for example, a threshold for determining a red signal pixel, a threshold for determining a blue signal pixel, and a threshold for determining a yellow signal pixel.

赤信号画素は赤信号の色を示す画素である。赤信号画素を判定する閾値は、Uの閾値(Ur−min及びUr−max)及びVの閾値(Vr−min及びVr−max)である。この閾値は、赤信号画素の(U,V)分布に基づいて決定される。   The red signal pixel is a pixel indicating the color of the red signal. The threshold values for determining the red signal pixels are the U threshold value (Ur-min and Ur-max) and the V threshold value (Vr-min and Vr-max). This threshold is determined based on the (U, V) distribution of red signal pixels.

図5は赤信号画素の(U,V)分布の例を示す図である。図5の例は、赤信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた赤信号画素の(U,V)分布を示す。なおUの閾値(Ur−min及びUr−max)及びVの閾値(Vr−min及びVr−max)の具体的な値は任意に決定してよい。しかしながら当該閾値の範囲が広すぎると、赤信号の色でない画素を検出する可能性も高くなるので、赤信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 5 is a diagram showing an example of the (U, V) distribution of red signal pixels. The example of FIG. 5 shows the (U, V) distribution of red signal pixels obtained from the pixel information of the (R, G, B) color space of a plurality of image samples in which the red signal is captured. The specific values of the U threshold (Ur-min and Ur-max) and the V threshold (Vr-min and Vr-max) may be arbitrarily determined. However, if the range of the threshold value is too wide, the possibility that a pixel that is not a red signal color is detected increases, so the threshold value is set so as not to overlap the (U, V) value of the pixel that is not a red signal.

青信号画素は青信号の色を示す画素である。青信号画素を判定する閾値は、Uの閾値(Ub−min及びUb−max)及びVの閾値(Vb−min及びVb−max)である。この閾値は、青信号画素の(U,V)分布に基づいて決定される。   The blue signal pixel is a pixel indicating the color of the blue signal. The threshold value for determining the green signal pixel is the U threshold value (Ub-min and Ub-max) and the V threshold value (Vb-min and Vb-max). This threshold is determined based on the (U, V) distribution of the green signal pixels.

図6は青信号画素の(U,V)分布の例を示す図である。図6の例は、青信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた青信号画素の(U,V)分布を示す。なおUの閾値(Ub−min及びUb−max)及びVの閾値(Vb−min及びVb−max)の具体的な値は任意に決定してよい。しかしながら当該閾値の範囲が広すぎると、青信号の色でない画素を検出する可能性も高くなるので、青信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 6 is a diagram showing an example of the (U, V) distribution of blue signal pixels. The example of FIG. 6 shows the (U, V) distribution of the blue signal pixels obtained from the pixel information of the (R, G, B) color space of the plurality of image samples in which the blue signal is captured. Note that specific values of the U threshold (Ub-min and Ub-max) and the V threshold (Vb-min and Vb-max) may be arbitrarily determined. However, if the range of the threshold value is too wide, the possibility that a pixel that is not a blue signal color is detected increases, so the threshold value is set so as not to overlap the (U, V) value of the pixel that is not a blue signal.

黄信号画素は黄信号の色を示す画素である。黄信号画素を判定する閾値は、Uの閾値(Uy−min及びUy−max)及びVの閾値(Vy−min及びVy−max)である。この閾値は、黄信号画素の(U,V)分布に基づいて決定される。   The yellow signal pixel is a pixel indicating the color of the yellow signal. The threshold values for determining the yellow signal pixel are the U threshold value (Uy-min and Uy-max) and the V threshold value (Vy-min and Vy-max). This threshold is determined based on the (U, V) distribution of the yellow signal pixels.

図7は黄信号画素の(U,V)分布の例を示す図である。図7の例は、黄信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた黄信号画素の(U,V)分布を示す。なおUの閾値(Uy−min及びUy−max)及びVの閾値(Vy−min及びVy−max)の具体的な値は任意に決定してよい。しかしながら当該閾値の範囲が広すぎると、黄信号の色でない画素を検出する可能性も高くなるので、黄信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 7 is a diagram showing an example of the (U, V) distribution of yellow signal pixels. The example of FIG. 7 shows the (U, V) distribution of the yellow signal pixels obtained from the pixel information of the (R, G, B) color space of the plurality of image samples in which the yellow signal is captured. The specific values of the U threshold (Uy-min and Uy-max) and the V threshold (Vy-min and Vy-max) may be arbitrarily determined. However, if the range of the threshold value is too wide, there is a high possibility that a pixel that is not the color of the yellow signal is detected. Therefore, the threshold value is set so that it does not overlap the (U, V) value of the pixel that is not the yellow signal.

以下の説明では、選択部22により、信号機300a(図3参照)の信号を認識するための認識情報が選択された場合を例にして具体的に説明する。   In the following description, a case will be specifically described where the selection unit 22 selects the recognition information for recognizing the signal of the traffic signal 300a (see FIG. 3).

図2に戻り、認識部24は、インタフェース部21から画像情報を受け付け、選択部22から認識情報を受け付ける。認識部24は、認識情報に基づいて信号形状領域を認識する。具体的には、まず認識部24は、(R,G,B)色空間の画像情報を、次式(1)を使用して、(Y,U,V)色空間の画像情報に変換する。   Returning to FIG. 2, the recognition unit 24 receives the image information from the interface unit 21 and the recognition information from the selection unit 22. The recognition unit 24 recognizes the signal shape region based on the recognition information. Specifically, first, the recognition unit 24 converts the image information in the (R, G, B) color space into the image information in the (Y, U, V) color space using the following expression (1). .

Figure 2020064681
Figure 2020064681

次に認識部24は(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる赤信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を赤信号画素と認識する。同様に、認識部24は(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる青信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を青信号画素と認識する。また認識部24は(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる黄信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を黄信号画素と認識する。   Next, when the (U, V) value of the image information of the (Y, U, V) color space is included in the range of the threshold value for determining the red signal pixel included in the recognition information, the recognition unit 24 applies the (U, V) value. V) Pixels having a value are recognized as red signal pixels. Similarly, when the (U, V) value of the image information in the (Y, U, V) color space is included in the range of the threshold value for determining the green signal pixel included in the recognition information, the recognition unit 24 applies the (U, V) value. V) Pixels having a value are recognized as green signal pixels. Further, when the (U, V) value of the image information in the (Y, U, V) color space is included in the range of the threshold value for determining the yellow signal pixel included in the recognition information, the recognition unit 24 applies the (U, V) value. ) A pixel having a value is recognized as a yellow signal pixel.

以下、認識部24により、青信号画素が認識された場合を例にして具体的に説明する。なお赤信号画素及び黄信号画素の場合も青信号画素の場合と同様である。   Hereinafter, a case where the green signal pixel is recognized by the recognition unit 24 will be specifically described as an example. The case of the red signal pixel and the yellow signal pixel is similar to that of the blue signal pixel.

図8は第1実施形態の青信号画素の領域102の例を示す図である。図8の青信号画素の領域102の大きさは、実際の青信号領域101(図3参照)の大きさよりも小さい。すなわち図8の例は、本来、青信号の領域として認識されるべき領域が、ノイズ画素の影響により青信号画素として認識されなかった場合を示す。ノイズ画素は、撮影時の周囲の状況に起因するノイズ画素、撮像素子の特性に起因するノイズ画素、及び、撮像素子表面に付着したゴミに起因するノイズ画素等である。撮影時の周囲の状態に起因するノイズ画素は、画像取得部10により信号機300が撮影された際に、例えば太陽光等の光により反射していた青信号の領域の画素である。撮像素子の特性に起因するノイズ画素は、例えばランダムノイズの影響を受けた画素である。   FIG. 8 is a diagram showing an example of the area 102 of the green signal pixel of the first embodiment. The size of the green signal area 102 of FIG. 8 is smaller than the actual size of the green signal area 101 (see FIG. 3). That is, the example of FIG. 8 shows a case where a region that should originally be recognized as a blue signal region is not recognized as a blue signal pixel due to the influence of noise pixels. The noise pixels are noise pixels due to the surrounding conditions at the time of shooting, noise pixels due to the characteristics of the image sensor, noise pixels due to dust adhering to the surface of the image sensor, and the like. The noise pixel due to the surrounding state at the time of shooting is a pixel in a blue signal region that was reflected by light such as sunlight when the traffic light 300 was shot by the image acquisition unit 10. The noise pixel caused by the characteristics of the image sensor is, for example, a pixel affected by random noise.

図2に戻り、次に認識部24は青信号画素の領域102を膨張させる膨張処理を行う。具体的には、認識部24は青信号画素の領域102の画素毎に、当該画素を複数の画素により被覆することにより、青信号画素の領域102を青信号画素の膨張領域に膨張させる。認識部24は、例えばn×n(nは1以上の整数)のブロック画素により各画素を被覆する。例えばn=7の場合、青信号画素の領域102の各画素を、当該画素の周囲の48個(7×7−1)の画素を更に含む青信号画素の膨張領域に膨張させる。   Returning to FIG. 2, the recognition unit 24 then performs expansion processing for expanding the area 102 of the blue signal pixel. Specifically, the recognition unit 24 expands the area 102 of the blue signal pixel into the expanded area of the blue signal pixel by covering each pixel of the area 102 of the blue signal pixel with a plurality of pixels. The recognition unit 24 covers each pixel with, for example, n × n (n is an integer of 1 or more) block pixels. For example, in the case of n = 7, each pixel in the area 102 of the green signal pixel is expanded to the expanded area of the green signal pixel which further includes 48 (7 × 7-1) pixels around the pixel.

図9は第1実施形態の青信号画素の膨張領域103の例を示す図である。図9の例は、認識部24が、認識部24により認識された青信号画素の領域102に、膨張処理を行ったことにより、本来の青信号の形状を示す青信号形状領域104を含む青信号画素の膨張領域103が得られた場合を示す。   FIG. 9 is a diagram showing an example of the expanded area 103 of the green signal pixel of the first embodiment. In the example of FIG. 9, the recognition unit 24 performs expansion processing on the area 102 of the blue signal pixels recognized by the recognition unit 24, so that the expansion of the blue signal pixels including the blue signal shape area 104 showing the original shape of the blue signal. The case where the area 103 is obtained is shown.

図2に戻り、次に認識部24は青信号の形状を示す青信号形状領域104の形状を認識する形状認識処理を行う。具体的には、認識部24は、青信号画素の領域102をハフ(Hough)変換することにより、青信号画素の膨張領域103内で円形の画素領域を認識できるか否かを判定する。円形の画素領域を認識できる場合、認識部24は当該円形の画素領域が信号機300の青信号の形状を示す青信号形状領域104であることを認識する。   Returning to FIG. 2, next, the recognition unit 24 performs shape recognition processing for recognizing the shape of the green signal shape region 104 indicating the shape of the green signal. Specifically, the recognizing unit 24 determines whether or not a circular pixel area can be recognized in the expanded area 103 of the blue signal pixel by Hough transforming the area 102 of the blue signal pixel. When the circular pixel area can be recognized, the recognition unit 24 recognizes that the circular pixel area is the blue signal shape area 104 indicating the shape of the green signal of the traffic light 300.

図10は第1実施形態の青信号形状領域104の例を示す図である。図10の例は、青信号画素の領域102(図8参照)がハフ変換されることにより、円形の画素領域として青信号形状領域104が認識された場合の例を示す。   FIG. 10 is a diagram showing an example of the green signal shape region 104 of the first embodiment. The example in FIG. 10 shows an example in which the blue signal shape region 104 is recognized as a circular pixel region by Hough transforming the region 102 (see FIG. 8) of the blue signal pixel.

図2に戻り、次に認識部24は青信号形状領域104に外接する矩形領域を認識する。   Returning to FIG. 2, next, the recognition unit 24 recognizes a rectangular area circumscribing the green signal shape area 104.

図11は第1実施形態の矩形領域105の例を示す図である。図11の例は、認識部24が、円形の画素領域として認識された青信号形状領域104に外接する矩形領域105を認識する場合を示す。   FIG. 11 is a diagram showing an example of the rectangular area 105 of the first embodiment. The example of FIG. 11 shows a case where the recognition unit 24 recognizes a rectangular area 105 circumscribing the blue signal shape area 104 recognized as a circular pixel area.

図2に戻り、次に認識部24は矩形領域105を示す情報を判定部25に入力する。   Returning to FIG. 2, the recognition unit 24 then inputs information indicating the rectangular area 105 to the determination unit 25.

判定部25は、選択部22から認識情報を受け付け、認識部24から矩形領域105を示す情報を受け付ける。判定部25は、矩形領域105に内接する青信号形状領域104が、信号機300aの青信号領域101であるか否かを、当該認識情報に基づいて判定する。具体的には、判定部25は、青信号形状領域104の周辺領域の特徴情報と、当該認識情報に含まれる信号機300aの青信号領域101の周辺領域の特徴情報と、が類似する場合、当該青信号形状領域104を信号機300aの青信号領域101であると判定する。   The determination unit 25 receives the recognition information from the selection unit 22 and the information indicating the rectangular area 105 from the recognition unit 24. The determination unit 25 determines whether or not the green signal shape area 104 inscribed in the rectangular area 105 is the green signal area 101 of the traffic light 300a based on the recognition information. Specifically, when the characteristic information of the peripheral area of the green signal shape area 104 and the characteristic information of the peripheral area of the green signal area 101 of the traffic signal 300a included in the recognition information are similar, the determination unit 25 determines the green signal shape. The area 104 is determined to be the green signal area 101 of the traffic light 300a.

ここで信号領域の周辺領域の特徴を示す特徴情報の例について説明する。   Here, an example of the characteristic information indicating the characteristics of the peripheral area of the signal area will be described.

表1は信号機300aの特徴情報の例を示す。   Table 1 shows an example of the characteristic information of the traffic light 300a.

Figure 2020064681
Figure 2020064681

特徴情報は信号の種類毎に、位置、サイズ及び平均輝度範囲を含む。例えば青信号領域101の周辺領域の位置は、(X−x1,Y−y1)である。また青信号領域101の周辺領域のサイズは、(W1,H1)である。ここで周辺領域の位置及びサイズについて説明する。   The characteristic information includes the position, size, and average brightness range for each signal type. For example, the position of the peripheral area of the green signal area 101 is (X-x1, Y-y1). The size of the peripheral area of the green signal area 101 is (W1, H1). Here, the position and size of the peripheral area will be described.

図12は第1実施形態の周辺領域の例を示す図である。図12は、青信号形状領域104の周辺領域106の特徴情報と、信号機300aの青信号領域101の周辺領域の特徴情報と、を比較する場合を示す。点Oの座標は(X,Y)である。点Oは、矩形領域105に内接する円形の画素領域(青信号形状領域104)の中心を示す。また点Pの座標は(X−x1,Y−y1)である。周辺領域106は、点P、幅W1及び高さH1により決定される。   FIG. 12 is a diagram showing an example of the peripheral region of the first embodiment. FIG. 12 shows a case where the characteristic information of the peripheral area 106 of the green signal shape area 104 is compared with the characteristic information of the peripheral area of the green signal area 101 of the traffic light 300a. The coordinates of the point O are (X, Y). A point O indicates the center of a circular pixel area (blue signal shape area 104) inscribed in the rectangular area 105. The coordinates of the point P are (X-x1, Y-y1). The peripheral region 106 is determined by the point P, the width W1 and the height H1.

また例えば青信号領域101の周辺領域の平均輝度範囲は、(Imin1,Imax1)である。平均輝度範囲は、例えば信号機300aの筐体の色に基づいて決定される。判定部25は、周辺領域106に含まれる領域107の平均輝度を算出し、当該平均輝度が、Imin1以上かつImax1以下である場合、青信号形状領域104を信号機300aの青信号領域101であると判定する。   Further, for example, the average luminance range of the peripheral area of the green signal area 101 is (Imin1, Imax1). The average brightness range is determined, for example, based on the color of the housing of the traffic light 300a. The determination unit 25 calculates the average luminance of the region 107 included in the peripheral region 106, and when the average luminance is Imin1 or more and Imax1 or less, determines that the green signal shape region 104 is the green signal region 101 of the traffic signal 300a. .

これにより例えば、赤信号の色と同じ赤色の看板の一部が木の枝葉に隠れ、枝葉を介して赤色の看板が見えている部分が円形になっているような画像領域が、赤信号領域として誤認識されることを防ぐことができる。   As a result, for example, an image area where a part of the red sign that is the same as the red traffic light is hidden by the branches and leaves of the tree and the part where the red sign is visible through the branches is circular is the red traffic light area. Can be prevented from being erroneously recognized as.

図13は第1実施形態の青信号の認識結果の例を示す図である。図13の例は、図3に示す画像情報に含まれる信号機300aの青信号が、当該青信号領域101を含む矩形領域105として認識された場合を示す。   FIG. 13 is a diagram showing an example of a green signal recognition result of the first embodiment. The example of FIG. 13 shows a case where the green signal of the traffic light 300 a included in the image information shown in FIG. 3 is recognized as the rectangular area 105 including the green signal area 101.

図2に戻り、判定部25は、青信号領域101を含む矩形領域105を示す認識結果情報を出力部26に入力する。出力部26は、判定部25から認識結果情報を受け付けると、当該認識結果情報を出力する。認識結果情報は、例えばドライバーによる信号無視及び急発進等の危険運転の検知等の処理に使用される。   Returning to FIG. 2, the determination unit 25 inputs the recognition result information indicating the rectangular area 105 including the green signal area 101 to the output unit 26. When receiving the recognition result information from the determination unit 25, the output unit 26 outputs the recognition result information. The recognition result information is used, for example, for processing such as detection of dangerous driving such as ignoring signals by the driver and sudden start.

次に第1実施形態の認識方法について説明する。   Next, the recognition method of the first embodiment will be described.

図14は第1実施形態の認識方法の例を示すフローチャートである。なお信号が青信号、黄信号及び赤信号の場合の説明は同様なので、第1実施形態の認識方法の説明では、信号が青信号である場合を例にして説明する。信号機300aの青信号(図3参照)を認識する場合を例にして具体的に説明する。   FIG. 14 is a flowchart showing an example of the recognition method of the first embodiment. Since the description is the same when the signal is a blue signal, a yellow signal, and a red signal, in the description of the recognition method of the first embodiment, the case where the signal is a blue signal will be described as an example. A case where the green signal (see FIG. 3) of the traffic light 300a is recognized will be specifically described as an example.

はじめに、画像取得部10が、車両200の周囲を撮影し、(R,G,B)色空間により表現されたカラーの画像情報を取得する(ステップS1)。次に、認識部24が、(R,G,B)色空間により表現されたカラーの画像情報を、上述の式(1)を使用して、(Y,U,V)色空間の画像情報に変換する(ステップS2)。   First, the image acquisition unit 10 captures an image of the surroundings of the vehicle 200 and acquires color image information represented by the (R, G, B) color space (step S1). Next, the recognition unit 24 uses the image information of the color expressed in the (R, G, B) color space to calculate the image information of the (Y, U, V) color space by using the above equation (1). (Step S2).

また、位置取得部11が、車両200の位置を示す位置情報を取得する(ステップS3)。次に、選択部22が、位置情報により特定された地域の信号機300aを認識するための認識情報を、記憶部23に記憶されている1以上の認識情報から選択する(ステップS4)。   The position acquisition unit 11 also acquires position information indicating the position of the vehicle 200 (step S3). Next, the selection unit 22 selects recognition information for recognizing the traffic signal 300a in the area specified by the position information from one or more pieces of recognition information stored in the storage unit 23 (step S4).

次に、認識部24が、(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる青信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を青信号画素と認識する(ステップS5)。次に、認識部24が、ステップS5で認識された青信号画素の領域102を膨張させる(ステップS6)。   Next, when the (U, V) value of the image information of the (Y, U, V) color space is included in the range of the threshold value for determining the green signal pixel included in the recognition information, the recognition unit 24 determines that (U , V) values are recognized as blue signal pixels (step S5). Next, the recognition unit 24 expands the area 102 of the green signal pixel recognized in step S5 (step S6).

次に、認識部24が、ステップS6の処理により得られた青信号画素の膨張領域103から青信号の形状を示す青信号形状領域104を認識できるか否かを判定する(ステップS7)。具体的には、認識部24が、青信号画素の領域102をハフ変換することにより、青信号画素の膨張領域103内で円形の画素領域(青信号形状領域104)を認識できるか否かを判定する。   Next, the recognizing unit 24 determines whether or not the blue signal shape area 104 indicating the shape of the blue signal can be recognized from the expanded area 103 of the blue signal pixel obtained by the processing of step S6 (step S7). Specifically, the recognition unit 24 determines whether or not a circular pixel area (blue signal shape area 104) can be recognized in the expanded area 103 of the blue signal pixel by Hough transforming the area 102 of the blue signal pixel.

青信号形状領域104を認識できる場合(ステップS7、Yes)、認識処理はステップS8に進む。青信号形状領域104を認識できない場合(ステップS7、No)、認識処理を終了する。   If the green signal shape region 104 can be recognized (Yes in step S7), the recognition process proceeds to step S8. If the green signal shape region 104 cannot be recognized (No in step S7), the recognition process ends.

次に、判定部25が、青信号形状領域104の周辺領域の特徴情報と、ステップS4で選択された認識情報に含まれる信号機300aの青信号領域101の周辺領域の特徴情報と、が類似するか否かを判定する(ステップS8)。   Next, the determination unit 25 determines whether the characteristic information of the peripheral area of the green signal shape area 104 is similar to the characteristic information of the peripheral area of the green signal area 101 of the traffic signal 300a included in the recognition information selected in step S4. It is determined (step S8).

類似する場合(ステップS8、Yes)、判定部25が、ステップS7で認識された青信号形状領域104を、青信号領域101と判定する(ステップS9)。次に、出力部26が、青信号領域101を含む矩形領域105を示す認識結果情報を出力する(ステップS10)。類似しない場合(ステップS8、No)、認識処理を終了する。   When they are similar (Yes in step S8), the determination unit 25 determines that the green signal shape region 104 recognized in step S7 is the green signal region 101 (step S9). Next, the output unit 26 outputs the recognition result information indicating the rectangular area 105 including the green signal area 101 (step S10). If they are not similar (step S8, No), the recognition process ends.

次に第1実施形態の認識装置100のハードウェア構成の例について説明する。   Next, an example of the hardware configuration of the recognition device 100 of the first embodiment will be described.

まず画像取得部10のハードウェア構成の例について説明する。   First, an example of the hardware configuration of the image acquisition unit 10 will be described.

図15は第1実施形態の画像取得部10のハードウェア構成の例を示す図である。第1実施形態の画像取得部10は、撮影光学系201、メカシャッタ202、モータドライバ203、CCD(Charge Coupled Device)204、CDS(Correlated Double Sampling:相関2重サンプリング)回路205、A/D変換器206、タイミング信号発生器207、画像処理回路208、LCD(Liquid Crystal Display)209、CPU(Central Processing Unit)210、RAM(Random Access Memory)211、ROM(Read Only Memory)212、SDRAM(Synchronous Dynamic Random Access Memory)213、圧縮伸張回路214、メモリ215、操作部216及び出力I/F217を備える。   FIG. 15 is a diagram showing an example of the hardware configuration of the image acquisition unit 10 of the first embodiment. The image acquisition unit 10 of the first embodiment includes a photographing optical system 201, a mechanical shutter 202, a motor driver 203, a CCD (Charge Coupled Device) 204, a CDS (Correlated Double Sampling) circuit 205, and an A / D converter. 206, a timing signal generator 207, an image processing circuit 208, an LCD (Liquid Crystal Display) 209, a CPU (Central Processing Unit) 210, a RAM (Random Access Memory) 211, a ROM (Read Only Memory) 212, SDRAM (Synchronous SDRAM). Access Memory) 213, compression / expansion circuit 214, memo 215, an operation unit 216 and an output I / F 217.

画像処理回路208、CPU210、RAM211、ROM212、SDRAM213、圧縮伸張回路214、メモリ215、操作部216及び出力I/F217はバス220を介して接続されている。   The image processing circuit 208, the CPU 210, the RAM 211, the ROM 212, the SDRAM 213, the compression / expansion circuit 214, the memory 215, the operation unit 216, and the output I / F 217 are connected via the bus 220.

撮影光学系201は被写体が反射した光を集光する。メカシャッタ202は所定の時間、開くことにより、撮影光学系201により集光された光をCCD204に入射させる。モータドライバ203は撮影光学系201及びメカシャッタ202を駆動する。   The photographing optical system 201 collects the light reflected by the subject. The mechanical shutter 202 is opened for a predetermined time to make the light condensed by the photographing optical system 201 incident on the CCD 204. The motor driver 203 drives the photographing optical system 201 and the mechanical shutter 202.

CCD204は、メカシャッタ202を介して入射した光を被写体の像として結像し、当該被写体の像を示すアナログの画像情報をCDS回路205に入力する。CDS回路205は、CCD204からアナログの画像情報を受け付けると、当該画像情報のノイズ成分を除去し、ノイズ成分が除去されたアナログの画像情報をA/D変換器206に入力する。A/D変換器206は、CDS回路205からアナログの画像情報を受け付けると、当該アナログの画像情報をデジタルの画像情報に変換する。A/D変換器206はデジタルの画像情報を画像処理回路208に入力する。タイミング信号発生器207は、CPU210からの制御信号に応じて、CCD204、CDS回路205及びA/D変換器206にタイミング信号を送信することにより、CCD204、CDS回路205及びA/D変換器206が動作するタイミングを制御する。   The CCD 204 forms the light incident through the mechanical shutter 202 as an image of a subject and inputs analog image information indicating the image of the subject to the CDS circuit 205. Upon receiving the analog image information from the CCD 204, the CDS circuit 205 removes the noise component of the image information and inputs the analog image information from which the noise component is removed to the A / D converter 206. Upon receiving analog image information from the CDS circuit 205, the A / D converter 206 converts the analog image information into digital image information. The A / D converter 206 inputs digital image information to the image processing circuit 208. The timing signal generator 207 transmits the timing signal to the CCD 204, the CDS circuit 205, and the A / D converter 206 in response to the control signal from the CPU 210, so that the CCD 204, the CDS circuit 205, and the A / D converter 206 receive the timing signal. Control when it works.

画像処理回路208は、A/D変換器206からデジタルの画像情報を受け付けると、SDRAM213を使用して、当該デジタルの画像情報の画像処理を行う。画像処理は、例えばCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理及び色変換処理等である。ホワイトバランス制御処理は、画像情報の色の濃さを調整する画像処理である。コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整する処理である。色変換処理は、画像情報の色合いを調整する画像処理である。   Upon receiving the digital image information from the A / D converter 206, the image processing circuit 208 uses the SDRAM 213 to perform image processing of the digital image information. The image processing is, for example, CrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing. The white balance control process is an image process for adjusting the color density of image information. The contrast correction process is an image process for adjusting the contrast of image information. The edge enhancement process is a process of adjusting the sharpness of image information. The color conversion process is an image process for adjusting the hue of image information.

画像処理回路208は上述の画像処理が行われた画像情報をLCD209、又は、圧縮伸張回路214に入力する。LCD209は、画像処理回路208から受け付けた画像情報を表示する液晶ディスプレイである。   The image processing circuit 208 inputs the image information subjected to the above-mentioned image processing to the LCD 209 or the compression / expansion circuit 214. The LCD 209 is a liquid crystal display that displays the image information received from the image processing circuit 208.

CPU210はプログラムを実行することにより画像取得部10の動作を制御する。RAM211はCPU210がプログラムを実行するときのワーク領域、及び、各種情報の記憶等に使用される読取及び書込が可能な記憶領域である。ROM212はCPU210により実行されるプログラム等を記憶する読取専用の記憶領域である。   The CPU 210 controls the operation of the image acquisition unit 10 by executing the program. The RAM 211 is a work area when the CPU 210 executes a program and a readable / writable storage area used for storing various information. The ROM 212 is a read-only storage area that stores programs executed by the CPU 210.

SDRAM213は画像処理回路208が画像処理を行うときに、画像処理対象の画像情報を一時的に記憶する記憶領域である。   The SDRAM 213 is a storage area that temporarily stores image information to be image-processed when the image processing circuit 208 performs image processing.

圧縮伸張回路214は、画像処理回路208から画像情報を受け付けると、当該画像情報を圧縮する。圧縮伸張回路214は圧縮された画像情報をメモリ215に記憶する。また圧縮伸張回路214は、メモリ215から画像情報を受け付けると、当該画像情報を伸張する。圧縮伸張回路214は伸張された画像情報をSDRAM213に一時的に記憶する。メモリ215は圧縮された画像情報を記憶する。   Upon receiving the image information from the image processing circuit 208, the compression / expansion circuit 214 compresses the image information. The compression / expansion circuit 214 stores the compressed image information in the memory 215. Further, when receiving the image information from the memory 215, the compression / expansion circuit 214 expands the image information. The compression / expansion circuit 214 temporarily stores the expanded image information in the SDRAM 213. The memory 215 stores the compressed image information.

操作部216は画像取得部10のユーザからの操作を受け付ける。操作部216は、例えばLCD209に表示された画像情報をメモリ215に記憶する操作を受け付ける。出力I/F217は、画像取得部10から画像情報を信号処理部20に送信するためのインタフェースである。   The operation unit 216 receives an operation from the user of the image acquisition unit 10. The operation unit 216 receives an operation of storing the image information displayed on the LCD 209 in the memory 215, for example. The output I / F 217 is an interface for transmitting image information from the image acquisition unit 10 to the signal processing unit 20.

なお上述の図2で説明した信号処理部20のインタフェース部21、選択部22、認識部24、判定部25及び出力部26は、信号処理ボード(信号処理回路)としてハードウェアにより実現しても、画像取得部10のCPU210、及び、他の装置のCPU等により実行されるソフトウェア(プログラム)により実現してもよい。   The interface unit 21, the selection unit 22, the recognition unit 24, the determination unit 25, and the output unit 26 of the signal processing unit 20 described above with reference to FIG. 2 may be realized by hardware as a signal processing board (signal processing circuit). It may be realized by software (program) executed by the CPU 210 of the image acquisition unit 10, the CPU of another device, or the like.

また位置取得部11は、例えばGPS装置により実現される。また記憶部23は、例えば信号処理ボード上のメモリ、及び、画像取得部10のメモリ215等により実現される。   The position acquisition unit 11 is realized by, for example, a GPS device. The storage unit 23 is realized by, for example, a memory on the signal processing board, the memory 215 of the image acquisition unit 10, and the like.

第1実施形態の認識装置100(CPU210)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。   The program executed by the recognition device 100 (CPU 210) of the first embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a memory card, a CD-R, and a DVD (Digital Versatile Disk). It is recorded on a computer-readable storage medium and provided as a computer program product.

なお第1実施形態の認識装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1実施形態の認識装置100で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。   The program executed by the recognition device 100 of the first embodiment may be stored in a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the program executed by the recognition apparatus 100 of the first embodiment may be provided via a network such as the Internet without being downloaded.

また第1実施形態の認識装置100のプログラムを、ROM212等に予め組み込んで提供するように構成してもよい。   Further, the program of the recognition device 100 of the first embodiment may be incorporated in the ROM 212 or the like in advance and provided.

なお第1実施形態の認識装置100で実行されるプログラムにより、選択部22、認識部24、判定部25及び出力部26等を実現する場合、選択部22、認識部24、判定部25及び出力部26等は、CPU210がROM212又は上記記憶媒体等からプログラムを読み出して実行することによりRAM211に実現される。   When the selection unit 22, the recognition unit 24, the determination unit 25, the output unit 26, and the like are realized by the program executed by the recognition device 100 according to the first embodiment, the selection unit 22, the recognition unit 24, the determination unit 25, and the output. The unit 26 and the like are realized in the RAM 211 when the CPU 210 reads out and executes the program from the ROM 212 or the storage medium or the like.

以上説明したように、第1実施形態の認識装置100では、選択部22が、位置情報から特定される地域の信号機300を認識するための認識情報を選択する。認識部24が、認識情報に基づいて画像情報から信号機300の信号の形状を示す信号形状領域を認識する。そして判定部25が、認識情報に基づいて信号形状領域が信号機300の信号を示す信号領域であるか否かを判定する。これにより画像情報から信号機300の信号領域をより正確に認識することができる。   As described above, in the recognition device 100 of the first embodiment, the selection unit 22 selects the recognition information for recognizing the traffic signal 300 in the area specified by the position information. The recognition unit 24 recognizes a signal shape region indicating the shape of the signal of the traffic signal 300 from the image information based on the recognition information. Then, the determination unit 25 determines whether or not the signal shape region is a signal region indicating the signal of the traffic signal 300, based on the recognition information. Accordingly, the signal area of the traffic signal 300 can be recognized more accurately from the image information.

(第2実施形態)
次に第2実施形態について説明する。第2実施形態の認識装置100では、点灯している信号を示す領域の誤認識を防ぐために判定に使用する周辺領域が、第1実施形態とは異なる。第2実施形態の判定部25は、点灯していない信号を示す領域を含む周辺領域を判定に使用する。第2実施形態の説明では、第1実施形態の説明と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
(Second embodiment)
Next, a second embodiment will be described. In the recognition device 100 of the second embodiment, the peripheral area used for determination in order to prevent erroneous recognition of an area indicating a lit signal is different from that of the first embodiment. The determination unit 25 of the second embodiment uses the peripheral area including the area indicating the signal that is not lit for the determination. In the description of the second embodiment, the same description as that of the first embodiment will be omitted, and only different points from the first embodiment will be described.

第2実施形態の認識装置100の構成は、第1実施形態の認識装置100の構成の例(図2参照)と同じである。すなわち第2実施形態の認識装置100は、画像取得部10、位置取得部11及び信号処理部20を備える。信号処理部20は、インタフェース部21、選択部22、記憶部23、認識部24、判定部25及び出力部26を備える。   The configuration of the recognition device 100 according to the second embodiment is the same as the example (see FIG. 2) of the configuration of the recognition device 100 according to the first embodiment. That is, the recognition device 100 of the second embodiment includes the image acquisition unit 10, the position acquisition unit 11, and the signal processing unit 20. The signal processing unit 20 includes an interface unit 21, a selection unit 22, a storage unit 23, a recognition unit 24, a determination unit 25, and an output unit 26.

画像取得部10、位置取得部11、インタフェース部21、選択部22、記憶部23及び出力部26の説明は、第1実施形態の説明と同様なので省略する。   The description of the image acquisition unit 10, the position acquisition unit 11, the interface unit 21, the selection unit 22, the storage unit 23, and the output unit 26 is the same as the description of the first embodiment, and will be omitted.

認識部24は、インタフェース部21から画像情報を受け付け、選択部22から認識情報を受け付ける。認識情報は、点灯している信号を示す信号画素を判定する色情報、及び、周辺領域の特徴情報を含む。第2実施形態の周辺領域は、点灯していない信号を示す領域を含む。   The recognition unit 24 receives the image information from the interface unit 21 and the recognition information from the selection unit 22. The recognition information includes color information for determining a signal pixel indicating a lighted signal and characteristic information of the peripheral area. The peripheral area of the second embodiment includes an area showing a signal that is not lit.

図16は第2実施形態の青信号形状領域104の周辺領域502及び504の例を示す図である。図16の例は、信号の配列が横型の信号機300aの場合を示す。青信号形状領域104は点灯している青信号を示す。周辺領域502は、点灯していない黄信号を示す領域501を含む。周辺領域504は、点灯していない赤信号を示す領域503を含む。   FIG. 16 is a diagram showing an example of peripheral regions 502 and 504 of the green signal shape region 104 of the second embodiment. The example of FIG. 16 shows a case where the signal arrangement is a horizontal traffic light 300a. The green signal shape area 104 indicates a green signal that is lit. The peripheral area 502 includes an area 501 showing a yellow signal that is not lit. The peripheral area 504 includes an area 503 that indicates a red signal that is not lit.

図17は第2実施形態の赤信号形状領域511の周辺領域502及び516の例を示す図である。図17の例は、信号の配列が横型の信号機300aの場合を示す。赤信号形状領域511は点灯している赤信号を示す。周辺領域502は、点灯していない黄信号を示す領域501を含む。周辺領域516は、点灯していない青信号を示す領域515を含む。   FIG. 17 is a diagram showing an example of the peripheral areas 502 and 516 of the red traffic light shape area 511 of the second embodiment. The example of FIG. 17 shows a case where the signal arrangement is a horizontal traffic light 300a. The red traffic light shape area 511 indicates a red traffic light that is lit. The peripheral area 502 includes an area 501 showing a yellow signal that is not lit. The peripheral area 516 includes an area 515 that indicates a green signal that is not lit.

図18は第2実施形態の青信号形状領域521の周辺領域524及び526の例を示す図である。図18の例は、信号の配列が縦型の信号機300bの場合を示す。青信号形状領域521は点灯している青信号を示す。周辺領域524は、点灯していない黄信号を示す領域523を含む。周辺領域526は、点灯していない赤信号を示す領域525を含む。   FIG. 18 is a diagram showing an example of peripheral areas 524 and 526 of the green signal shape area 521 of the second embodiment. The example of FIG. 18 shows a case where the signal arrangement is a vertical traffic light 300b. The green signal shape area 521 indicates a green signal that is lit. The peripheral area 524 includes an area 523 indicating a yellow signal that is not lit. The peripheral area 526 includes an area 525 indicating a red signal that is not illuminated.

図19は第2実施形態の赤信号形状領域531の周辺領域524及び536の例を示す図である。図19の例は、信号の配列が縦型の信号機300bの場合を示す。赤信号形状領域531は点灯している赤信号を示す。周辺領域524は、点灯していない黄信号を示す領域523を含む。周辺領域536は、点灯していない青信号を示す領域535を含む。   FIG. 19 is a diagram showing an example of peripheral areas 524 and 536 of the red traffic light shape area 531 of the second embodiment. The example of FIG. 19 shows the case where the signal arrangement is a vertical traffic light 300b. The red traffic light shape area 531 shows a red traffic light that is lit. The peripheral area 524 includes an area 523 indicating a yellow signal that is not lit. The peripheral area 536 includes an area 535 that indicates an unlit green signal.

以下、図16の場合(信号機300aの青信号を認識する場合)を例にして、第2実施形態の認識部24及び判定部25の動作について説明する。   Hereinafter, the operation of the recognition unit 24 and the determination unit 25 of the second embodiment will be described by taking the case of FIG. 16 (case of recognizing the green signal of the traffic light 300a) as an example.

認識部24は、認識情報に基づいて、青信号形状領域104、周辺領域502及び504を認識する。青信号形状領域104の認識方法は、第1実施形態と同じなので説明を省略する。認識部24は、青信号形状領域104を認識した後に、当該青信号形状領域104の位置との相対位置により、周辺領域502及び504の位置を決定する。なお相対位置は、信号機300の種類等に応じて変わるため、選択部22により選択された認識情報に含まれる特徴情報に基づいて決定される。   The recognition unit 24 recognizes the green signal shape region 104 and the peripheral regions 502 and 504 based on the recognition information. The method of recognizing the green signal shape region 104 is the same as that in the first embodiment, and thus the description thereof is omitted. After recognizing the green signal shape region 104, the recognition unit 24 determines the positions of the peripheral regions 502 and 504 based on the relative position to the position of the green signal shape region 104. Note that the relative position changes depending on the type of the traffic signal 300, and thus is determined based on the feature information included in the recognition information selected by the selection unit 22.

ここで青信号形状領域104の周辺領域502及び504の特徴を示す特徴情報の例について説明する。   Here, an example of the characteristic information indicating the characteristics of the peripheral areas 502 and 504 of the green signal shape area 104 will be described.

表2は、信号機300aの青信号形状領域104の周辺領域502及び504の特徴情報の例を示す。   Table 2 shows an example of the characteristic information of the peripheral areas 502 and 504 of the green signal shape area 104 of the traffic light 300a.

Figure 2020064681
Figure 2020064681

特徴情報は周辺領域毎に、位置、サイズ及び平均輝度範囲を含む。例えば周辺領域502の位置は、(X+x4,Y+y4)である。ここで(X,Y)は、青信号形状領域104の中心を示す座標である。また周辺領域502のサイズは、(W4,H4)である。また周辺領域502に関連付けられた平均輝度範囲は、(Imin4,Imax4)である。この平均輝度範囲は、周辺領域502に含まれる点灯していない黄信号を示す領域501の平均輝度の範囲を示す。   The characteristic information includes the position, size, and average brightness range for each peripheral area. For example, the position of the peripheral area 502 is (X + x4, Y + y4). Here, (X, Y) are coordinates indicating the center of the green signal shape region 104. The size of the peripheral area 502 is (W4, H4). The average luminance range associated with the peripheral area 502 is (Imin4, Imax4). This average brightness range indicates the range of the average brightness of the area 501 that includes the yellow signal that is not illuminated and that is included in the peripheral area 502.

図20は第2実施形態の青信号形状領域104の周辺領域502の位置及びサイズを決定する方法の例を説明するための図である。はじめに、認識部24は、第1実施形態で説明した方法で、青信号形状領域104を認識する。次に、認識部24は、青信号形状領域104の中心の座標O(X,Y)からx方向にx4、y方向にy4だけ相対的に離れた点Pの座標(X+x4,Y+y4)を、周辺領域502の位置に決定する。次に、認識部24は、周辺領域502のサイズを、幅W4及び高さH4により決定する。   FIG. 20 is a diagram for explaining an example of a method of determining the position and size of the peripheral area 502 of the green signal shape area 104 of the second embodiment. First, the recognition unit 24 recognizes the green signal shape region 104 by the method described in the first embodiment. Next, the recognition unit 24 determines the coordinates (X + x4, Y + y4) of the point P, which is relatively distant by x4 in the x direction and y4 in the y direction from the center coordinate O (X, Y) of the green signal shape region 104, in the vicinity. The position of the area 502 is determined. Next, the recognition unit 24 determines the size of the peripheral area 502 based on the width W4 and the height H4.

認識部24は、周辺領域502の場合と同様にして、青信号形状領域104及び認識情報に基づいて周辺領域504の位置及びサイズを決定する。   The recognition unit 24 determines the position and size of the peripheral area 504 based on the green signal shape area 104 and the recognition information, similarly to the case of the peripheral area 502.

判定部25は、認識情報に含まれる特徴情報が示す平均輝度範囲に基づいて、青信号形状領域104が信号機300aの青信号を示す信号領域であるか否かを判定する。具体的には、はじめに、判定部25は、周辺領域502内のハフ変換により円形の領域501を抽出し、周辺領域504内のハフ変換により円形の領域503を抽出する。次に、判定部25は、円形の領域501の平均輝度と、円形の領域503の平均輝度と、を算出する。次に、判定部25は、円形の領域501の平均輝度が、Imin4以上かつImax4以下であり、円形の領域503の平均輝度が、Imin5以上かつImax5以下である場合、青信号形状領域104を信号機300aの青信号領域101であると判定する。   The determination unit 25 determines whether or not the green signal shape region 104 is the signal region indicating the green signal of the traffic light 300a based on the average luminance range indicated by the feature information included in the recognition information. Specifically, first, the determination unit 25 extracts the circular area 501 by the Hough transform in the peripheral area 502, and extracts the circular area 503 by the Hough transform in the peripheral area 504. Next, the determination unit 25 calculates the average brightness of the circular area 501 and the average brightness of the circular area 503. Next, when the average luminance of the circular area 501 is Imin4 or more and Imax4 or less and the average luminance of the circular area 503 is Imin5 or more and Imax5 or less, the determination unit 25 sets the green signal shape area 104 to the traffic light 300a. It is determined to be the green signal area 101.

なお判定部25は、周辺領域502及び周辺領域504のいずれか一方を判定することにより、青信号形状領域104が、信号機300aの青信号領域101であるか否かを判定してもよい。   Note that the determination unit 25 may determine whether the green signal shape area 104 is the green signal area 101 of the traffic signal 300a by determining one of the peripheral area 502 and the peripheral area 504.

以上説明したように、第2実施形態の認識装置100では、判定部25が、点灯していない信号を示す領域を含む周辺領域を利用して、信号形状領域が信号領域であるか否かを判定する。   As described above, in the recognition device 100 of the second embodiment, the determination unit 25 uses the peripheral area including the area indicating the signal that is not lit to determine whether the signal shape area is the signal area. judge.

これにより第2実施形態の認識装置100によれば、第1実施形態の認識装置100と同様の効果が得られる。例えば、赤信号の色と同じ赤色の看板の一部が木の枝葉に隠れ、枝葉を介して赤色の看板が見えている部分が円形になっているような画像領域が、赤信号領域として誤認識されることを防ぐことができる。   As a result, according to the recognition device 100 of the second embodiment, the same effect as that of the recognition device 100 of the first embodiment can be obtained. For example, an image area in which a part of the red sign that is the same as the red traffic light is hidden by the branches and leaves of the tree and the part where the red sign is visible through the branches is a circle is mistaken as the red traffic light area. You can prevent it from being recognized.

10 画像取得部
11 位置取得部
20 信号処理部
21 インタフェース部
22 選択部
23 記憶部
24 認識部
25 判定部
26 出力部
100 認識装置
101 青信号領域
102 青信号画素の領域
103 青信号画素の膨張領域
104 青信号形状領域
105 矩形領域
106 周辺領域
107 周辺領域に含まれる領域
200 車両
201 撮影光学系
202 メカシャッタ
203 モータドライバ
204 CCD
205 CDS回路
206 A/D変換器
207 タイミング信号発生器
208 画像処理回路
209 LCD
210 CPU
211 RAM
212 ROM
213 SDRAM
214 圧縮伸張回路
215 メモリ
216 操作部
217 出力I/F
220 バス
300 信号機
401 青信号領域
501 点灯していない黄信号を示す領域
502 周辺領域
503 点灯していない赤信号を示す領域
504 周辺領域
511 点灯している赤信号を示す領域
515 点灯していない青信号を示す領域
516 周辺領域
521 点灯している青信号を示す領域
523 点灯していない黄信号を示す領域
524 周辺領域
525 点灯していない赤信号を示す領域
526 周辺領域
531 点灯している赤信号を示す領域
535 点灯していない青信号を示す領域
536 周辺領域
10 image acquisition unit 11 position acquisition unit 20 signal processing unit 21 interface unit 22 selection unit 23 storage unit 24 recognition unit 25 determination unit 26 output unit 100 recognition device 101 green signal region 102 blue signal pixel region 103 blue signal pixel expansion region 104 blue signal shape Area 105 Rectangular Area 106 Peripheral Area 107 Area Included in Peripheral Area 200 Vehicle 201 Photographing Optical System 202 Mechanical Shutter 203 Motor Driver 204 CCD
205 CDS circuit 206 A / D converter 207 Timing signal generator 208 Image processing circuit 209 LCD
210 CPU
211 RAM
212 ROM
213 SDRAM
214 compression / expansion circuit 215 memory 216 operation unit 217 output I / F
220 Bus 300 Traffic light 401 Green signal area 501 Area where yellow signal is not lit 502 Peripheral area 503 Area where red signal is not lit 504 Peripheral area 511 Area where red signal is lit 515 Green signal is not lit Shown area 516 Peripheral area 521 Area where blue signal is lit 523 Area where yellow signal is not lit 524 Peripheral area 525 Area where red signal is not lit 526 Peripheral area 531 Area where red signal is lit 535 Area that shows unlit green signal 536 Peripheral area

特開2009−244946号公報JP, 2009-244946, A

Claims (8)

車両の周囲の画像情報を取得する画像取得部と、
前記車両の位置を示す位置情報を取得する位置取得部と、
前記位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、
前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識する認識部と、
前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定する判定部と、
を備える認識装置。
An image acquisition unit that acquires image information around the vehicle,
A position acquisition unit that acquires position information indicating the position of the vehicle,
A selection unit for selecting recognition information for recognizing a traffic signal in the area specified from the position information;
A recognition unit that recognizes a signal shape region indicating the shape of the signal of the traffic light from the image information based on the recognition information;
A determination unit that determines whether the signal shape region is a signal region indicating a signal of the traffic light based on the recognition information,
A recognition device including.
前記認識情報は、信号機の信号の色を示す色情報を含み、
前記認識部は、前記色情報に基づいて前記画像情報から前記信号機の信号の色を示す信号画素を認識し、前記信号画素を複数の画素により被覆することにより、前記信号画素の領域を信号画素の膨張領域に膨張させ、前記信号画素の膨張領域をハフ変換することにより得られた画素領域を、前記信号形状領域として認識する、
請求項1に記載の認識装置。
The recognition information includes color information indicating the color of the signal of the traffic light,
The recognition unit recognizes a signal pixel indicating the color of the signal of the traffic light from the image information based on the color information, and covers the signal pixel with a plurality of pixels, thereby defining the area of the signal pixel as the signal pixel. A pixel area obtained by Huff transforming the expanded area of the signal pixel is recognized as the signal shape area.
The recognition device according to claim 1.
前記色情報は、(Y,U,V)色空間の色情報であり、
前記画像取得部は、(R,G,B)色空間の前記画像情報を取得し、
前記認識部は、前記(R,G,B)色空間の画像情報を前記(Y,U,V)色空間の画像情報に変換し、前記(Y,U,V)色空間の色情報に基づいて前記(Y,U,V)色空間の画像情報に含まれる前記信号画素を認識する、
請求項2に記載の認識装置。
The color information is color information in a (Y, U, V) color space,
The image acquisition unit acquires the image information in the (R, G, B) color space,
The recognition unit converts the image information of the (R, G, B) color space into the image information of the (Y, U, V) color space, and converts the image information into the color information of the (Y, U, V) color space. Recognizing the signal pixel included in the image information of the (Y, U, V) color space based on the
The recognition device according to claim 2.
前記認識情報は、前記信号領域の周辺領域の特徴を示す特徴情報を含み、
前記判定部は、前記特徴情報と、前記信号形状領域の周辺領域の特徴情報と、が類似する場合、前記信号形状領域が前記信号領域であると判定する、
請求項1に記載の認識装置。
The recognition information includes characteristic information indicating characteristics of a peripheral region of the signal region,
The determination unit determines that the signal shape region is the signal region when the feature information and the feature information of the peripheral region of the signal shape region are similar to each other,
The recognition device according to claim 1.
前記特徴情報は、前記信号領域の周辺領域の平均輝度の範囲を示す情報を含み、
前記判定部は、前記信号形状領域の周辺領域の平均輝度が、前記信号領域の周辺領域の平均輝度の範囲に含まれる場合、前記信号形状領域が前記信号領域であると判定する、
請求項4に記載の認識装置。
The characteristic information includes information indicating a range of average luminance of a peripheral region of the signal region,
The determination unit determines that the signal shape region is the signal region when the average brightness of the peripheral region of the signal shape region is included in the range of the average brightness of the peripheral region of the signal region,
The recognition device according to claim 4.
前記周辺領域は、点灯していない信号を示す領域を含む、
請求項4又は5に記載の認識装置。
The peripheral region includes a region showing a signal that is not lit,
The recognition device according to claim 4 or 5.
車両の周囲の画像情報を取得する画像取得部と、前記車両の位置を示す位置情報を取得する位置取得部と、を備える認識装置の認識方法であって、
認識装置が、前記位置情報から特定される地域の信号機を認識するための認識情報を選択するステップと、
認識装置が、前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識するステップと、
認識装置が、前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定するステップと、
を含む認識方法。
A recognition method for a recognition device, comprising: an image acquisition unit that acquires image information around a vehicle; and a position acquisition unit that acquires position information indicating the position of the vehicle,
A step of selecting recognition information for the recognition device to recognize a traffic signal in the area specified from the position information,
A step of recognizing a signal shape region indicating a shape of the signal of the traffic light from the image information based on the recognition information;
A step of recognizing, based on the recognition information, determining whether the signal shape area is a signal area indicating a signal of the traffic light,
Recognition method including.
車両の周囲の画像情報を取得する画像取得部と、前記車両の位置を示す位置情報を取得する位置取得部と、を備える認識装置を、
前記位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、
前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識する認識部と、
前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定する判定部、
として機能させるためのプログラム。
A recognition device comprising: an image acquisition unit that acquires image information around the vehicle; and a position acquisition unit that acquires position information indicating the position of the vehicle,
A selection unit for selecting recognition information for recognizing a traffic signal in the area specified from the position information;
A recognition unit that recognizes a signal shape region indicating the shape of the signal of the traffic light from the image information based on the recognition information;
A determination unit that determines whether the signal shape region is a signal region indicating a signal of the traffic light based on the recognition information,
Program to function as.
JP2020004695A 2015-04-02 2020-01-15 Recognition device, recognition method and program Active JP6939919B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015076081 2015-04-02
JP2015076081 2015-04-02
JP2015172821A JP6679857B2 (en) 2015-04-02 2015-09-02 Recognition device, recognition method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015172821A Division JP6679857B2 (en) 2015-04-02 2015-09-02 Recognition device, recognition method and program

Publications (2)

Publication Number Publication Date
JP2020064681A true JP2020064681A (en) 2020-04-23
JP6939919B2 JP6939919B2 (en) 2021-09-22

Family

ID=57358232

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015172821A Expired - Fee Related JP6679857B2 (en) 2015-04-02 2015-09-02 Recognition device, recognition method and program
JP2020004695A Active JP6939919B2 (en) 2015-04-02 2020-01-15 Recognition device, recognition method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015172821A Expired - Fee Related JP6679857B2 (en) 2015-04-02 2015-09-02 Recognition device, recognition method and program

Country Status (1)

Country Link
JP (2) JP6679857B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6679857B2 (en) * 2015-04-02 2020-04-15 株式会社リコー Recognition device, recognition method and program
CN112016344A (en) * 2019-05-28 2020-12-01 深圳市商汤科技有限公司 State detection method and device of signal indicator, driving control method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032669A (en) * 2001-07-11 2003-01-31 Hitachi Ltd In-vehicle image processing camera device
JP2006155319A (en) * 2004-11-30 2006-06-15 Equos Research Co Ltd Driving support device
JP2006259885A (en) * 2005-03-15 2006-09-28 Akita Univ Signboard and sign recognition method using color images
JP2009244946A (en) * 2008-03-28 2009-10-22 Fujitsu Ltd Traffic light recognizing apparatus, traffic light recognizing method, and traffic light recognizing program
JP2012098967A (en) * 2010-11-02 2012-05-24 Aisin Seiki Co Ltd Traffic light detector, traffic light detection method and program
JP6679857B2 (en) * 2015-04-02 2020-04-15 株式会社リコー Recognition device, recognition method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032669A (en) * 2001-07-11 2003-01-31 Hitachi Ltd In-vehicle image processing camera device
JP2006155319A (en) * 2004-11-30 2006-06-15 Equos Research Co Ltd Driving support device
JP2006259885A (en) * 2005-03-15 2006-09-28 Akita Univ Signboard and sign recognition method using color images
JP2009244946A (en) * 2008-03-28 2009-10-22 Fujitsu Ltd Traffic light recognizing apparatus, traffic light recognizing method, and traffic light recognizing program
JP2012098967A (en) * 2010-11-02 2012-05-24 Aisin Seiki Co Ltd Traffic light detector, traffic light detection method and program
JP6679857B2 (en) * 2015-04-02 2020-04-15 株式会社リコー Recognition device, recognition method and program

Also Published As

Publication number Publication date
JP6679857B2 (en) 2020-04-15
JP6939919B2 (en) 2021-09-22
JP2016197388A (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP4482599B2 (en) Vehicle periphery monitoring device
JP2016161973A (en) Recognition apparatus, recognition method, and program
JP6728634B2 (en) Detecting device, detecting method and program
US9994074B2 (en) Detection device, detection system, and detection method
JP5895448B2 (en) Vehicle recognition device, vehicle recognition method, and program
EP2669844A2 (en) Level Difference Recognition System Installed in Vehicle and Recognition Method executed by the Level Difference Recognition System
JP6375911B2 (en) Curve mirror detector
JP2012027773A (en) Pseudo grayscale image generation device and program
JP4644273B2 (en) Vehicle periphery monitoring device
JP6939919B2 (en) Recognition device, recognition method and program
JP2017174380A (en) Recognition device, method for recognizing object, program, and storage medium
JP2007288657A (en) Display device for vehicle and display method for display device for vehicle
JP4528283B2 (en) Vehicle periphery monitoring device
JP2011103058A (en) Erroneous recognition prevention device
JP5235843B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP6825299B2 (en) Information processing equipment, information processing methods and programs
JP6874315B2 (en) Information processing equipment, information processing methods and programs
JP6676885B2 (en) Recognition device, recognition method and program
JP6859659B2 (en) Information processing equipment, information processing methods and programs
JP2006127058A (en) Object recognition system and image processing apparatus
JP2008028478A (en) Obstacle detection system and obstacle detection method
JP5149918B2 (en) Vehicle periphery monitoring device
JP6299630B2 (en) Warning device, warning method and warning program
KR101440293B1 (en) Apparatus and method for detecting crosswalk
JP2009187357A (en) Object type determination apparatus, object type determination method, and object type determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R151 Written notification of patent or utility model registration

Ref document number: 6939919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151