[go: up one dir, main page]

JP2016197388A - Recognition device, recognition method, and program - Google Patents

Recognition device, recognition method, and program Download PDF

Info

Publication number
JP2016197388A
JP2016197388A JP2015172821A JP2015172821A JP2016197388A JP 2016197388 A JP2016197388 A JP 2016197388A JP 2015172821 A JP2015172821 A JP 2015172821A JP 2015172821 A JP2015172821 A JP 2015172821A JP 2016197388 A JP2016197388 A JP 2016197388A
Authority
JP
Japan
Prior art keywords
signal
information
region
recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015172821A
Other languages
Japanese (ja)
Other versions
JP6679857B2 (en
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2016197388A publication Critical patent/JP2016197388A/en
Priority to JP2020004695A priority Critical patent/JP6939919B2/en
Application granted granted Critical
Publication of JP6679857B2 publication Critical patent/JP6679857B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像情報から信号機の信号領域をより正確に認識できる認識装置、認識方法及びプログラムを提供することを目的とする。【解決手段】実施形態の認識装置は、車両の周囲の画像情報を取得する画像取得部と、車両の位置を示す位置情報を取得する位置取得部と、位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、認識情報に基づいて画像情報から信号機の信号の形状を示す信号形状領域を認識する認識部と、認識情報に基づいて信号形状領域が信号機の信号を示す信号領域であるか否かを判定する判定部と、を備える。【選択図】図2An object of the present invention is to provide a recognition device, a recognition method, and a program capable of more accurately recognizing a signal area of a traffic light from image information. A recognition apparatus according to an embodiment includes an image acquisition unit that acquires image information around a vehicle, a position acquisition unit that acquires position information indicating the position of the vehicle, and a traffic signal in an area specified by the position information. A selection unit for selecting recognition information for recognition, a recognition unit for recognizing a signal shape region indicating the shape of a signal of a traffic light from image information based on the recognition information, and a signal shape region based on the recognition information. And a determination unit that determines whether or not the signal region indicates. [Selection] Figure 2

Description

本発明は認識装置、認識方法及びプログラムに関する。   The present invention relates to a recognition apparatus, a recognition method, and a program.

車載カメラを利用して、運転者を支援したり、事故発生時の映像を記憶したりする技術が従来から知られている。例えば車載カメラを利用した運転者支援技術には、障害物の回避又は衝突時の衝撃を軽減する自動ブレーキ機能、及び、先行車両との車間距離の維持等を警告する警報機能等がある。   2. Description of the Related Art Conventionally, a technique for assisting a driver or memorizing a video at the time of an accident using an in-vehicle camera has been known. For example, driver assistance technology using an in-vehicle camera includes an automatic brake function for avoiding an obstacle or reducing an impact at the time of a collision, and an alarm function for warning the maintenance of a distance from a preceding vehicle.

また例えば特許文献1には、信号機の信号の色と、信号の形状と、を同じ被写体が撮影された2枚の画像から別々に認識することにより、精度良く画像から信号機の信号を認識する発明が開示されている。   Further, for example, Patent Document 1 discloses an invention for accurately recognizing a signal of a traffic signal from an image by recognizing separately the color of the signal of the traffic signal and the shape of the signal from two images taken of the same subject. Is disclosed.

しかしながら従来の技術では、信号機の信号領域の色及び形状と類似する物体を、信号機の信号領域として誤認識する可能性があった。   However, in the prior art, there is a possibility that an object similar to the color and shape of the signal area of the traffic signal may be erroneously recognized as the signal area of the traffic signal.

本発明は、上記に鑑みてなされたものであって、画像情報から信号機の信号領域をより正確に認識できる認識装置、認識方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a recognition device, a recognition method, and a program capable of more accurately recognizing a signal area of a traffic light from image information.

上述した課題を解決し、目的を達成するために、本発明は、車両の周囲の画像情報を取得する画像取得部と、前記車両の位置を示す位置情報を取得する位置取得部と、前記位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識する認識部と、前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定する判定部と、を備える。   In order to solve the above-described problems and achieve the object, the present invention provides an image acquisition unit that acquires image information around a vehicle, a position acquisition unit that acquires position information indicating the position of the vehicle, and the position A selection unit for selecting recognition information for recognizing a traffic signal in a region identified from information, a recognition unit for recognizing a signal shape region indicating a signal shape of the traffic signal from the image information based on the recognition information, A determination unit that determines whether the signal shape area is a signal area indicating a signal of the traffic light based on the recognition information.

本発明によれば、画像情報から信号機の信号領域をより正確に認識できるという効果を奏する。   According to the present invention, there is an effect that the signal area of the traffic light can be more accurately recognized from the image information.

図1は第1実施形態の認識装置が搭載された車両の例を示す図である。FIG. 1 is a diagram illustrating an example of a vehicle on which the recognition apparatus according to the first embodiment is mounted. 図2は第1実施形態の認識装置の構成の例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the recognition apparatus according to the first embodiment. 図3は信号機を含む画像情報の例1を示す図である。FIG. 3 is a diagram illustrating an example 1 of image information including a traffic light. 図4は信号機を含む画像情報の例2を示す図である。FIG. 4 is a diagram illustrating an example 2 of image information including a traffic light. 図5は赤信号画素の(U,V)分布の例を示す図である。FIG. 5 is a diagram illustrating an example of the (U, V) distribution of red signal pixels. 図6は青信号画素の(U,V)分布の例を示す図である。FIG. 6 is a diagram illustrating an example of the (U, V) distribution of the green signal pixels. 図7は黄信号画素の(U,V)分布の例を示す図である。FIG. 7 is a diagram illustrating an example of the (U, V) distribution of yellow signal pixels. 図8は第1実施形態の青信号画素の領域の例を示す図である。FIG. 8 is a diagram illustrating an example of a green signal pixel region according to the first embodiment. 図9は第1実施形態の青信号画素の膨張領域の例を示す図である。FIG. 9 is a diagram illustrating an example of the expansion region of the green signal pixel according to the first embodiment. 図10は第1実施形態の青信号形状領域の例を示す図である。FIG. 10 is a diagram illustrating an example of the green signal shape region of the first embodiment. 図11は第1実施形態の矩形領域の例を示す図である。FIG. 11 is a diagram illustrating an example of a rectangular area according to the first embodiment. 図12は第1実施形態の周辺領域の例を示す図である。FIG. 12 is a diagram illustrating an example of a peripheral region according to the first embodiment. 図13は第1実施形態の青信号の認識結果の例を示す図である。FIG. 13 is a diagram illustrating an example of a recognition result of a green signal according to the first embodiment. 図14は第1実施形態の認識方法の例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a recognition method according to the first embodiment. 図15は第1実施形態の画像取得部のハードウェア構成の例を示す図である。FIG. 15 is a diagram illustrating an example of a hardware configuration of the image acquisition unit according to the first embodiment. 図16は第2実施形態の青信号形状領域の周辺領域の例を示す図である。FIG. 16 is a diagram illustrating an example of the peripheral region of the green signal shape region of the second embodiment. 図17は第2実施形態の赤信号形状領域の周辺領域の例を示す図である。FIG. 17 is a diagram illustrating an example of the peripheral region of the red signal shape region of the second embodiment. 図18は第2実施形態の青信号形状領域の周辺領域の例を示す図である。FIG. 18 is a diagram illustrating an example of a peripheral region of the green signal shape region of the second embodiment. 図19は第2実施形態の赤信号形状領域の周辺領域の例を示す図である。FIG. 19 is a diagram illustrating an example of a peripheral region of the red signal shape region of the second embodiment. 図20は第2実施形態の青信号形状領域の周辺領域の位置及びサイズを決定する方法の例を説明するための図である。FIG. 20 is a diagram for explaining an example of a method for determining the position and size of the peripheral region of the green signal shape region of the second embodiment.

以下に添付図面を参照して、認識装置、認識方法及びプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of a recognition device, a recognition method, and a program will be described in detail with reference to the accompanying drawings.

(第1実施形態)
図1は第1実施形態の認識装置100が搭載された車両200の例を示す図である。第1実施形態の認識装置100は、車両200のフロントガラスのバックミラー付近に設置される。第1実施形態の認識装置100は、画像認識処理によって画像情報から信号機300の信号を示す信号領域を認識する。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a vehicle 200 on which the recognition device 100 according to the first embodiment is mounted. The recognition device 100 according to the first embodiment is installed in the vicinity of the rearview mirror of the windshield of the vehicle 200. The recognition apparatus 100 according to the first embodiment recognizes a signal area indicating a signal of the traffic light 300 from image information through image recognition processing.

図2は第1実施形態の認識装置100の構成の例を示す図である。第1実施形態の認識装置100は、画像取得部10、位置取得部11及び信号処理部20を備える。信号処理部20は、インタフェース部21、選択部22、記憶部23、認識部24、判定部25及び出力部26を備える。   FIG. 2 is a diagram illustrating an example of the configuration of the recognition apparatus 100 according to the first embodiment. The recognition apparatus 100 according to the first embodiment includes an image acquisition unit 10, a position acquisition unit 11, and a signal processing unit 20. The signal processing unit 20 includes an interface unit 21, a selection unit 22, a storage unit 23, a recognition unit 24, a determination unit 25, and an output unit 26.

画像取得部10は、(R,G,B)色空間により表現されたカラーの画像情報を取得する。画像取得部10は当該画像情報をインタフェース部21に入力する。画像取得部10は、例えば車両200の周囲を撮影するカメラである。   The image acquisition unit 10 acquires color image information expressed in the (R, G, B) color space. The image acquisition unit 10 inputs the image information to the interface unit 21. The image acquisition unit 10 is a camera that captures the surroundings of the vehicle 200, for example.

位置取得部11は車両200の位置を示す位置情報を取得し、当該位置情報をインタフェース部21に入力する。位置情報は、例えばGPS(Global Positioning System)情報、及び、車両200の位置を示す地図の座標情報等である。   The position acquisition unit 11 acquires position information indicating the position of the vehicle 200 and inputs the position information to the interface unit 21. The position information is, for example, GPS (Global Positioning System) information, map coordinate information indicating the position of the vehicle 200, and the like.

インタフェース部21は、画像取得部10から画像情報を受け付けると、当該画像情報を、認識部24が時系列の連続画像フレームとして受け付け可能な情報形式に変換する。インタフェース部21は情報形式が変換された画像情報を認識部24に入力する。   When receiving image information from the image acquisition unit 10, the interface unit 21 converts the image information into an information format that can be received by the recognition unit 24 as a time-series continuous image frame. The interface unit 21 inputs the image information whose information format has been converted to the recognition unit 24.

またインタフェース部21は、位置取得部11から位置情報を受け付けると、当該位置情報を選択部22に入力する。   Further, when the interface unit 21 receives the position information from the position acquisition unit 11, the interface unit 21 inputs the position information to the selection unit 22.

選択部22は、インタフェース部21から位置情報を受け付けると、当該位置情報から地域を特定する。そして選択部22は、特定された地域の信号機300を認識するための認識情報を、記憶部23に記憶されている1以上の認識情報から選択する。選択部22は当該認識情報を認識部24及び判定部25に入力する。   When receiving the location information from the interface unit 21, the selection unit 22 identifies the area from the location information. Then, the selection unit 22 selects recognition information for recognizing the traffic signal 300 in the specified area from one or more pieces of recognition information stored in the storage unit 23. The selection unit 22 inputs the recognition information to the recognition unit 24 and the determination unit 25.

記憶部23は情報を記憶する。記憶部23は、例えば認識情報を地域毎に記憶する。信号機300の信号の形状及び信号の色は、地域によって異なる。例えば信号機300の形状は、地域によって横型の場合と縦型の場合とがある。   The storage unit 23 stores information. The memory | storage part 23 memorize | stores recognition information for every area, for example. The signal shape and signal color of the traffic light 300 vary depending on the region. For example, the shape of the traffic light 300 may be a horizontal type or a vertical type depending on the region.

図3は信号機300aを含む画像情報の例1を示す図である。図3の例は、信号の配列が横型の場合の信号機300aを示す。青信号領域101は青信号を示す領域である。例えば日本では、横型の信号機300aが一般的である。   FIG. 3 is a diagram illustrating an example 1 of image information including the traffic light 300a. The example of FIG. 3 shows the traffic light 300a when the signal arrangement is a horizontal type. The green signal area 101 is an area showing a green signal. For example, in Japan, the horizontal traffic light 300a is common.

図4は信号機300bを含む画像情報の例2を示す図である。図4の例は、信号の配列が縦型の場合の信号機300bを示す。青信号領域401は青信号を示す領域である。例えばアメリカでは、縦型の信号機300bが一般的である。なお日本でも、積雪量の多い地域では縦型の信号機300bが設置されている。   FIG. 4 is a diagram illustrating an example 2 of image information including the traffic light 300b. The example of FIG. 4 shows the traffic light 300b when the signal arrangement is vertical. The green signal area 401 is an area showing a green signal. For example, in the United States, a vertical traffic light 300b is common. In Japan, vertical traffic lights 300b are installed in areas with a large amount of snow.

認識情報は、位置情報から特定される地域の信号機300を認識するための情報である。認識情報は、信号画素を判定する色情報、及び、信号形状領域の周辺領域の特徴情報を含む。信号形状領域は信号機300の信号の形状を示す領域である。信号形状領域の周辺領域の特徴情報の説明は、表1及び図12を参照して後述する。   The recognition information is information for recognizing the traffic signal 300 in the area specified from the position information. The recognition information includes color information for determining the signal pixel and feature information of the peripheral area of the signal shape area. The signal shape area is an area indicating the signal shape of the traffic light 300. The feature information of the peripheral area of the signal shape area will be described later with reference to Table 1 and FIG.

信号画素を判定する色情報は、例えば赤信号画素を判定する閾値、青信号画素を判定する閾値、及び、黄信号画素を判定する閾値を含む。   The color information for determining a signal pixel includes, for example, a threshold value for determining a red signal pixel, a threshold value for determining a blue signal pixel, and a threshold value for determining a yellow signal pixel.

赤信号画素は赤信号の色を示す画素である。赤信号画素を判定する閾値は、Uの閾値(Ur−min及びUr−max)及びVの閾値(Vr−min及びVr−max)である。この閾値は、赤信号画素の(U,V)分布に基づいて決定される。   The red signal pixel is a pixel indicating the color of the red signal. The threshold values for determining the red signal pixel are the U threshold value (Ur-min and Ur-max) and the V threshold value (Vr-min and Vr-max). This threshold is determined based on the (U, V) distribution of red signal pixels.

図5は赤信号画素の(U,V)分布の例を示す図である。図5の例は、赤信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた赤信号画素の(U,V)分布を示す。なおUの閾値(Ur−min及びUr−max)及びVの閾値(Vr−min及びVr−max)の具体的な値は任意に決定してよい。しかしながら当該閾値の範囲が広すぎると、赤信号の色でない画素を検出する可能性も高くなるので、赤信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 5 is a diagram illustrating an example of the (U, V) distribution of red signal pixels. The example of FIG. 5 shows the (U, V) distribution of red signal pixels obtained from pixel information in the (R, G, B) color space of a plurality of image samples in which the red signal is captured. The specific values of the U threshold (Ur-min and Ur-max) and the V threshold (Vr-min and Vr-max) may be arbitrarily determined. However, if the range of the threshold is too wide, there is a high possibility that a pixel that is not a red signal color is detected. Therefore, the threshold is set so as not to overlap with the (U, V) value of a pixel that is not a red signal.

青信号画素は青信号の色を示す画素である。青信号画素を判定する閾値は、Uの閾値(Ub−min及びUb−max)及びVの閾値(Vb−min及びVb−max)である。この閾値は、青信号画素の(U,V)分布に基づいて決定される。   The blue signal pixel is a pixel indicating the color of the blue signal. The threshold values for determining the green light pixel are the U threshold values (Ub-min and Ub-max) and the V threshold values (Vb-min and Vb-max). This threshold is determined based on the (U, V) distribution of the green signal pixels.

図6は青信号画素の(U,V)分布の例を示す図である。図6の例は、青信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた青信号画素の(U,V)分布を示す。なおUの閾値(Ub−min及びUb−max)及びVの閾値(Vb−min及びVb−max)の具体的な値は任意に決定してよい。しかしながら当該閾値の範囲が広すぎると、青信号の色でない画素を検出する可能性も高くなるので、青信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 6 is a diagram illustrating an example of the (U, V) distribution of the green signal pixels. The example of FIG. 6 shows a (U, V) distribution of blue signal pixels obtained from pixel information in the (R, G, B) color space of a plurality of image samples in which a blue signal is captured. Note that specific values of the U threshold (Ub-min and Ub-max) and the V threshold (Vb-min and Vb-max) may be arbitrarily determined. However, if the range of the threshold is too wide, the possibility of detecting a pixel that is not the color of the blue signal increases, so the threshold is set so as not to overlap the (U, V) value of the pixel that is not the blue signal.

黄信号画素は黄信号の色を示す画素である。黄信号画素を判定する閾値は、Uの閾値(Uy−min及びUy−max)及びVの閾値(Vy−min及びVy−max)である。この閾値は、黄信号画素の(U,V)分布に基づいて決定される。   The yellow signal pixel is a pixel indicating the color of the yellow signal. The threshold values for determining the yellow signal pixel are the U threshold values (Uy-min and Uy-max) and the V threshold values (Vy-min and Vy-max). This threshold is determined based on the (U, V) distribution of yellow signal pixels.

図7は黄信号画素の(U,V)分布の例を示す図である。図7の例は、黄信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた黄信号画素の(U,V)分布を示す。なおUの閾値(Uy−min及びUy−max)及びVの閾値(Vy−min及びVy−max)の具体的な値は任意に決定してよい。しかしながら当該閾値の範囲が広すぎると、黄信号の色でない画素を検出する可能性も高くなるので、黄信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 7 is a diagram illustrating an example of the (U, V) distribution of yellow signal pixels. The example of FIG. 7 shows the (U, V) distribution of yellow signal pixels obtained from pixel information in the (R, G, B) color space of a plurality of image samples in which the yellow signal is captured. The specific values of the U threshold (Uy-min and Uy-max) and the V threshold (Vy-min and Vy-max) may be arbitrarily determined. However, if the range of the threshold is too wide, the possibility of detecting a pixel that is not the color of the yellow signal increases, so the threshold is set so as not to overlap with the (U, V) value of the pixel that is not the yellow signal.

以下の説明では、選択部22により、信号機300a(図3参照)の信号を認識するための認識情報が選択された場合を例にして具体的に説明する。   In the following description, a specific example will be described in which the selection unit 22 selects recognition information for recognizing the signal of the traffic light 300a (see FIG. 3).

図2に戻り、認識部24は、インタフェース部21から画像情報を受け付け、選択部22から認識情報を受け付ける。認識部24は、認識情報に基づいて信号形状領域を認識する。具体的には、まず認識部24は、(R,G,B)色空間の画像情報を、次式(1)を使用して、(Y,U,V)色空間の画像情報に変換する。   Returning to FIG. 2, the recognition unit 24 receives image information from the interface unit 21 and receives recognition information from the selection unit 22. The recognition unit 24 recognizes the signal shape area based on the recognition information. Specifically, the recognition unit 24 first converts image information in the (R, G, B) color space into image information in the (Y, U, V) color space using the following equation (1). .

次に認識部24は(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる赤信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を赤信号画素と認識する。同様に、認識部24は(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる青信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を青信号画素と認識する。また認識部24は(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる黄信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を黄信号画素と認識する。   Next, when the (U, V) value of the image information in the (Y, U, V) color space is included in the threshold range for determining the red signal pixel included in the recognition information, the recognition unit 24 V) A pixel having a value is recognized as a red signal pixel. Similarly, when the (U, V) value of the image information in the (Y, U, V) color space is included in the threshold range for determining the green signal pixel included in the recognition information, the recognition unit 24 (U, V) A pixel having a value is recognized as a green signal pixel. When the (U, V) value of the image information in the (Y, U, V) color space is included in the threshold range for determining the yellow signal pixel included in the recognition information, the recognizing unit 24 (U, V ) Recognize a pixel having a value as a yellow signal pixel.

以下、認識部24により、青信号画素が認識された場合を例にして具体的に説明する。なお赤信号画素及び黄信号画素の場合も青信号画素の場合と同様である。   Hereinafter, a specific example will be described in which the recognition unit 24 recognizes a green signal pixel. The case of the red signal pixel and the yellow signal pixel is the same as that of the blue signal pixel.

図8は第1実施形態の青信号画素の領域102の例を示す図である。図8の青信号画素の領域102の大きさは、実際の青信号領域101(図3参照)の大きさよりも小さい。すなわち図8の例は、本来、青信号の領域として認識されるべき領域が、ノイズ画素の影響により青信号画素として認識されなかった場合を示す。ノイズ画素は、撮影時の周囲の状況に起因するノイズ画素、撮像素子の特性に起因するノイズ画素、及び、撮像素子表面に付着したゴミに起因するノイズ画素等である。撮影時の周囲の状態に起因するノイズ画素は、画像取得部10により信号機300が撮影された際に、例えば太陽光等の光により反射していた青信号の領域の画素である。撮像素子の特性に起因するノイズ画素は、例えばランダムノイズの影響を受けた画素である。   FIG. 8 is a diagram illustrating an example of a green light pixel region 102 according to the first embodiment. The size of the green signal pixel region 102 in FIG. 8 is smaller than the actual size of the green signal region 101 (see FIG. 3). That is, the example of FIG. 8 shows a case where an area that should originally be recognized as a blue signal area is not recognized as a blue signal pixel due to the influence of a noise pixel. The noise pixel is a noise pixel caused by surrounding conditions at the time of shooting, a noise pixel caused by characteristics of the image sensor, a noise pixel caused by dust attached to the surface of the image sensor, or the like. The noise pixels caused by the surrounding state at the time of shooting are pixels in a blue signal region that is reflected by light such as sunlight when the traffic light 300 is shot by the image acquisition unit 10. The noise pixel resulting from the characteristics of the image sensor is, for example, a pixel affected by random noise.

図2に戻り、次に認識部24は青信号画素の領域102を膨張させる膨張処理を行う。具体的には、認識部24は青信号画素の領域102の画素毎に、当該画素を複数の画素により被覆することにより、青信号画素の領域102を青信号画素の膨張領域に膨張させる。認識部24は、例えばn×n(nは1以上の整数)のブロック画素により各画素を被覆する。例えばn=7の場合、青信号画素の領域102の各画素を、当該画素の周囲の48個(7×7−1)の画素を更に含む青信号画素の膨張領域に膨張させる。   Returning to FIG. 2, the recognition unit 24 performs an expansion process for expanding the green signal pixel region 102. Specifically, for each pixel in the green signal pixel region 102, the recognition unit 24 covers the pixel with a plurality of pixels, thereby expanding the green signal pixel region 102 into the green signal pixel expansion region. The recognition unit 24 covers each pixel with, for example, n × n (n is an integer of 1 or more) block pixels. For example, when n = 7, each pixel of the green signal pixel region 102 is expanded into an expansion region of the green signal pixel further including 48 (7 × 7-1) pixels around the pixel.

図9は第1実施形態の青信号画素の膨張領域103の例を示す図である。図9の例は、認識部24が、認識部24により認識された青信号画素の領域102に、膨張処理を行ったことにより、本来の青信号の形状を示す青信号形状領域104を含む青信号画素の膨張領域103が得られた場合を示す。   FIG. 9 is a diagram illustrating an example of the expansion region 103 of the green signal pixel according to the first embodiment. In the example of FIG. 9, the recognition unit 24 performs expansion processing on the green signal pixel region 102 recognized by the recognition unit 24, thereby expanding the green signal pixel including the green signal shape region 104 indicating the original green signal shape. A case where the region 103 is obtained is shown.

図2に戻り、次に認識部24は青信号の形状を示す青信号形状領域104の形状を認識する形状認識処理を行う。具体的には、認識部24は、青信号画素の領域102をハフ(Hough)変換することにより、青信号画素の膨張領域103内で円形の画素領域を認識できるか否かを判定する。円形の画素領域を認識できる場合、認識部24は当該円形の画素領域が信号機300の青信号の形状を示す青信号形状領域104であることを認識する。   Returning to FIG. 2, the recognition unit 24 performs shape recognition processing for recognizing the shape of the green signal shape region 104 indicating the shape of the green signal. Specifically, the recognition unit 24 determines whether or not a circular pixel region can be recognized in the expansion region 103 of the green signal pixel by performing a Hough conversion on the region 102 of the green signal pixel. When the circular pixel region can be recognized, the recognition unit 24 recognizes that the circular pixel region is the green signal shape region 104 indicating the shape of the green signal of the traffic light 300.

図10は第1実施形態の青信号形状領域104の例を示す図である。図10の例は、青信号画素の領域102(図8参照)がハフ変換されることにより、円形の画素領域として青信号形状領域104が認識された場合の例を示す。   FIG. 10 is a diagram illustrating an example of the green signal shape region 104 of the first embodiment. The example of FIG. 10 shows an example in which the green signal shape region 104 is recognized as a circular pixel region by performing the Hough transform on the green signal pixel region 102 (see FIG. 8).

図2に戻り、次に認識部24は青信号形状領域104に外接する矩形領域を認識する。   Returning to FIG. 2, the recognition unit 24 next recognizes a rectangular area circumscribing the green signal shape area 104.

図11は第1実施形態の矩形領域105の例を示す図である。図11の例は、認識部24が、円形の画素領域として認識された青信号形状領域104に外接する矩形領域105を認識する場合を示す。   FIG. 11 is a diagram illustrating an example of the rectangular area 105 according to the first embodiment. The example of FIG. 11 illustrates a case where the recognition unit 24 recognizes a rectangular area 105 that circumscribes the green signal shape area 104 recognized as a circular pixel area.

図2に戻り、次に認識部24は矩形領域105を示す情報を判定部25に入力する。   Returning to FIG. 2, the recognition unit 24 then inputs information indicating the rectangular area 105 to the determination unit 25.

判定部25は、選択部22から認識情報を受け付け、認識部24から矩形領域105を示す情報を受け付ける。判定部25は、矩形領域105に内接する青信号形状領域104が、信号機300aの青信号領域101であるか否かを、当該認識情報に基づいて判定する。具体的には、判定部25は、青信号形状領域104の周辺領域の特徴情報と、当該認識情報に含まれる信号機300aの青信号領域101の周辺領域の特徴情報と、が類似する場合、当該青信号形状領域104を信号機300aの青信号領域101であると判定する。   The determination unit 25 receives recognition information from the selection unit 22 and receives information indicating the rectangular area 105 from the recognition unit 24. The determination unit 25 determines whether or not the green signal shape area 104 inscribed in the rectangular area 105 is the green signal area 101 of the traffic light 300a based on the recognition information. Specifically, when the feature information of the peripheral region of the green signal shape region 104 and the feature information of the peripheral region of the green signal region 101 of the traffic light 300a included in the recognition information are similar, the determination unit 25 determines the green signal shape. It is determined that the area 104 is the green signal area 101 of the traffic light 300a.

ここで信号領域の周辺領域の特徴を示す特徴情報の例について説明する。   Here, an example of feature information indicating features of the peripheral region of the signal region will be described.

表1は信号機300aの特徴情報の例を示す。   Table 1 shows an example of characteristic information of the traffic light 300a.

特徴情報は信号の種類毎に、位置、サイズ及び平均輝度範囲を含む。例えば青信号領域101の周辺領域の位置は、(X−x1,Y−y1)である。また青信号領域101の周辺領域のサイズは、(W1,H1)である。ここで周辺領域の位置及びサイズについて説明する。   The feature information includes a position, a size, and an average luminance range for each signal type. For example, the position of the peripheral area of the green signal area 101 is (X-x1, Y-y1). The size of the peripheral area of the green signal area 101 is (W1, H1). Here, the position and size of the peripheral area will be described.

図12は第1実施形態の周辺領域の例を示す図である。図12は、青信号形状領域104の周辺領域106の特徴情報と、信号機300aの青信号領域101の周辺領域の特徴情報と、を比較する場合を示す。点Oの座標は(X,Y)である。点Oは、矩形領域105に内接する円形の画素領域(青信号形状領域104)の中心を示す。また点Pの座標は(X−x1,Y−y1)である。周辺領域106は、点P、幅W1及び高さH1により決定される。   FIG. 12 is a diagram illustrating an example of a peripheral region according to the first embodiment. FIG. 12 shows a case where the feature information of the peripheral region 106 of the green signal shape region 104 is compared with the feature information of the peripheral region of the green signal region 101 of the traffic light 300a. The coordinates of the point O are (X, Y). A point O indicates the center of a circular pixel region (green signal shape region 104) inscribed in the rectangular region 105. The coordinates of the point P are (X-x1, Y-y1). The peripheral region 106 is determined by the point P, the width W1, and the height H1.

また例えば青信号領域101の周辺領域の平均輝度範囲は、(Imin1,Imax1)である。平均輝度範囲は、例えば信号機300aの筐体の色に基づいて決定される。判定部25は、周辺領域106に含まれる領域107の平均輝度を算出し、当該平均輝度が、Imin1以上かつImax1以下である場合、青信号形状領域104を信号機300aの青信号領域101であると判定する。   For example, the average luminance range in the peripheral region of the green signal region 101 is (Imin1, Imax1). The average luminance range is determined based on the color of the casing of the traffic light 300a, for example. The determination unit 25 calculates the average luminance of the region 107 included in the peripheral region 106, and determines that the green signal shape region 104 is the green signal region 101 of the traffic light 300a when the average luminance is not less than Imin1 and not more than Imax1. .

これにより例えば、赤信号の色と同じ赤色の看板の一部が木の枝葉に隠れ、枝葉を介して赤色の看板が見えている部分が円形になっているような画像領域が、赤信号領域として誤認識されることを防ぐことができる。   Thus, for example, an image area in which a part of a red sign that is the same as the color of the red signal is hidden behind a tree branch and the part where the red sign is visible through the branch is circular is a red signal area. Can be prevented from being erroneously recognized.

図13は第1実施形態の青信号の認識結果の例を示す図である。図13の例は、図3に示す画像情報に含まれる信号機300aの青信号が、当該青信号領域101を含む矩形領域105として認識された場合を示す。   FIG. 13 is a diagram illustrating an example of a recognition result of a green signal according to the first embodiment. The example of FIG. 13 illustrates a case where the green signal of the traffic light 300 a included in the image information illustrated in FIG. 3 is recognized as a rectangular area 105 including the green signal area 101.

図2に戻り、判定部25は、青信号領域101を含む矩形領域105を示す認識結果情報を出力部26に入力する。出力部26は、判定部25から認識結果情報を受け付けると、当該認識結果情報を出力する。認識結果情報は、例えばドライバーによる信号無視及び急発進等の危険運転の検知等の処理に使用される。   Returning to FIG. 2, the determination unit 25 inputs recognition result information indicating the rectangular region 105 including the green signal region 101 to the output unit 26. Upon receiving the recognition result information from the determination unit 25, the output unit 26 outputs the recognition result information. The recognition result information is used for processing such as detection of dangerous driving such as signal ignorance and sudden start by the driver, for example.

次に第1実施形態の認識方法について説明する。   Next, the recognition method of the first embodiment will be described.

図14は第1実施形態の認識方法の例を示すフローチャートである。なお信号が青信号、黄信号及び赤信号の場合の説明は同様なので、第1実施形態の認識方法の説明では、信号が青信号である場合を例にして説明する。信号機300aの青信号(図3参照)を認識する場合を例にして具体的に説明する。   FIG. 14 is a flowchart illustrating an example of a recognition method according to the first embodiment. Since the description is the same when the signal is a blue signal, a yellow signal, and a red signal, in the description of the recognition method of the first embodiment, a case where the signal is a blue signal will be described as an example. A specific example will be described in which a green signal (see FIG. 3) of the traffic light 300a is recognized.

はじめに、画像取得部10が、車両200の周囲を撮影し、(R,G,B)色空間により表現されたカラーの画像情報を取得する(ステップS1)。次に、認識部24が、(R,G,B)色空間により表現されたカラーの画像情報を、上述の式(1)を使用して、(Y,U,V)色空間の画像情報に変換する(ステップS2)。   First, the image acquisition unit 10 captures the surroundings of the vehicle 200 and acquires color image information expressed in the (R, G, B) color space (step S1). Next, the recognizing unit 24 uses the above equation (1) to convert the color image information expressed in the (R, G, B) color space into the image information in the (Y, U, V) color space. (Step S2).

また、位置取得部11が、車両200の位置を示す位置情報を取得する(ステップS3)。次に、選択部22が、位置情報により特定された地域の信号機300aを認識するための認識情報を、記憶部23に記憶されている1以上の認識情報から選択する(ステップS4)。   Moreover, the position acquisition part 11 acquires the positional information which shows the position of the vehicle 200 (step S3). Next, the selection unit 22 selects recognition information for recognizing the traffic signal 300a in the area specified by the position information from one or more pieces of recognition information stored in the storage unit 23 (step S4).

次に、認識部24が、(Y,U,V)色空間の画像情報の(U,V)値が、認識情報に含まれる青信号画素を判定する閾値の範囲に含まれる場合、当該(U,V)値を有する画素を青信号画素と認識する(ステップS5)。次に、認識部24が、ステップS5で認識された青信号画素の領域102を膨張させる(ステップS6)。   Next, when the recognition unit 24 includes the (U, V) value of the image information in the (Y, U, V) color space within the threshold range for determining the green signal pixel included in the recognition information, the (U, V) , V) a pixel having a value is recognized as a green signal pixel (step S5). Next, the recognizing unit 24 expands the green signal pixel region 102 recognized in step S5 (step S6).

次に、認識部24が、ステップS6の処理により得られた青信号画素の膨張領域103から青信号の形状を示す青信号形状領域104を認識できるか否かを判定する(ステップS7)。具体的には、認識部24が、青信号画素の領域102をハフ変換することにより、青信号画素の膨張領域103内で円形の画素領域(青信号形状領域104)を認識できるか否かを判定する。   Next, the recognizing unit 24 determines whether or not the green signal shape region 104 indicating the shape of the green signal can be recognized from the expansion region 103 of the green signal pixel obtained by the process of step S6 (step S7). Specifically, the recognition unit 24 performs Hough transform on the green signal pixel region 102 to determine whether or not a circular pixel region (the green signal shape region 104) can be recognized in the green signal pixel expansion region 103.

青信号形状領域104を認識できる場合(ステップS7、Yes)、認識処理はステップS8に進む。青信号形状領域104を認識できない場合(ステップS7、No)、認識処理を終了する。   If the green signal shape area 104 can be recognized (step S7, Yes), the recognition process proceeds to step S8. If the green signal shape area 104 cannot be recognized (No at Step S7), the recognition process is terminated.

次に、判定部25が、青信号形状領域104の周辺領域の特徴情報と、ステップS4で選択された認識情報に含まれる信号機300aの青信号領域101の周辺領域の特徴情報と、が類似するか否かを判定する(ステップS8)。   Next, the determination unit 25 determines whether or not the feature information of the peripheral region of the green signal shape region 104 is similar to the feature information of the peripheral region of the green signal region 101 of the traffic light 300a included in the recognition information selected in step S4. Is determined (step S8).

類似する場合(ステップS8、Yes)、判定部25が、ステップS7で認識された青信号形状領域104を、青信号領域101と判定する(ステップS9)。次に、出力部26が、青信号領域101を含む矩形領域105を示す認識結果情報を出力する(ステップS10)。類似しない場合(ステップS8、No)、認識処理を終了する。   When it is similar (step S8, Yes), the determination unit 25 determines that the green signal shape area 104 recognized in step S7 is the green signal area 101 (step S9). Next, the output unit 26 outputs recognition result information indicating the rectangular area 105 including the green signal area 101 (step S10). If they are not similar (step S8, No), the recognition process is terminated.

次に第1実施形態の認識装置100のハードウェア構成の例について説明する。   Next, an example of the hardware configuration of the recognition apparatus 100 according to the first embodiment will be described.

まず画像取得部10のハードウェア構成の例について説明する。   First, an example of the hardware configuration of the image acquisition unit 10 will be described.

図15は第1実施形態の画像取得部10のハードウェア構成の例を示す図である。第1実施形態の画像取得部10は、撮影光学系201、メカシャッタ202、モータドライバ203、CCD(Charge Coupled Device)204、CDS(Correlated Double Sampling:相関2重サンプリング)回路205、A/D変換器206、タイミング信号発生器207、画像処理回路208、LCD(Liquid Crystal Display)209、CPU(Central Processing Unit)210、RAM(Random Access Memory)211、ROM(Read Only Memory)212、SDRAM(Synchronous Dynamic Random Access Memory)213、圧縮伸張回路214、メモリ215、操作部216及び出力I/F217を備える。   FIG. 15 is a diagram illustrating an example of a hardware configuration of the image acquisition unit 10 according to the first embodiment. The image acquisition unit 10 according to the first embodiment includes a photographing optical system 201, a mechanical shutter 202, a motor driver 203, a CCD (Charge Coupled Device) 204, a CDS (Correlated Double Sampling) circuit 205, an A / D converter. 206, timing signal generator 207, image processing circuit 208, LCD (Liquid Crystal Display) 209, CPU (Central Processing Memory) 210, RAM (Random Access Memory) 211, ROM (Read Only Memory) 212, SDRAM (synchronous SDRAM) Access Memory) 213, compression / decompression circuit 214, memo 215, an operation unit 216 and an output I / F 217.

画像処理回路208、CPU210、RAM211、ROM212、SDRAM213、圧縮伸張回路214、メモリ215、操作部216及び出力I/F217はバス220を介して接続されている。   The image processing circuit 208, CPU 210, RAM 211, ROM 212, SDRAM 213, compression / decompression circuit 214, memory 215, operation unit 216, and output I / F 217 are connected via a bus 220.

撮影光学系201は被写体が反射した光を集光する。メカシャッタ202は所定の時間、開くことにより、撮影光学系201により集光された光をCCD204に入射させる。モータドライバ203は撮影光学系201及びメカシャッタ202を駆動する。   The photographing optical system 201 collects the light reflected by the subject. The mechanical shutter 202 is opened for a predetermined time so that the light condensed by the photographing optical system 201 is incident on the CCD 204. A motor driver 203 drives the photographing optical system 201 and the mechanical shutter 202.

CCD204は、メカシャッタ202を介して入射した光を被写体の像として結像し、当該被写体の像を示すアナログの画像情報をCDS回路205に入力する。CDS回路205は、CCD204からアナログの画像情報を受け付けると、当該画像情報のノイズ成分を除去し、ノイズ成分が除去されたアナログの画像情報をA/D変換器206に入力する。A/D変換器206は、CDS回路205からアナログの画像情報を受け付けると、当該アナログの画像情報をデジタルの画像情報に変換する。A/D変換器206はデジタルの画像情報を画像処理回路208に入力する。タイミング信号発生器207は、CPU210からの制御信号に応じて、CCD204、CDS回路205及びA/D変換器206にタイミング信号を送信することにより、CCD204、CDS回路205及びA/D変換器206が動作するタイミングを制御する。   The CCD 204 forms light incident through the mechanical shutter 202 as a subject image, and inputs analog image information indicating the subject image to the CDS circuit 205. When the analog image information is received from the CCD 204, the CDS circuit 205 removes the noise component of the image information and inputs the analog image information from which the noise component has been removed to the A / D converter 206. When receiving analog image information from the CDS circuit 205, the A / D converter 206 converts the analog image information into digital image information. The A / D converter 206 inputs digital image information to the image processing circuit 208. The timing signal generator 207 transmits a timing signal to the CCD 204, the CDS circuit 205, and the A / D converter 206 in accordance with a control signal from the CPU 210, so that the CCD 204, the CDS circuit 205, and the A / D converter 206 are transmitted. Control the timing of operation.

画像処理回路208は、A/D変換器206からデジタルの画像情報を受け付けると、SDRAM213を使用して、当該デジタルの画像情報の画像処理を行う。画像処理は、例えばCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理及び色変換処理等である。ホワイトバランス制御処理は、画像情報の色の濃さを調整する画像処理である。コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整する処理である。色変換処理は、画像情報の色合いを調整する画像処理である。   Upon receiving digital image information from the A / D converter 206, the image processing circuit 208 uses the SDRAM 213 to perform image processing on the digital image information. Image processing includes, for example, CrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing. The white balance control process is an image process for adjusting the color density of image information. The contrast correction process is an image process for adjusting the contrast of image information. The edge enhancement process is a process for adjusting the sharpness of image information. The color conversion process is an image process for adjusting the hue of image information.

画像処理回路208は上述の画像処理が行われた画像情報をLCD209、又は、圧縮伸張回路214に入力する。LCD209は、画像処理回路208から受け付けた画像情報を表示する液晶ディスプレイである。   The image processing circuit 208 inputs the image information subjected to the above-described image processing to the LCD 209 or the compression / decompression circuit 214. The LCD 209 is a liquid crystal display that displays image information received from the image processing circuit 208.

CPU210はプログラムを実行することにより画像取得部10の動作を制御する。RAM211はCPU210がプログラムを実行するときのワーク領域、及び、各種情報の記憶等に使用される読取及び書込が可能な記憶領域である。ROM212はCPU210により実行されるプログラム等を記憶する読取専用の記憶領域である。   The CPU 210 controls the operation of the image acquisition unit 10 by executing a program. The RAM 211 is a work area when the CPU 210 executes a program, and a storage area that can be read and written and is used for storing various types of information. The ROM 212 is a read-only storage area that stores programs executed by the CPU 210.

SDRAM213は画像処理回路208が画像処理を行うときに、画像処理対象の画像情報を一時的に記憶する記憶領域である。   The SDRAM 213 is a storage area for temporarily storing image information to be processed when the image processing circuit 208 performs image processing.

圧縮伸張回路214は、画像処理回路208から画像情報を受け付けると、当該画像情報を圧縮する。圧縮伸張回路214は圧縮された画像情報をメモリ215に記憶する。また圧縮伸張回路214は、メモリ215から画像情報を受け付けると、当該画像情報を伸張する。圧縮伸張回路214は伸張された画像情報をSDRAM213に一時的に記憶する。メモリ215は圧縮された画像情報を記憶する。   When receiving the image information from the image processing circuit 208, the compression / decompression circuit 214 compresses the image information. The compression / decompression circuit 214 stores the compressed image information in the memory 215. When the compression / decompression circuit 214 receives image information from the memory 215, the compression / decompression circuit 214 decompresses the image information. The compression / decompression circuit 214 temporarily stores the decompressed image information in the SDRAM 213. The memory 215 stores the compressed image information.

操作部216は画像取得部10のユーザからの操作を受け付ける。操作部216は、例えばLCD209に表示された画像情報をメモリ215に記憶する操作を受け付ける。出力I/F217は、画像取得部10から画像情報を信号処理部20に送信するためのインタフェースである。   The operation unit 216 receives an operation from the user of the image acquisition unit 10. The operation unit 216 receives an operation for storing, for example, image information displayed on the LCD 209 in the memory 215. The output I / F 217 is an interface for transmitting image information from the image acquisition unit 10 to the signal processing unit 20.

なお上述の図2で説明した信号処理部20のインタフェース部21、選択部22、認識部24、判定部25及び出力部26は、信号処理ボード(信号処理回路)としてハードウェアにより実現しても、画像取得部10のCPU210、及び、他の装置のCPU等により実行されるソフトウェア(プログラム)により実現してもよい。   Note that the interface unit 21, the selection unit 22, the recognition unit 24, the determination unit 25, and the output unit 26 of the signal processing unit 20 described with reference to FIG. 2 may be implemented as hardware as a signal processing board (signal processing circuit). Alternatively, it may be realized by software (program) executed by the CPU 210 of the image acquisition unit 10 and the CPU of another device.

また位置取得部11は、例えばGPS装置により実現される。また記憶部23は、例えば信号処理ボード上のメモリ、及び、画像取得部10のメモリ215等により実現される。   The position acquisition unit 11 is realized by a GPS device, for example. The storage unit 23 is realized by, for example, a memory on the signal processing board and the memory 215 of the image acquisition unit 10.

第1実施形態の認識装置100(CPU210)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。   A program executed by the recognition apparatus 100 (CPU 210) of the first embodiment is an installable or executable file, and is a computer such as a CD-ROM, a memory card, a CD-R, and a DVD (Digital Versatile Disk). Recorded on a readable storage medium and provided as a computer program product.

なお第1実施形態の認識装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1実施形態の認識装置100で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。   Note that the program executed by the recognition apparatus 100 according to the first embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Moreover, you may comprise so that the program performed with the recognition apparatus 100 of 1st Embodiment may be provided via networks, such as the internet, without downloading.

また第1実施形態の認識装置100のプログラムを、ROM212等に予め組み込んで提供するように構成してもよい。   Further, the program of the recognition apparatus 100 of the first embodiment may be configured to be provided by being incorporated in advance in the ROM 212 or the like.

なお第1実施形態の認識装置100で実行されるプログラムにより、選択部22、認識部24、判定部25及び出力部26等を実現する場合、選択部22、認識部24、判定部25及び出力部26等は、CPU210がROM212又は上記記憶媒体等からプログラムを読み出して実行することによりRAM211に実現される。   When the selection unit 22, the recognition unit 24, the determination unit 25, the output unit 26, and the like are realized by a program executed by the recognition apparatus 100 of the first embodiment, the selection unit 22, the recognition unit 24, the determination unit 25, and the output The unit 26 and the like are realized in the RAM 211 when the CPU 210 reads out and executes a program from the ROM 212 or the storage medium.

以上説明したように、第1実施形態の認識装置100では、選択部22が、位置情報から特定される地域の信号機300を認識するための認識情報を選択する。認識部24が、認識情報に基づいて画像情報から信号機300の信号の形状を示す信号形状領域を認識する。そして判定部25が、認識情報に基づいて信号形状領域が信号機300の信号を示す信号領域であるか否かを判定する。これにより画像情報から信号機300の信号領域をより正確に認識することができる。   As described above, in the recognition apparatus 100 according to the first embodiment, the selection unit 22 selects recognition information for recognizing the traffic signal 300 in the area specified from the position information. The recognition unit 24 recognizes a signal shape region indicating the shape of the signal of the traffic light 300 from the image information based on the recognition information. And the determination part 25 determines whether a signal shape area | region is a signal area | region which shows the signal of the traffic light 300 based on recognition information. As a result, the signal area of the traffic light 300 can be more accurately recognized from the image information.

(第2実施形態)
次に第2実施形態について説明する。第2実施形態の認識装置100では、点灯している信号を示す領域の誤認識を防ぐために判定に使用する周辺領域が、第1実施形態とは異なる。第2実施形態の判定部25は、点灯していない信号を示す領域を含む周辺領域を判定に使用する。第2実施形態の説明では、第1実施形態の説明と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
(Second Embodiment)
Next, a second embodiment will be described. In the recognition apparatus 100 of the second embodiment, the peripheral area used for the determination is different from that of the first embodiment in order to prevent erroneous recognition of the area indicating the lighted signal. The determination unit 25 of the second embodiment uses a peripheral region including a region indicating a signal that is not lit for determination. In the description of the second embodiment, the description similar to the description of the first embodiment is omitted, and different portions from the first embodiment will be described.

第2実施形態の認識装置100の構成は、第1実施形態の認識装置100の構成の例(図2参照)と同じである。すなわち第2実施形態の認識装置100は、画像取得部10、位置取得部11及び信号処理部20を備える。信号処理部20は、インタフェース部21、選択部22、記憶部23、認識部24、判定部25及び出力部26を備える。   The configuration of the recognition apparatus 100 according to the second embodiment is the same as the configuration example (see FIG. 2) of the recognition apparatus 100 according to the first embodiment. That is, the recognition apparatus 100 according to the second embodiment includes an image acquisition unit 10, a position acquisition unit 11, and a signal processing unit 20. The signal processing unit 20 includes an interface unit 21, a selection unit 22, a storage unit 23, a recognition unit 24, a determination unit 25, and an output unit 26.

画像取得部10、位置取得部11、インタフェース部21、選択部22、記憶部23及び出力部26の説明は、第1実施形態の説明と同様なので省略する。   The description of the image acquisition unit 10, the position acquisition unit 11, the interface unit 21, the selection unit 22, the storage unit 23, and the output unit 26 is the same as the description of the first embodiment, and will be omitted.

認識部24は、インタフェース部21から画像情報を受け付け、選択部22から認識情報を受け付ける。認識情報は、点灯している信号を示す信号画素を判定する色情報、及び、周辺領域の特徴情報を含む。第2実施形態の周辺領域は、点灯していない信号を示す領域を含む。   The recognition unit 24 receives image information from the interface unit 21 and receives recognition information from the selection unit 22. The recognition information includes color information for determining a signal pixel indicating a lighted signal, and feature information of the surrounding area. The peripheral area of the second embodiment includes an area indicating a signal that is not lit.

図16は第2実施形態の青信号形状領域104の周辺領域502及び504の例を示す図である。図16の例は、信号の配列が横型の信号機300aの場合を示す。青信号形状領域104は点灯している青信号を示す。周辺領域502は、点灯していない黄信号を示す領域501を含む。周辺領域504は、点灯していない赤信号を示す領域503を含む。   FIG. 16 is a diagram illustrating an example of the peripheral regions 502 and 504 of the green signal shape region 104 according to the second embodiment. The example of FIG. 16 shows a case where the signal arrangement is a horizontal traffic light 300a. The green signal shape area 104 indicates a green signal that is lit. The peripheral area 502 includes an area 501 showing a yellow signal that is not lit. The peripheral area 504 includes an area 503 showing a red signal that is not lit.

図17は第2実施形態の赤信号形状領域511の周辺領域502及び516の例を示す図である。図17の例は、信号の配列が横型の信号機300aの場合を示す。赤信号形状領域511は点灯している赤信号を示す。周辺領域502は、点灯していない黄信号を示す領域501を含む。周辺領域516は、点灯していない青信号を示す領域515を含む。   FIG. 17 is a diagram illustrating an example of the peripheral regions 502 and 516 of the red signal shape region 511 according to the second embodiment. The example of FIG. 17 shows the case where the signal arrangement is a horizontal traffic light 300a. A red signal shape region 511 indicates a red signal that is lit. The peripheral area 502 includes an area 501 showing a yellow signal that is not lit. The peripheral area 516 includes an area 515 indicating a green light that is not lit.

図18は第2実施形態の青信号形状領域521の周辺領域524及び526の例を示す図である。図18の例は、信号の配列が縦型の信号機300bの場合を示す。青信号形状領域521は点灯している青信号を示す。周辺領域524は、点灯していない黄信号を示す領域523を含む。周辺領域526は、点灯していない赤信号を示す領域525を含む。   FIG. 18 is a diagram illustrating an example of the peripheral regions 524 and 526 of the green signal shape region 521 of the second embodiment. The example of FIG. 18 shows a case where the signal arrangement is a vertical traffic light 300b. A green signal shape area 521 indicates a green signal that is lit. The peripheral area 524 includes an area 523 showing a yellow signal that is not lit. The peripheral region 526 includes a region 525 that shows a red signal that is not lit.

図19は第2実施形態の赤信号形状領域531の周辺領域524及び536の例を示す図である。図19の例は、信号の配列が縦型の信号機300bの場合を示す。赤信号形状領域531は点灯している赤信号を示す。周辺領域524は、点灯していない黄信号を示す領域523を含む。周辺領域536は、点灯していない青信号を示す領域535を含む。   FIG. 19 is a diagram illustrating an example of the peripheral regions 524 and 536 of the red signal shape region 531 according to the second embodiment. The example of FIG. 19 shows a case where the signal arrangement is a vertical traffic light 300b. A red signal shape area 531 indicates a red signal that is lit. The peripheral area 524 includes an area 523 showing a yellow signal that is not lit. The peripheral area 536 includes an area 535 showing a green light that is not lit.

以下、図16の場合(信号機300aの青信号を認識する場合)を例にして、第2実施形態の認識部24及び判定部25の動作について説明する。   Hereinafter, the operation of the recognition unit 24 and the determination unit 25 of the second embodiment will be described by taking the case of FIG. 16 (when the green light of the traffic light 300a is recognized) as an example.

認識部24は、認識情報に基づいて、青信号形状領域104、周辺領域502及び504を認識する。青信号形状領域104の認識方法は、第1実施形態と同じなので説明を省略する。認識部24は、青信号形状領域104を認識した後に、当該青信号形状領域104の位置との相対位置により、周辺領域502及び504の位置を決定する。なお相対位置は、信号機300の種類等に応じて変わるため、選択部22により選択された認識情報に含まれる特徴情報に基づいて決定される。   The recognition unit 24 recognizes the green signal shape region 104 and the peripheral regions 502 and 504 based on the recognition information. Since the method for recognizing the green signal shape region 104 is the same as that in the first embodiment, the description thereof is omitted. After recognizing the green signal shape region 104, the recognition unit 24 determines the positions of the peripheral regions 502 and 504 based on the relative position with respect to the position of the green signal shape region 104. The relative position varies depending on the type of the traffic light 300 and the like, and thus is determined based on the feature information included in the recognition information selected by the selection unit 22.

ここで青信号形状領域104の周辺領域502及び504の特徴を示す特徴情報の例について説明する。   Here, an example of feature information indicating the features of the peripheral regions 502 and 504 of the green signal shape region 104 will be described.

表2は、信号機300aの青信号形状領域104の周辺領域502及び504の特徴情報の例を示す。   Table 2 shows an example of the feature information of the peripheral areas 502 and 504 of the green signal shape area 104 of the traffic light 300a.

特徴情報は周辺領域毎に、位置、サイズ及び平均輝度範囲を含む。例えば周辺領域502の位置は、(X+x4,Y+y4)である。ここで(X,Y)は、青信号形状領域104の中心を示す座標である。また周辺領域502のサイズは、(W4,H4)である。また周辺領域502に関連付けられた平均輝度範囲は、(Imin4,Imax4)である。この平均輝度範囲は、周辺領域502に含まれる点灯していない黄信号を示す領域501の平均輝度の範囲を示す。   The feature information includes a position, a size, and an average luminance range for each peripheral region. For example, the position of the peripheral region 502 is (X + x4, Y + y4). Here, (X, Y) is a coordinate indicating the center of the green signal shape region 104. The size of the peripheral area 502 is (W4, H4). The average luminance range associated with the peripheral area 502 is (Imin4, Imax4). This average luminance range indicates the average luminance range of the region 501 indicating the non-lighted yellow signal included in the peripheral region 502.

図20は第2実施形態の青信号形状領域104の周辺領域502の位置及びサイズを決定する方法の例を説明するための図である。はじめに、認識部24は、第1実施形態で説明した方法で、青信号形状領域104を認識する。次に、認識部24は、青信号形状領域104の中心の座標O(X,Y)からx方向にx4、y方向にy4だけ相対的に離れた点Pの座標(X+x4,Y+y4)を、周辺領域502の位置に決定する。次に、認識部24は、周辺領域502のサイズを、幅W4及び高さH4により決定する。   FIG. 20 is a diagram for explaining an example of a method for determining the position and size of the peripheral region 502 of the green signal shape region 104 according to the second embodiment. First, the recognition unit 24 recognizes the green signal shape region 104 by the method described in the first embodiment. Next, the recognizing unit 24 determines the coordinates (X + x4, Y + y4) of the point P, which is relatively separated from the center coordinates O (X, Y) of the green signal shape region 104 by x4 in the x direction and y4 in the y direction. The position of the area 502 is determined. Next, the recognizing unit 24 determines the size of the peripheral region 502 based on the width W4 and the height H4.

認識部24は、周辺領域502の場合と同様にして、青信号形状領域104及び認識情報に基づいて周辺領域504の位置及びサイズを決定する。   The recognition unit 24 determines the position and size of the peripheral area 504 based on the green signal shape area 104 and the recognition information in the same manner as the peripheral area 502.

判定部25は、認識情報に含まれる特徴情報が示す平均輝度範囲に基づいて、青信号形状領域104が信号機300aの青信号を示す信号領域であるか否かを判定する。具体的には、はじめに、判定部25は、周辺領域502内のハフ変換により円形の領域501を抽出し、周辺領域504内のハフ変換により円形の領域503を抽出する。次に、判定部25は、円形の領域501の平均輝度と、円形の領域503の平均輝度と、を算出する。次に、判定部25は、円形の領域501の平均輝度が、Imin4以上かつImax4以下であり、円形の領域503の平均輝度が、Imin5以上かつImax5以下である場合、青信号形状領域104を信号機300aの青信号領域101であると判定する。   Based on the average luminance range indicated by the feature information included in the recognition information, the determination unit 25 determines whether or not the green signal shape region 104 is a signal region indicating the green signal of the traffic light 300a. Specifically, first, the determination unit 25 extracts a circular area 501 by Hough transformation in the peripheral area 502 and extracts a circular area 503 by Hough transformation in the peripheral area 504. Next, the determination unit 25 calculates the average brightness of the circular area 501 and the average brightness of the circular area 503. Next, when the average luminance of the circular region 501 is not less than Imin4 and not more than Imax4 and the average luminance of the circular region 503 is not less than Imin5 and not more than Imax5, the determination unit 25 determines that the green signal shape region 104 is the traffic light 300a. The green signal area 101 is determined.

なお判定部25は、周辺領域502及び周辺領域504のいずれか一方を判定することにより、青信号形状領域104が、信号機300aの青信号領域101であるか否かを判定してもよい。   Note that the determination unit 25 may determine whether the green signal shape region 104 is the green signal region 101 of the traffic light 300a by determining one of the peripheral region 502 and the peripheral region 504.

以上説明したように、第2実施形態の認識装置100では、判定部25が、点灯していない信号を示す領域を含む周辺領域を利用して、信号形状領域が信号領域であるか否かを判定する。   As described above, in the recognition apparatus 100 according to the second embodiment, the determination unit 25 determines whether the signal shape region is a signal region by using a peripheral region including a region indicating a signal that is not lit. judge.

これにより第2実施形態の認識装置100によれば、第1実施形態の認識装置100と同様の効果が得られる。例えば、赤信号の色と同じ赤色の看板の一部が木の枝葉に隠れ、枝葉を介して赤色の看板が見えている部分が円形になっているような画像領域が、赤信号領域として誤認識されることを防ぐことができる。   Thereby, according to the recognition apparatus 100 of 2nd Embodiment, the effect similar to the recognition apparatus 100 of 1st Embodiment is acquired. For example, an image area in which a part of a red sign with the same color as the red signal is hidden behind a tree branch and the part where the red sign is visible through the branch is circular is mistaken as a red signal area. It can be prevented from being recognized.

10 画像取得部
11 位置取得部
20 信号処理部
21 インタフェース部
22 選択部
23 記憶部
24 認識部
25 判定部
26 出力部
100 認識装置
101 青信号領域
102 青信号画素の領域
103 青信号画素の膨張領域
104 青信号形状領域
105 矩形領域
106 周辺領域
107 周辺領域に含まれる領域
200 車両
201 撮影光学系
202 メカシャッタ
203 モータドライバ
204 CCD
205 CDS回路
206 A/D変換器
207 タイミング信号発生器
208 画像処理回路
209 LCD
210 CPU
211 RAM
212 ROM
213 SDRAM
214 圧縮伸張回路
215 メモリ
216 操作部
217 出力I/F
220 バス
300 信号機
401 青信号領域
501 点灯していない黄信号を示す領域
502 周辺領域
503 点灯していない赤信号を示す領域
504 周辺領域
511 点灯している赤信号を示す領域
515 点灯していない青信号を示す領域
516 周辺領域
521 点灯している青信号を示す領域
523 点灯していない黄信号を示す領域
524 周辺領域
525 点灯していない赤信号を示す領域
526 周辺領域
531 点灯している赤信号を示す領域
535 点灯していない青信号を示す領域
536 周辺領域
DESCRIPTION OF SYMBOLS 10 Image acquisition part 11 Position acquisition part 20 Signal processing part 21 Interface part 22 Selection part 23 Storage part 24 Recognition part 25 Judgment part 26 Output part 100 Recognition apparatus 101 Green signal area 102 Green signal pixel area 103 Blue signal pixel expansion area 104 Blue signal shape Area 105 Rectangular area 106 Peripheral area 107 Area included in the peripheral area 200 Vehicle 201 Imaging optical system 202 Mechanical shutter 203 Motor driver 204 CCD
205 CDS circuit 206 A / D converter 207 Timing signal generator 208 Image processing circuit 209 LCD
210 CPU
211 RAM
212 ROM
213 SDRAM
214 Compression / Expansion Circuit 215 Memory 216 Operation Unit 217 Output I / F
220 Bus 300 Traffic light 401 Blue signal area 501 Area indicating a yellow signal that is not lit 502 Peripheral area 503 Area indicating a red signal that is not lit 504 Peripheral area 511 Area indicating a red signal that is lit 515 Blue signal that is not lit Area 516 Peripheral area 521 Area indicating a green signal that is lit 523 Area indicating a yellow signal that is not lit 524 Area 525 Area indicating a red signal that is not lit 526 Area surrounding the red signal 526 Area that indicates a red signal that is lit 535 Area showing green light that is not lit 536 Peripheral area

特開2009−244946号公報JP 2009-244946 A

Claims (8)

車両の周囲の画像情報を取得する画像取得部と、
前記車両の位置を示す位置情報を取得する位置取得部と、
前記位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、
前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識する認識部と、
前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定する判定部と、
を備える認識装置。
An image acquisition unit for acquiring image information around the vehicle;
A position acquisition unit for acquiring position information indicating the position of the vehicle;
A selection unit for selecting recognition information for recognizing a traffic signal in a region identified from the position information;
A recognition unit for recognizing a signal shape region indicating the shape of the signal of the traffic light from the image information based on the recognition information;
A determination unit that determines whether or not the signal shape region is a signal region indicating a signal of the traffic light based on the recognition information;
A recognition device comprising:
前記認識情報は、信号機の信号の色を示す色情報を含み、
前記認識部は、前記色情報に基づいて前記画像情報から前記信号機の信号の色を示す信号画素を認識し、前記信号画素を複数の画素により被覆することにより、前記信号画素の領域を信号画素の膨張領域に膨張させ、前記信号画素の膨張領域をハフ変換することにより得られた画素領域を、前記信号形状領域として認識する、
請求項1に記載の認識装置。
The recognition information includes color information indicating the color of the signal of the traffic light,
The recognizing unit recognizes a signal pixel indicating the color of the signal of the traffic light from the image information based on the color information, and covers the signal pixel with a plurality of pixels, thereby defining the signal pixel region as a signal pixel. A pixel region obtained by expanding the expansion region of the signal pixel and performing a Hough transform on the expansion region of the signal pixel is recognized as the signal shape region.
The recognition device according to claim 1.
前記色情報は、(Y,U,V)色空間の色情報であり、
前記画像取得部は、(R,G,B)色空間の前記画像情報を取得し、
前記認識部は、前記(R,G,B)色空間の画像情報を前記(Y,U,V)色空間の画像情報に変換し、前記(Y,U,V)色空間の色情報に基づいて前記(Y,U,V)色空間の画像情報に含まれる前記信号画素を認識する、
請求項2に記載の認識装置。
The color information is color information in a (Y, U, V) color space,
The image acquisition unit acquires the image information of (R, G, B) color space,
The recognition unit converts the image information of the (R, G, B) color space into image information of the (Y, U, V) color space, and converts the image information to the color information of the (Y, U, V) color space. Recognizing the signal pixel included in the image information of the (Y, U, V) color space based on
The recognition apparatus according to claim 2.
前記認識情報は、前記信号領域の周辺領域の特徴を示す特徴情報を含み、
前記判定部は、前記特徴情報と、前記信号形状領域の周辺領域の特徴情報と、が類似する場合、前記信号形状領域が前記信号領域であると判定する、
請求項1に記載の認識装置。
The recognition information includes feature information indicating features of a peripheral region of the signal region,
The determination unit determines that the signal shape region is the signal region when the feature information is similar to the feature information of the peripheral region of the signal shape region.
The recognition device according to claim 1.
前記特徴情報は、前記信号領域の周辺領域の平均輝度の範囲を示す情報を含み、
前記判定部は、前記信号形状領域の周辺領域の平均輝度が、前記信号領域の周辺領域の平均輝度の範囲に含まれる場合、前記信号形状領域が前記信号領域であると判定する、
請求項4に記載の認識装置。
The feature information includes information indicating a range of average luminance in a peripheral region of the signal region,
The determination unit determines that the signal shape region is the signal region when the average luminance of the peripheral region of the signal shape region is included in the average luminance range of the peripheral region of the signal region;
The recognition apparatus according to claim 4.
前記周辺領域は、点灯していない信号を示す領域を含む、
請求項4又は5に記載の認識装置。
The peripheral area includes an area indicating a signal that is not lit.
The recognition apparatus according to claim 4 or 5.
車両の周囲の画像情報を取得する画像取得部と、前記車両の位置を示す位置情報を取得する位置取得部と、を備える認識装置の認識方法であって、
認識装置が、前記位置情報から特定される地域の信号機を認識するための認識情報を選択するステップと、
認識装置が、前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識するステップと、
認識装置が、前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定するステップと、
を含む認識方法。
A recognition method of a recognition device comprising: an image acquisition unit that acquires image information around a vehicle; and a position acquisition unit that acquires position information indicating the position of the vehicle,
A recognition device selecting recognition information for recognizing a traffic signal in a region identified from the position information;
A step of recognizing a signal shape region indicating a signal shape of the traffic light from the image information based on the recognition information;
A recognition device determining whether the signal shape region is a signal region indicating a signal of the traffic light based on the recognition information;
A recognition method including:
車両の周囲の画像情報を取得する画像取得部と、前記車両の位置を示す位置情報を取得する位置取得部と、を備える認識装置を、
前記位置情報から特定される地域の信号機を認識するための認識情報を選択する選択部と、
前記認識情報に基づいて前記画像情報から前記信号機の信号の形状を示す信号形状領域を認識する認識部と、
前記認識情報に基づいて前記信号形状領域が前記信号機の信号を示す信号領域であるか否かを判定する判定部、
として機能させるためのプログラム。
A recognition apparatus comprising: an image acquisition unit that acquires image information around a vehicle; and a position acquisition unit that acquires position information indicating the position of the vehicle.
A selection unit for selecting recognition information for recognizing a traffic signal in a region identified from the position information;
A recognition unit for recognizing a signal shape region indicating the shape of the signal of the traffic light from the image information based on the recognition information;
A determination unit that determines whether the signal shape region is a signal region indicating a signal of the traffic light based on the recognition information;
Program to function as.
JP2015172821A 2015-04-02 2015-09-02 Recognition device, recognition method and program Expired - Fee Related JP6679857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020004695A JP6939919B2 (en) 2015-04-02 2020-01-15 Recognition device, recognition method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015076081 2015-04-02
JP2015076081 2015-04-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020004695A Division JP6939919B2 (en) 2015-04-02 2020-01-15 Recognition device, recognition method and program

Publications (2)

Publication Number Publication Date
JP2016197388A true JP2016197388A (en) 2016-11-24
JP6679857B2 JP6679857B2 (en) 2020-04-15

Family

ID=57358232

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015172821A Expired - Fee Related JP6679857B2 (en) 2015-04-02 2015-09-02 Recognition device, recognition method and program
JP2020004695A Active JP6939919B2 (en) 2015-04-02 2020-01-15 Recognition device, recognition method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020004695A Active JP6939919B2 (en) 2015-04-02 2020-01-15 Recognition device, recognition method and program

Country Status (1)

Country Link
JP (2) JP6679857B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021536069A (en) * 2019-05-28 2021-12-23 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co., Ltd Signal indicator status detection method and device, operation control method and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6679857B2 (en) * 2015-04-02 2020-04-15 株式会社リコー Recognition device, recognition method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032669A (en) * 2001-07-11 2003-01-31 Hitachi Ltd In-vehicle image processing camera device
JP2006259885A (en) * 2005-03-15 2006-09-28 Akita Univ Signboard and sign recognition method using color images
JP2009244946A (en) * 2008-03-28 2009-10-22 Fujitsu Ltd Traffic light recognizing apparatus, traffic light recognizing method, and traffic light recognizing program
JP2012098967A (en) * 2010-11-02 2012-05-24 Aisin Seiki Co Ltd Traffic light detector, traffic light detection method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561338B2 (en) * 2004-11-30 2010-10-13 株式会社エクォス・リサーチ Driving support device
JP6679857B2 (en) * 2015-04-02 2020-04-15 株式会社リコー Recognition device, recognition method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032669A (en) * 2001-07-11 2003-01-31 Hitachi Ltd In-vehicle image processing camera device
JP2006259885A (en) * 2005-03-15 2006-09-28 Akita Univ Signboard and sign recognition method using color images
JP2009244946A (en) * 2008-03-28 2009-10-22 Fujitsu Ltd Traffic light recognizing apparatus, traffic light recognizing method, and traffic light recognizing program
JP2012098967A (en) * 2010-11-02 2012-05-24 Aisin Seiki Co Ltd Traffic light detector, traffic light detection method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021536069A (en) * 2019-05-28 2021-12-23 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co., Ltd Signal indicator status detection method and device, operation control method and device

Also Published As

Publication number Publication date
JP6679857B2 (en) 2020-04-15
JP2020064681A (en) 2020-04-23
JP6939919B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
JP4482599B2 (en) Vehicle periphery monitoring device
JP2016161973A (en) Recognition apparatus, recognition method, and program
JP6459443B2 (en) Detection device, detection system, detection method and program
JP6728634B2 (en) Detecting device, detecting method and program
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
JP5895448B2 (en) Vehicle recognition device, vehicle recognition method, and program
JP2012027773A (en) Pseudo grayscale image generation device and program
JP2019109602A (en) Traffic light recognition device
JP6939919B2 (en) Recognition device, recognition method and program
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP2017174380A (en) Recognition device, method for recognizing object, program, and storage medium
JP2007288657A (en) Display device for vehicle and display method for display device for vehicle
JP2007141052A (en) Road marking line detection device
JP5235843B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP6825299B2 (en) Information processing equipment, information processing methods and programs
JP6874315B2 (en) Information processing equipment, information processing methods and programs
JP6676885B2 (en) Recognition device, recognition method and program
JP6859659B2 (en) Information processing equipment, information processing methods and programs
JP6754993B2 (en) In-vehicle image display device, in-vehicle image display method, and program
JP2007139564A (en) Obstacle detection system, obstacle detection method, and computer program
JP2006127058A (en) Object recognition system and image processing apparatus
JP2008028478A (en) Obstacle detection system and obstacle detection method
JPH09231379A (en) Lane recognition device using image processing
KR101440293B1 (en) Apparatus and method for detecting crosswalk
JP5149918B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R151 Written notification of patent or utility model registration

Ref document number: 6679857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees