JP2017162438A - Risk prediction method - Google Patents
Risk prediction method Download PDFInfo
- Publication number
- JP2017162438A JP2017162438A JP2016214701A JP2016214701A JP2017162438A JP 2017162438 A JP2017162438 A JP 2017162438A JP 2016214701 A JP2016214701 A JP 2016214701A JP 2016214701 A JP2016214701 A JP 2016214701A JP 2017162438 A JP2017162438 A JP 2017162438A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- area
- neural network
- dangerous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 90
- 238000013528 artificial neural network Methods 0.000 claims abstract description 45
- 238000013459 approach Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 239000000470 constituent Substances 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、危険予測方法に関する。 The present invention relates to a risk prediction method.
例えば特許文献1では、車両を運転する運転者の安全確認を支援するための運転支援技術装置について開示されている。この運転支援技術によれば、例えば、交差点において信号が青から赤に変化する際、急に走り出す歩行者等といった、運転者の予想に反して急に速度を変化させ、事故に繋がる可能性が高い危険な移動物を、早いタイミングで精度良く検出できる。 For example, Patent Literature 1 discloses a driving support technology device for supporting safety confirmation of a driver who drives a vehicle. According to this driving support technology, for example, when the signal changes from blue to red at an intersection, there is a possibility of suddenly changing the speed against the driver's expectation, such as a pedestrian who suddenly runs, leading to an accident. Highly dangerous moving objects can be accurately detected at an early timing.
しかしながら、上記特許文献1における運転支援技術装置では、実際に視認できる移動物の速度変化を観測し危険状態を予測しているに過ぎないという問題がある。すなわち、上記特許文献1における運転支援技術装置では、停車しているバスの背後の領域など、バスから降車した歩行者が飛び出してくると車両と衝突してしまうといった危険が発生しそうな領域(危険領域)を検出できないという課題がある。 However, the driving support technology apparatus in Patent Document 1 has a problem that it is merely predicting a dangerous state by observing a speed change of a moving object that can be actually visually recognized. In other words, in the driving support technology device in Patent Document 1 described above, an area where there is a danger of collision with a vehicle when a pedestrian who gets off the bus pops out, such as an area behind a stopped bus (danger There is a problem that the (region) cannot be detected.
本開示は、上述の事情を鑑みてなされたもので、走行中の車両にとって危険が発生しそうな危険領域を予測することができる危険予測方法を提供することを目的とする。 The present disclosure has been made in view of the above-described circumstances, and an object thereof is to provide a risk prediction method capable of predicting a dangerous area in which danger is likely to occur for a traveling vehicle.
上記課題を解決するために、本開示の一形態に係る危険予測方法は、畳み込みニューラルネットワークを用いた危険予測器のコンピュータが行う危険予測方法であって、車両に搭載された車載カメラにより撮影された入力画像を、前記畳み込みニューラルネットワークに取得させる取得ステップと、前記畳み込みニューラルネットワークに、前記取得ステップにおいて取得した前記入力画像中の危険領域であって前記車両がそのまま走行した場合に前記車両の走行経路中に運動物体が出現して前記車両と衝突する可能性のある危険領域と当該危険領域の特徴とを推定させ、前記入力画像に対して予測される危険度として出力させる出力ステップとを含む。 In order to solve the above problem, a risk prediction method according to an embodiment of the present disclosure is a risk prediction method performed by a computer of a risk predictor using a convolutional neural network, and is captured by an in-vehicle camera mounted on a vehicle. An acquisition step of causing the convolutional neural network to acquire the input image, and a travel of the vehicle when the vehicle travels as it is in the dangerous region in the input image acquired in the acquisition step of the convolutional neural network. An output step of estimating a dangerous area where a moving object may appear and collide with the vehicle and a feature of the dangerous area and outputting the predicted risk level to the input image. .
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 These general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a computer-readable recording medium such as a CD-ROM. The system, method, integrated circuit, computer You may implement | achieve with arbitrary combinations of a program and a recording medium.
本開示によれば、走行中の車両にとって危険が発生しそうな危険領域を予測することができる危険予測方法を実現できる。 According to the present disclosure, it is possible to realize a danger prediction method capable of predicting a dangerous area in which danger is likely to occur for a traveling vehicle.
(本発明の一態様を得るに至った経緯)
近年、Deep Learningを使用することにより、画像認識の性能が劇的に向上している。Deep Learningは、多層のニューラルネットワークを使った機械学習の方法論として知られ、このような多層ニューラルネットワークには、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)が用いられることが多い。ここで、畳み込みニューラルネットワークは、局所領域の畳み込み(Convolution)とプーリング(Pooling)とを繰り返す多層のニューラルネットワークからなる。
(Background to obtaining one embodiment of the present invention)
In recent years, the performance of image recognition has improved dramatically by using Deep Learning. Deep learning is known as a machine learning methodology using a multilayer neural network, and a convolutional neural network (CNN) is often used for such a multilayer neural network. Here, the convolutional neural network is composed of a multilayer neural network that repeats convolution and pooling of a local region.
ここで、畳み込みニューラルネットワークは、複数のフィルタによる畳み込み処理により特徴を抽出する畳み込み層と、一定領域の反応をまとめるプーリング処理により局所的なデータの不変性を獲得するプーリング層と、Softmax関数などによる確率を用いて認識を行う全結合層とを有する。 Here, the convolutional neural network is based on a convolution layer that extracts features by convolution processing using multiple filters, a pooling layer that acquires local data invariance by pooling processing that collects reactions in a certain region, and a Softmax function. And a fully connected layer that performs recognition using probability.
しかし、このような畳み込みニューラルネットワークを用いた画像認識の処理は、リアルタイムには実行できないという課題を有している。 However, the image recognition process using such a convolutional neural network has a problem that it cannot be executed in real time.
それに対して、例えば非特許文献1では、畳み込みニューラルネットワークを構成する全結合層を畳み込み層にする畳み込みニューラルネットワークの構造が提案されている。この構造の畳み込みニューラルネットワーク(完全畳み込みニューラルネットワーク)を用いることにより画像認識の処理をリアルタイムに実行することできる。 On the other hand, for example, Non-Patent Document 1 proposes a structure of a convolutional neural network in which all concatenated layers constituting the convolutional neural network are convolutional layers. By using a convolutional neural network having this structure (complete convolutional neural network), it is possible to execute image recognition processing in real time.
そこで、発明者(ら)は、完全畳み込みニューラルネットワークを用いて、上述の課題を解決することについて想到した。 Accordingly, the inventors (e.g.) have come up with the idea of solving the above-described problem using a complete convolution neural network.
すなわち、本開示の一形態に係る危険予測方法は、畳み込みニューラルネットワークを用いた危険予測器のコンピュータが行う危険予測方法であって、車両に搭載された車載カメラにより撮影された入力画像を、前記畳み込みニューラルネットワークに取得させる取得ステップと、前記畳み込みニューラルネットワークに、前記取得ステップにおいて取得した前記入力画像中の危険領域であって前記車両がそのまま走行した場合に前記車両の走行経路中に運動物体が出現して前記車両と衝突する可能性のある危険領域と当該危険領域の特徴とを推定させ、前記入力画像に対して予測される危険度として出力させる出力ステップとを含む。 That is, the risk prediction method according to an aspect of the present disclosure is a risk prediction method performed by a computer of a risk predictor using a convolutional neural network, and an input image captured by an in-vehicle camera mounted on a vehicle is An acquisition step that causes the convolutional neural network to acquire, and a moving object that is a dangerous region in the input image acquired in the acquisition step and that the vehicle travels as it is in the convolutional neural network when the vehicle travels as it is. An output step of estimating a dangerous area that may appear and collide with the vehicle and a characteristic of the dangerous area and outputting the estimated risk level for the input image.
これにより、取得した入力画像に対する危険度を推定することができるので、走行中の車両にとって危険が発生しそうな危険領域を予測することができる危険予測方法を実現できる。 As a result, since the degree of danger for the acquired input image can be estimated, it is possible to realize a danger prediction method capable of predicting a dangerous area in which danger is likely to occur for a running vehicle.
ここで、例えば、前記出力ステップにおいて、前記畳み込みニューラルネットワークに、当該危険領域の特徴として、当該危険領域の危険度合いを推定させ、推定した前記危険領域および当該危険領域の危険度合いを示す尤度マップを前記危険度として出力させるとしてもよい。 Here, for example, in the output step, the convolutional neural network is caused to estimate the risk level of the risk area as a characteristic of the risk area, and the likelihood map indicating the estimated risk area and the risk level of the risk area May be output as the degree of risk.
また、例えば、前記出力ステップにおいて、前記畳み込みニューラルネットワークに、当該危険領域の特徴として、前記危険領域に対応づけられる前記運動物体の種別を推定させ、推定した前記危険領域および前記種別を前記危険度として出力させるとしてもよい。 Further, for example, in the output step, the convolutional neural network is caused to estimate the type of the moving object associated with the dangerous area as the characteristic of the dangerous area, and the estimated dangerous area and the type are used as the risk level. May be output as
また、例えば、前記危険予測方法は、さらに、前記取得ステップを行う前に、前記危険領域を含む学習用画像と、前記学習用画像に前記危険領域を示すアノテーションが付されたアノテーション付き画像とを用いて、前記畳み込みニューラルネットワークに、前記学習用画像の中の前記危険領域と当該危険領域の前記特徴とを推定させるための当該畳み込みニューラルネットワークの重みを学習させる学習ステップを含むとしてもよい。 Further, for example, the risk prediction method may further include a learning image including the dangerous area and an annotated image in which an annotation indicating the dangerous area is attached to the learning image before performing the obtaining step. A learning step may be included in which the convolutional neural network learns the weight of the convolutional neural network for estimating the dangerous area and the feature of the dangerous area in the learning image.
また、例えば、前記学習ステップは、前記学習用画像それぞれのうちの一部領域であって前記危険領域を示すアノテーションが付された領域の危険領域画像と当該アノテーションが付されていない領域の安全領域画像とを用いて、全結合層を有する畳み込みニューラルネットワークである第1ニューラルネットワークに、前記一部領域が安全領域であるまたは危険領域であると判定させるための当該第1ニューラルネットワークの第1重みを学習させる第1学習ステップと、前記第1ニューラルネットワークの全結合層が畳み込み層に変更された構成からなる第2ニューラルネットワークの重みの初期値を、前記第1学習ステップにおいて学習された前記第1重みに更新し、前記危険領域を含む学習用画像と、前記学習用画像に前記危険領域を示すアノテーションが付されたアノテーション付き画像とを用いて、前記第2ニューラルネットワークに、前記学習用画像の中の前記危険領域と当該危険領域の前記特徴とを推定させるための当該第2ニューラルネットワークの第2重みを学習させることにより、前記第2ニューラルネットワークと同一構成である前記畳み込みニューラルネットワークの重みを学習させる第2学習ステップとを含むとしてもよい。 Further, for example, the learning step includes a dangerous area image of a region that is a partial region of each of the learning images and an annotation that indicates the dangerous region, and a safety region that is not annotated. A first weight of the first neural network for causing the first neural network, which is a convolutional neural network having a fully connected layer, to determine that the partial region is a safe region or a dangerous region using an image And the initial value of the weight of the second neural network having a configuration in which all the connection layers of the first neural network are changed to convolutional layers, the first learning step learned in the first learning step. An image for learning that includes the dangerous area, updated to one weight, and the dangerous area in the learning image The second neural network for causing the second neural network to estimate the dangerous area in the learning image and the feature of the dangerous area using the annotated image with the annotation shown. A second learning step of learning the weight of the convolutional neural network having the same configuration as the second neural network by learning the second weight may be included.
また、例えば、前記危険予測方法は、さらに、車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像を取得し、取得した前記複数の画像の少なくとも一部の画像に含まれる危険領域であって、前記車両がそのまま走行した場合に前記車両の走行経路中に運動物体が出現して前記車両と衝突する可能性のある危険領域を決定して、当該少なくとも一部の画像に対して、決定した危険領域を示すアノテーションを付与する付与ステップと、を含み、前記学習ステップでは、前記付与ステップにおいてアノテーションが付与された当該少なくとも一部の画像、および、前記複数の画像のうち当該少なくとも一部の画像に対応する画像を、前記学習用画像および前記アノテーション付き画像として取得して、当該畳み込みニューラルネットワークの前記重みを学習させるとしてもよい。 In addition, for example, the risk prediction method further includes acquiring a plurality of time-sequential images taken by an in-vehicle camera mounted on a vehicle, and is included in at least some of the acquired images. A dangerous area, which is a dangerous area where a moving object may appear in the traveling route of the vehicle and collide with the vehicle when the vehicle travels as it is, and the at least part of the image is determined. An assigning step for giving an annotation indicating the determined dangerous area, and in the learning step, the at least a part of the images to which the annotation is given in the giving step, and the plurality of images among the plurality of images An image corresponding to at least a part of the image is acquired as the learning image and the annotated image, and the convolution new It may train the said weights Le networks.
ここで、例えば、前記危険領域は、前記学習用画像中に存在する遮蔽物の領域の一部を含む領域であって、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前の領域である。 Here, for example, the dangerous area is an area including a part of the area of the shielding object existing in the learning image, the moving object is hidden, and the moving object is moved from the shielding object to the travel route. This is the area before it appears inside.
また、例えば、前記危険領域は、人物を含む2以上の運動物体同士が接近すると前記車両の走行経路中を横切ることになる前記2以上の運動物体の間の領域であるとしてもよい。 In addition, for example, the danger area may be an area between the two or more moving objects that will cross the travel route of the vehicle when two or more moving objects including a person approach each other.
また、例えば、前記アノテーションは、前記危険領域と前記危険領域に対応づけられる前記運動物体のカテゴリとを示すとしてもよい。 Further, for example, the annotation may indicate the danger area and the category of the moving object associated with the danger area.
また、例えば、前記アノテーションは、前記危険領域と前記学習用画像の撮影時における前記車両のブレーキ強度またはハンドル角度を含む制御情報とを示すとしてもよい。 Further, for example, the annotation may indicate the danger area and control information including a brake strength or a steering wheel angle of the vehicle at the time of capturing the learning image.
また、例えば、前記アノテーションは、前記危険領域のセグメント情報であるとしてもよい。 For example, the annotation may be segment information of the dangerous area.
以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。 Each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements. In all the embodiments, the contents can be combined.
(実施の形態1)
以下では、図面を参照しながら、実施の形態1における危険予測器10の危険予測方法等の説明を行う。
(Embodiment 1)
Hereinafter, the risk prediction method of the
[危険予測器10の構成]
図1は、本実施の形態における危険予測器10の構成の一例を示すブロック図である。図2は、図1に示す危険度測器10が用いる畳み込みニューラルネットワークの構造の概略を示す図である。図3は、本実施の形態における危険予測器10の予測結果の一例を示す図である。
[Configuration of danger predictor 10]
FIG. 1 is a block diagram showing an example of the configuration of the
図1に示す危険予測器10は、畳み込みニューラルネットワークを用いた危険予測器であって、コンピュータ等で実現される。危険予測器10が用いる畳み込みニューラルネットワークは、例えば図2に示すように、畳み込み層101と、全結合層が畳み込み層102に変更されている完全畳み込みニューラルネットワークである。
A
ここで、畳み込みニューラルネットワークは、画像認識分野でよく使われ、2次元画像に対してフィルタによる畳み込みを行うことで、画像から特徴量を抽出する。畳み込みニューラルネットワークは、上述したように、畳み込みとプーリングとを繰り返す多層ネットワークからなる。そして、畳み込みニューラルネットワークにおいて畳み込み層を構成する識別に有効なフィルタの係数(重み)を、大量の学習用画像などの大量の学習用データを用いて学習させる。当該係数(重み)は、大量のデータを用いて、フィルタによる畳み込みと、一定領域の反応をまとめるプーリングとを繰り返すことで多様な変形に対する不変性を獲得する学習を行うことにより得られる。なお、畳み込みニューラルネットワークの識別性能は、畳み込み層を構成するフィルタに依存することがわかっている。 Here, the convolutional neural network is often used in the field of image recognition, and extracts a feature amount from an image by performing convolution with a filter on a two-dimensional image. As described above, the convolutional neural network is composed of a multilayer network that repeats convolution and pooling. Then, a filter coefficient (weight) effective for identification constituting the convolution layer in the convolutional neural network is learned using a large amount of learning data such as a large amount of learning images. The coefficient (weight) is obtained by performing learning to acquire invariance with respect to various deformations by repeating convolution by a filter and pooling that collects reactions in a certain region using a large amount of data. It has been found that the discrimination performance of the convolutional neural network depends on the filters constituting the convolutional layer.
図1に示す危険予測器10は、車載カメラにより撮影された入力画像が入力されると、図2に示すような畳み込みニューラルネットワークを用いて、入力画像における走行中の車両にとっての危険領域とその特徴を推定し、予測した危険度として出力する。危険予測器10は、過去に人の飛び出しが発生して危険となった画像の直前の画像の一部領域すなわち過去に危険に繋がった領域に近いほど高い危険度を予測する。
When the input image captured by the in-vehicle camera is input, the
より具体的には、図1に示す危険予測器10は、車両に搭載された車載カメラにより撮影された入力画像を取得する。危険予測器10は、取得した入力画像中の危険領域であって当該車両がそのまま走行した場合に当該車両の走行経路中に運動物体が出現して当該車両と衝突する可能性のある危険領域と当該危険領域の特徴とを畳み込みニューラルネットワークで推定する。そして、危険予測器10は、それを取得した入力画像に対して予測される危険度として出力する。ここで、危険予測器10は、当該危険領域の特徴として、当該危険領域の危険度合いを推定し、推定した当該危険領域および当該危険領域の危険度合いを示す尤度マップを危険度として出力する。
More specifically, the
本実施の形態では、危険予測器10は、入力画像として、例えば図3に示すような画像50すなわち停車しているバス501と、歩行者である人物502および503とが含まれる画像50を取得したとする。この場合、危険予測器10は、画像50において、停車しているバス501の背後の領域と、人物502の領域と、人物503の領域とが危険領域であると推定する。そして、画像50に対して推定した危険領域の危険度合い(尤度)を重畳させた画像50aを、予測した危険度として出力する。画像50aには、尤度マップとして、停車しているバス501の背後の領域の尤度504と、人物502の領域の尤度505と、人物503の領域の尤度506とが重畳されている。この尤度は、車両が衝突する可能性のあるリスク(危険度)を示している。本実施の形態では、この尤度により、人が見えていない領域であり飛び出しそうな領域に対しても危険に繋がった領域であるとして高い危険度(リスク)が示される。
In the present embodiment, the
なお、危険予測器10が出力する危険度は、図3に示されるような危険領域とその危険度合いとを示す尤度マップに限らない。以下、この例を図4を用いて説明する。
Note that the risk level output by the
図4は、本実施の形態における危険予測器10の予測結果の別の一例を示す図である。なお、図3と同様の要素には同一の符号を付しており、詳細な説明は省略する。
FIG. 4 is a diagram illustrating another example of the prediction result of the
危険予測器10は、入力画像として取得した画像50に対して、停車しているバス501の背後の領域507と、人物502の領域508と、人物503の領域509とが危険領域であると推定し、画像50に対して推定した危険領域とそのカテゴリを重畳させた画像50bを出力する。つまり、危険予測器10は、画像50に対して領域507とそのカテゴリである危険領域(車)、領域508とそのカテゴリである危険領域(人)、領域509とそのカテゴリである危険領域(人)が重畳させた画像50bを出力する。ここで、画像50bにおいて、危険領域である領域507に対応付けられる運動物体の種別が車であることから、危険領域のカテゴリとして、危険領域(車)が重畳されている。同様に、画像50bにおいて、危険領域である領域508および領域509に対応付けられる運動物体の種別が人物(人)であることから、危険領域のカテゴリとして、危険領域(人)が重畳されている。
The
このように、危険予測器10は、当該危険領域の特徴として、当該危険領域に対応づけられる前記運動物体の種別を推定し、推定した当該危険領域および当該種別を危険度として出力してもよい。
Thus, the
[危険予測器10の予測処理]
次に、本実施の形態の係る危険予測器10の予測処理について、図を用いて説明する。
[Prediction process of danger predictor 10]
Next, the prediction process of the
図5は、本実施の形態における危険予測器10の予測処理の一例を示すフローチャートである。
FIG. 5 is a flowchart showing an example of the prediction process of the
図5に示すように、危険予測器10のコンピュータは、まず、畳み込みニューラルネットワークに、車両に搭載された車載カメラにより撮影された入力画像を取得させる(S1)。本実施の形態では、危険予測器10のコンピュータは、畳み込みニューラルネットワークに、例えば上述した図5に示す画像50を入力画像として取得させる。
As shown in FIG. 5, the computer of the
次に、危険予測器10のコンピュータは、畳み込みニューラルネットワークに、危険領域とその特徴とを推定させ、入力画像に対して予測した危険度として出力させる(S2)。より具体的には、危険予測器10のコンピュータは、畳み込みニューラルネットワークに、S1において取得させた入力画像中の危険領域であって車両がそのまま走行した場合に車両の走行経路中に運動物体が出現して車両と衝突する可能性のある危険領域と当該危険領域の特徴とを推定させる。そして、それを、入力画像に対して予測した危険度として出力させる。
Next, the computer of the
本実施の形態では、危険予測器10のコンピュータは、当該畳み込みニューラルネットワークに、当該危険領域の特徴として、当該危険領域の危険度合いを推定させ、推定した危険領域および当該危険領域の危険度合いを示す尤度マップを危険度として出力させる。例えば、危険予測器10のコンピュータは、畳み込みニューラルネットワークに、例えば上述した図5に示す画像50aを予測した危険度として出力させる。
In the present embodiment, the computer of the
なお、危険予測器10のコンピュータは、上述したように、当該畳み込みニューラルネットワークに、当該危険領域の特徴として、当該危険領域危険領域に対応づけられる前記運動物体の種別を推定させ、推定した危険領域および当該危険領域の種別を危険度として出力させてもよい。
As described above, the computer of the
[危険予測器10の効果等]
以上のように、実施の形態1に係る危険予測器10によれば、車両に搭載された車載カメラにより撮影された入力画像中の危険領域と当該危険領域の特徴とを推定することができる。特に、実施の形態1に係る危険予測器10は、停車しているバスの背後の領域など、バスから降車した歩行者が見えていないが飛び出しそうな領域も、走行中の車両にとって危険が発生しそうな危険領域として予測することができる。
[Effects of danger predictor 10]
As described above, according to the
それにより、例えば自動運転中の車両が危険予測器10を備える場合には、当該車両は、車載カメラの画像を用いて危険が発生しそうな危険領域を予測し、予測した危険領域を回避する制御を行うことができるので、より安全な走行が可能になる。
Thereby, for example, when a vehicle in automatic driving includes the
[危険予測器10の学習処理]
以下、このような危険予測器10を実現するための学習処理について説明する。学習処理が行われることにより、危険予測器10に用いられる畳み込みニューラルネットワークとして機能する畳み込みニューラルネットワークを、畳み込みニューラルネットワーク10aと称して説明する。
[Learning process of danger predictor 10]
Hereinafter, a learning process for realizing such a
図6は、本実施の形態における畳み込みニューラルネットワーク10aの学習処理の概要を示すフローチャートである。図7A〜図7Dは、ステップS1において準備される学習用データの説明図である。図8は、学習処理の結果として出力される危険領域とその特徴の一例を示す図である。
FIG. 6 is a flowchart showing an outline of the learning process of the convolutional
まず、学習用データを準備する(S11)。より具体的には、危険領域を含む学習用画像と、学習用画像に危険領域を示すアノテーションが付されたアノテーション付き画像とで構成される学習用データを準備する。 First, learning data is prepared (S11). More specifically, learning data including a learning image including a dangerous area and an annotated image in which an annotation indicating the dangerous area is added to the learning image is prepared.
ここで、図7A〜図7Dを用いて、学習用データについて説明する。 Here, the learning data will be described with reference to FIGS. 7A to 7D.
図7Aおよび図7Bは、学習用画像の一例であり、過去に車載カメラにより撮影された複数の画像のうち危険につながった画像の一例である。図7Bに示す画像52には、停車しているバス511と歩行者である人物512と、バス511の背後の領域から出現した歩行者である人物513とが示されている。図7Aに示す画像51には、停車しているバス511と歩行者である人物512とが示されており、人物513はバス511の背後の領域に存在するが見えていない。
FIG. 7A and FIG. 7B are examples of learning images, and are examples of images that have led to danger among a plurality of images captured by the in-vehicle camera in the past. The
図7Cに示す画像51aは、アノテーション付き画像の一例であり、画像51の人物が出現する所定時間前の領域にアノテーションが付与されている。より具体的には、画像51aは、画像51を撮影した車載カメラを搭載する車両がそのまま走行した場合に車両の走行経路中に人物513である運動物体が出現して当該車両と衝突する可能性のある危険領域を示すアノテーションが付与されている。
An
なお、危険領域を示すアノテーションは、図7Cの画像51aに示すように、見えていないが飛び出しそうな人物513を含むバス511の背後の領域514つまり飛び出しが発生する直前の領域514に付す場合に限らない。例えば図7Dに示すように、領域514に加えて、見えている人物512の領域515に対しての危険領域を示すアノテーションを付与し、その他の領域(例えば領域516)に対して安全領域を示すアノテーションを付与するとしてもよい。
It should be noted that the annotation indicating the dangerous area is attached to the
以下、図6に戻って説明する。 Hereinafter, the description will be returned to FIG.
次に、コンピュータは、学習用データを用いて、畳み込みニューラルネットワーク10aを、危険予測器10として機能させるために、学習処理を行う(S12)。より具体的には、危険領域を含む学習用画像と、学習用画像に危険領域を示すアノテーションが付されたアノテーション付き画像とを用いて、畳み込みニューラルネットワーク10aに、学習用画像の中の危険領域と当該危険領域の特徴とを推定させるための当該畳み込みニューラルネットワーク10aの重みを学習させる学習処理を行う。
Next, the computer performs learning processing using the learning data in order to cause the convolutional
例えば、図7Aに示す画像51を危険領域を含む学習用画像、図7Dに示す画像51bを学習用画像に危険領域を示すアノテーションが付されたアノテーション付き画像として用いて畳み込みニューラルネットワーク10aに学習処理させたとする。この場合、畳み込みニューラルネットワーク10aは、図8の画像51cに示されるような危険領域および当該危険領域の危険度合いを示す尤度マップを推定するための重みを学習する。ここで、図8の画像51cにおいて、停車しているバス511の背後の領域と、人物512の領域とが危険領域であり、バス511の背後の領域の尤度517と、人物512の領域の尤度518とが重畳されている。
For example, the learning process is performed on the convolutional
なお、学習用データの準備において、学習用画像に危険領域を示すアノテーションを付す作業は、例えばクラウドソーシングのワーカなどに依頼して行うなど、人手で行うが、一部または全部の作業をコンピュータにさせるとしてもよい。以下、学習システムのコンピュータが、学習用画像に危険領域を示すアノテーションを付す作業を行い、学習用データを用いて、畳み込みニューラルネットワーク10aに学習処理を行う場合を実施例として説明する。
In preparing the learning data, the task of adding an annotation indicating the dangerous area to the learning image is done manually, for example, by requesting a crowdsourcing worker, etc. It may be allowed. Hereinafter, a case where the computer of the learning system performs an operation of attaching an annotation indicating a dangerous area to a learning image and performs learning processing on the convolutional
(実施例)
[学習システムの構成]
図9は、実施例における学習システムの構成の一例を示すブロック図である。図9に示す学習システムは、学習用データ作成装置20と学習装置30とを備え、危険予測器10を実現するための学習処理を行う。
(Example)
[Learning system configuration]
FIG. 9 is a block diagram illustrating an example of a configuration of the learning system in the embodiment. The learning system shown in FIG. 9 includes a learning
学習用データ作成装置20は、記憶部201、記憶部203と、アノテーション付与部202とを備え、映像データから学習用データを作成する。記憶部201は、HDD(Hard Disk Drive)やメモリ等で構成され、車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像からなる映像データを記憶する。この映像データは学習用画像としても用いられる。記憶部203は、HDD(Hard Disk Drive)やメモリ等で構成され、学習用画像(映像データ)に対して危険領域を示すアノテーションが付されたアノテーション付きデータを記憶する。アノテーション付与部202は、記憶部201から取得した学習用画像(映像データ)に危険領域を示すアノテーションを少なくとも付して記憶部203に記憶する。
The learning
学習装置30は、誤差算出部301と、重み調整部302とを備え、学習用データ作成装置20から取得した学習用データを用いて、畳み込みニューラルネットワーク10aに学習処理を行う。ここで、畳み込みニューラルネットワーク10aは、危険予測器10に用いられる畳み込みニューラルネットワークと同一構成であり、学習処理の結果、危険予測器10に用いられる畳み込みニューラルネットワークとして機能する。誤差算出部301は、畳み込みニューラルネットワーク10aが推定すべき学習用画像の中の危険領域および当該危険領域の特徴を示す値(正解値)と、畳み込みニューラルネットワーク10aが現に出力(推定)したもの(推定した危険度を示す値)との誤差を、誤差関数を用いて誤差を算出する。重み調整部302は、誤差算出部301で算出される誤差が小さくなるように畳み込みニューラルネットワーク10aの重みを調整する。
The
[学習システムの動作]
次に、以上のように構成された学習システムの動作について、図10および図11を用いて説明する。図10は、学習用データ作成装置20が行うアノテーション付きデータの作成処理を示すフローチャートである。図11は、学習装置30が行う学習処理を示すフローチャートである。なお、図10は図9に示すS11の詳細処理一例に該当し、図11は図9に示すS12の詳細処理の一例に該当する。
[Learning system operation]
Next, the operation of the learning system configured as described above will be described with reference to FIGS. 10 and 11. FIG. 10 is a flowchart showing a process for creating annotated data performed by the learning
図10に示すように、学習用データ作成装置20は、まず、記憶部201に記憶されている映像データを取得する(S111)。より具体的には、学習用データ作成装置20は、映像データとして車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像を取得する。
As shown in FIG. 10, the learning
次に、学習用データ作成装置20は、映像データに含まれる危険領域を決定する(S112)。より具体的には、学習用データ作成装置20は、取得した複数の画像(映像データ)の少なくとも一部の画像に含まれる危険領域であって、当該複数の画像を撮影した車載カメラを搭載する車両がそのまま走行した場合に当該車両の走行経路中に運動物体が出現して当該車両と衝突する可能性のある危険領域を決定する。
Next, the learning
次に、学習用データ作成装置20は、映像データに対して危険領域を示すアノテーションを付与する(S113)。より具体的には、学習用データ作成装置20は、当該少なくとも一部の画像に対して、決定した危険領域を示すアノテーションを付与する。そして、少なくとも一部の画像に危険領域を示すアノテーションを付与した映像データ(アノテーション付きデータ)を記憶部203に記憶する。本実施の形態では、学習用データ作成装置20は、人物が出現する所定時間前の画像の一部領域に対して危険領域を示すアノテーションを付与するが、それに限らない。ボール、ハザードランプを付けた自動車または人物が映されたカーブミラーなど人物が出現する所定時間前の画像の特定物体領域に対して危険領域を示すアノテーションを付与してよい。いずれにせよ、映像データを撮影した車載カメラを搭載する車両がそのまま走行した場合に車両の走行経路中に人物513である運動物体が出現して当該車両と衝突する可能性のある危険領域を示すアノテーションを付すことになるからである。
Next, the learning
続いて、図11に示すように、学習装置30は、学習用データ作成装置20から学習用データを取得する(S121)。具体的には、学習装置30は、S113においてアノテーションが付与された当該少なくとも一部の画像、および、複数の画像(映像データ)のうち当該少なくとも一部の画像に対応する画像を、学習用画像およびアノテーション付き画像として取得する。例えば、学習装置30は、上述したように、図7Aに示す危険領域を含む学習用画像と図7Dに示すアノテーション付き画像とを学習用データ作成装置20から取得する。
Subsequently, as illustrated in FIG. 11, the
次に、学習装置30は、学習用画像を用いて、畳み込みニューラルネットワーク10aに、推定した危険度を示す値を出力させる(S122)。本実施の形態では、学習装置30は、例えば図7Aに示す危険領域を含む学習用画像に対して、畳み込みニューラルネットワーク10aに、推定させた危険度を示す値として、学習用画像の中の危険領域とその当該危険領域の特徴すなわち、危険領域とその危険度合い(尤度マップ)を示す値を出力させる。
Next, the
次に、学習装置30は、S122で出力させた値と、畳み込みニューラルネットワーク10aが推定すべき学習用画像の中の危険領域および当該危険領域の特徴を示す値(正解値)との差(誤差)を算出する(S123)。ここで、正解値は、図7Dに示す画像51bを学習用画像に危険領域を示すアノテーションが付されたアノテーション付き画像から算出された図8の画像51cに示される危険領域および当該危険領域の危険度合いを示す尤度マップを示す値である。
Next, the
次に、学習装置30は、S123で出力された危険度を示す値と正解値との差が最小でない場合(S124でNo)、その差が小さくなるように畳み込みニューラルネットワーク10aの重みを更新する(S125)。そして、学習装置30は、S122の処理から繰り返す回帰処理を行う。
Next, when the difference between the value indicating the degree of risk output in S123 and the correct answer value is not minimum (No in S124), the
一方、S122で出力された危険度を示す値と正解値との差が最小である場合には、処理を終了する。すなわち、学習装置30は、S123において算出された誤差を最小にするように畳み込みニューラルネットワーク10aの重みを調整することにより、畳み込みニューラルネットワーク10aに重みを学習させる。そして、学習装置30は、S123において算出された誤差が最小になった場合における畳み込みニューラルネットワーク10aの重みを、危険予測器10に用いる畳み込みニューラルネットワークの重みとして決定する。
On the other hand, when the difference between the value indicating the degree of risk output in S122 and the correct answer value is minimum, the process is terminated. In other words, the
なお、図10および図11を説明する便宜上、一枚の画像に対する作成処理や学習処理について説明したが、これにかぎらない。10〜20枚の画像ごとに作成処理や学習処理を行ってもよい。また、誤差が最小になった畳み込みニューラルネットワーク10aの重みを、危険予測器10に用いる畳み込みニューラルネットワークの重みとして決定するとして説明したが、それに限らない。上記の回帰処理を繰り返しても重みの値及び誤差が動かない場合、重みの値及び誤差が動かないときの畳み込みニューラルネットワークの重み10aを、危険予測器10に用いる畳み込みニューラルネットワークの重みとして決定してもよい。また、誤差が最小とは、回帰処理の上限回数を決めた場合に、上限回数までの回帰処理における誤差の最小を意味するとしてもよい。
For convenience of describing FIGS. 10 and 11, the creation processing and learning processing for one image have been described, but the present invention is not limited to this. You may perform a creation process and a learning process for every 10-20 images. Further, the weight of the convolutional
(変形例1)
図12Aは、ステップS1において準備されるアノテーション付き画像の別の一例である。図12Bは、学習処理の結果として出力される危険領域とその特徴の別の一例を示す図である。なお、図7A〜図8と同様の要素には同一の符号を付しており、詳細な説明は省略する。
(Modification 1)
FIG. 12A is another example of the annotated image prepared in step S1. FIG. 12B is a diagram illustrating another example of the dangerous area output as a result of the learning process and its characteristics. 7A to 8 are denoted by the same reference numerals, and detailed description thereof is omitted.
上述した危険予測器10の学習処理では、図7Aに示す画像51および図7Dに示す画像51bが学習用画像およびアノテーション付き画像の一例であり、正解値が図8に示す画像51cにおける危険領域とその危険度合いを示す値である場合について説明したが、これに限らない。図7Aに示す画像51および図12Aに示す画像51dを学習用画像およびアノテーション付き画像として、正解値が図12Bに示す画像51eにおける危険領域とそのカテゴリを示す値であるとしてもよい。
In the learning process of the
図12Aに示す画像51において、停車しているバス511の背後の領域514dが、見えていない人物が飛び出して車両と衝突する可能性のある危険領域であり、危険カテゴリ1が危険領域のカテゴリを示すアノテーションである。また、画像51dには、さらに、見えている人物512の領域515とその危険カテゴリ2とを示すアノテーションが付されている。人物512の領域515が車両と衝突する可能性のある危険領域に該当し、危険カテゴリ2が危険領域のカテゴリに該当する。また、画像51dには、これら以外の領域(例えば領域516d)に対して安全領域であることを示すアノテーションも付与されている。
In the
図12Bに示す画像51eには、停車しているバス511の背後の領域519が危険領域であり、そのカテゴリが危険領域(車)であること、および、人物512の領域520が危険領域であり、そのカテゴリである危険領域(人)であることが示されている。
In the
(変形例2)
学習用画像に付されるアノテーションは、実施例で説明した危険領域を示す情報(枠など)や変形例1で説明した危険領域に対応づけられる運動物体のカテゴリである場合に限らない。例えば、車両のハンドル角度やブレーキ強度など学習用画像が撮影されたときの車両の制御情報であってもよいし、図13に示すような物体領域とは異なる詳細領域情報であってもよい。
(Modification 2)
The annotation attached to the learning image is not limited to information (such as a frame) indicating the dangerous area described in the embodiment or the category of the moving object associated with the dangerous area described in the first modification. For example, the control information of the vehicle when the learning image such as the steering angle of the vehicle and the brake strength is captured may be detailed area information different from the object area as shown in FIG.
図13は、詳細領域情報の一例を示す図である。図13に示す詳細領域情報は、例えば図7Aに対するセグメント情報54である。領域541が図7Aに示すバス511の背後の領域が危険領域であることを示しており、領域542が図7Aに示す人物512の領域が危険領域であることを示している。
FIG. 13 is a diagram illustrating an example of detailed area information. The detailed area information shown in FIG. 13 is, for example,
このように、学習用画像に付されるアノテーションは、入力画像における危険領域と学習用画像の撮影時における車両のブレーキ強度またはハンドル角度を含む制御情報とを示してもよい。また、学習用画像に付されるアノテーションは、入力画像における危険領域のセグメント情報であってもよい。 As described above, the annotation attached to the learning image may indicate the dangerous area in the input image and the control information including the brake strength or the steering wheel angle of the vehicle when the learning image is captured. Further, the annotation added to the learning image may be segment information of the dangerous area in the input image.
(変形例3)
上記の実施の形態1、実施例、変形例1および2では、走行中の車両にとって危険が発生しそうな危険領域を、学習用画像中に存在する遮蔽物の領域の一部を含む領域であって、運動物体が隠れており当該運動物体が遮蔽物から走行経路中に出現する前の領域であるとして説明したが、これに限らない。危険領域は、人物を含む2以上の運動物体同士が接近すると車両の走行経路中を横切ることになる2以上の運動物体の間の領域であってもよい。
(Modification 3)
In the first embodiment, the example, and the first and second modifications described above, the danger area where danger is likely to occur for the traveling vehicle is an area including a part of the area of the shielding object existing in the learning image. In the above description, it is assumed that the moving object is hidden and the moving object is an area before the moving object appears in the travel route from the shield. The dangerous area may be an area between two or more moving objects that cross the traveling route of the vehicle when two or more moving objects including a person approach each other.
以下、このような危険領域を学習処理するために用いられる学習用画像とアノテーション付き画像とについて例示する。 Hereinafter, the learning image and the annotated image used for learning processing of such a dangerous area will be exemplified.
図14A、図15A、図16Aおよび図17Aは、学習用画像の一例である。図14B、図15B、図16Bおよび図17Bは、危険領域を示すアノテーションが付されたアノテーション付き画像の一例である。 14A, 15A, 16A, and 17A are examples of learning images. FIG. 14B, FIG. 15B, FIG. 16B, and FIG. 17B are examples of annotated images with annotations indicating dangerous areas.
図14Aに示される学習用画像56aには、駐停車中の自動車561と人物562とが示されている。図14Bに示されているアノテーション付き画像56bには、学習用画像56aに対して、駐停車中の自動車561と人物562との間の領域563が危険領域であることを示すアノテーションが付されている。
The
図15Aに示される学習用画像57aには、人物571とバスの停留所を示す物体572と駐停車中の自動車573とが示されている。図15Bに示されているアノテーション付き画像57bには、学習用画像57aに対して、人物571とバスの停留所を示す物体572との間の領域574が危険領域であることを示すアノテーションが付されている。
The
また、図16Aに示される学習用画像58aには、子供である人物581とボールなど人物581が遊びに使う物体582とが示されている。図16Bに示されているアノテーション付き画像58bには、学習用画像58aに対して、人物581と人物581が遊びに使う物体582との間の領域583が危険領域であることを示すアノテーションが付されている。
In addition, the
また、図17Aに示される学習用画像59aには、子供である人物591と子供の親などの人物592とが示されている。図17Bに示されているアノテーション付き画像59bには、学習用画像59aに対して、人物591と人物592との間の領域593が危険領域であることを示すアノテーションが付されている。
In addition, the
このように、人物を含む2以上の運動物体同士が接近すると車両の走行経路中を横切ることになることから、2以上の運動物体の間の領域は、車両がそのまま走行した場合に車両の走行経路中に運動物体が出現して車両と衝突する可能性のある危険領域であると考えられる。したがって、危険予測器10は、当該2以上の運動物体の間の領域を危険領域と予測してもよい。
As described above, when two or more moving objects including a person approach each other, the vehicle travels across the traveling path. Therefore, the region between the two or more moving objects travels when the vehicle travels as it is. This is considered a dangerous area where a moving object may appear in the route and collide with the vehicle. Therefore, the
(実施の形態2)
実施の形態1では、危険予測器10に用いられる畳み込みニューラルネットワークと同一構成の畳み込みニューラルネットワーク10aのみを用いて学習処理を行うとして説明したが、これに限らない。まず、全結合層を有する畳み込みニューラルネットワークを用いて1段階目の学習処理を行い、次に、全結合層を畳み込み層に変更した畳み込みニューラルネットワークを用いて2段階目の学習処理を行うとしてもよい。以下、この場合について、実施の形態2として説明する。なお、以下では実施の形態1と異なるところを中心に説明する。
(Embodiment 2)
In the first embodiment, the learning process is described using only the convolutional
[学習処理]
危険予測器10の構成等は上記実施の形態1で説明した通りであるの説明を省略する。実施の形態2では、実施の形態1に対して、コンピュータが学習用データを用いて行う学習処理が異なる。
[Learning process]
The configuration of the
図18は、本実施の形態における2段階の学習処理の概要を示すフローチャートである。図19は、1段階目の学習処理を概念的に説明するための説明図である。図20は、2段階目の学習処理を概念的に説明するための説明図である。なお、図3および図7D等と同様の要素には同一の符号を付しており、詳細な説明は省略する。図18は、図6に示すステップS12の詳細処理の一例に該当する。また、図19に示される第1ニューラルネットワーク10bは、1段階目の学習処理で用いられる全結合層を有する畳み込みニューラルネットワークである。図20に示される第2ニューラルネットワーク10cは、2段階目の学習処理で用いられる畳み込みニューラルネットワークであり、第1ニューラルネットワーク10bの全結合層を畳み込み層に変更したものに該当する。第2ニューラルネットワーク10cは、危険予測器10に用いられる畳み込みニューラルネットワークと同一構成である。
FIG. 18 is a flowchart showing an overview of a two-stage learning process in the present embodiment. FIG. 19 is an explanatory diagram for conceptually explaining the first-stage learning process. FIG. 20 is an explanatory diagram for conceptually explaining the learning process at the second stage. Elements similar to those in FIGS. 3 and 7D and the like are denoted by the same reference numerals, and detailed description thereof is omitted. FIG. 18 corresponds to an example of detailed processing in step S12 illustrated in FIG. Also, the first
まず、コンピュータは、学習用データを用いて、第1ニューラルネットワーク10bに重み(第1重み)を学習させる第1学習処理を行う(S221)。より具体的には、コンピュータは、学習用画像それぞれのうちの一部領域であって危険領域を示すアノテーションが付された領域の危険領域画像と当該アノテーションが付されていない領域の安全領域画像とを用いて、全結合層を有する畳み込みニューラルネットワークである第1ニューラルネットワーク10bに、一部領域が安全領域であるまたは危険領域であると判定させるための当該第1ニューラルネットワークの第1重みを学習させる。
First, the computer performs a first learning process in which the first
例えば、図19に示す例では、コンピュータは、アノテーション付き画像である画像51bの一部画像である危険領域画像61を第1ニューラルネットワーク10bに入力し、危険領域である判定を行わせるように第1ニューラルネットワーク10bの第1重みを学習させている様子が示されている。
For example, in the example illustrated in FIG. 19, the computer inputs the
次に、コンピュータは、学習用データを用いて、第2ニューラルネットワーク10cに第2学習処理を行う(S221〜S224)。より具体的には、まず、コンピュータは、第1ニューラルネットワークの全結合層を畳み込み層に変更した第2ニューラルネットワークを生成する(S222)。続いて、コンピュータは、S221で学習した第1ニューラルネットワークの重み(第1重み)を読み込み(S223)、S222で生成した第2ニューラルネットワークの重みの初期値を第1重みに更新する。続いて、コンピュータは、危険領域を含む学習用画像と、学習用画像に危険領域を示すアノテーションが付されたアノテーション付き画像とを用いて、第2ニューラルネットワーク10cに、学習用画像の中の危険領域と当該危険領域の特徴とを推定させるための第2ニューラルネットワーク10cの重み(第2重み)を学習させる(S224)。
Next, the computer performs the second learning process on the second
例えば、図20に示す例では、コンピュータは、学習用画像(入力画像)である画像50を第2ニューラルネットワーク10cに入力し、危険度として当該危険領域および当該危険領域の危険度合いを示す尤度マップを推定させるように第2ニューラルネットワーク10cの第2重みを更新(学習)させている。
For example, in the example illustrated in FIG. 20, the computer inputs an
このような第2学習処理を行うことにより、第2ニューラルネットワークと同一構成である危険予測器10に用いる畳み込みニューラルネットワークの重みを学習させることができる。
By performing such second learning processing, the weight of the convolutional neural network used for the
なお、第1学習処理において、危険領域を示すアノテーションが付された危険領域画像と当該アノテーションが付されていない安全領域画像とを学習用画像として用いて、第1ニューラルネットワーク10bに、入力した学習用画像が安全であるか危険であると判定させる第1重みを学習させるとしたが、それに限らない。
In the first learning process, the learning area input to the first
例えば図21に示すように、第1学習処理において、危険領域とそのカテゴリを示すアノテーションが付された学習用画像の一部領域を学習用画像として用いてもよい。そして、第1ニューラルネットワーク10bに、入力した学習用画像が安全であるか危険であると判定させ、かつ危険であると判定した場合にはその学習用画像が示すカテゴリを判定させる第1重みを学習させてもよい。
For example, as shown in FIG. 21, in the first learning process, a partial region of the learning image with the annotation indicating the dangerous region and its category may be used as the learning image. Then, the first
ここで、図21は、1段階目の学習処理を概念的に説明するための別の説明図である。 Here, FIG. 21 is another explanatory diagram for conceptually explaining the first-stage learning process.
図21に示される例では、コンピュータは、危険領域とそのカテゴリを示すアノテーション付き画像である画像51dの一部領域である領域514dを切り取った危険領域画像63を第1ニューラルネットワーク10bに入力している。そして、コンピュータは、危険領域画像63が危険領域である判定を行わせ、さらに、その危険領域画像63が示すカテゴリ(図では危険カテゴリ(車))を判定させるように第1ニューラルネットワーク10bの第1重みを学習させている様子が示されている。なお、危険領域は、上述したもの以外にも、種々のバリエーションが考えられるため、第1学習処理において、危険カテゴリを、物体の見え方毎などの個々のカテゴリ(詳細カテゴリ)に分割して学習させてもよい。
In the example shown in FIG. 21, the computer inputs a
また、危険予測器10が出力する危険度は、図20に示されるような危険領域とその危険度合いとを示す尤度マップに限らない。つまり、第2学習処理において、危険領域とその特徴として、危険領域とその危険度合いとを示す尤度マップを出力させるように第2重みを学習させる場合に限らない。危険領域およびそのカテゴリを出力させるように第2重みを学習させてもよい。
Further, the risk level output by the
[他の実施態様の可能性]
以上、実施の形態1〜3において本開示の危険予測方法について説明したが、各処理が実施される主体や装置に関しては特に限定しない。ローカルに配置された特定の装置内に組み込まれたプロセッサーなど(以下に説明)によって処理されてもよい。またローカルの装置と異なる場所に配置されているクラウドサーバなどによって処理されてもよい。
[Possibility of other embodiments]
As mentioned above, although the risk prediction method of this indication was demonstrated in Embodiment 1-3, it does not specifically limit regarding the main body and apparatus in which each process is implemented. It may be processed by a processor or the like (described below) embedded in a specific device located locally. Further, it may be processed by a cloud server or the like arranged at a location different from the local device.
また、学習用画像や危険予測時の入力画像としては、車載カメラで撮影された画像(全体画像)であってもよいし、全体画像の一部画像(部分画像)であってもよい。部分画像としては、上述したように危険と推定される領域の画像であってもよい。全体画像としては、危険状況が発生時または発生前の画像であってもよい。 Further, the learning image and the input image at the time of danger prediction may be an image (entire image) taken by an in-vehicle camera or a partial image (partial image) of the entire image. As described above, the partial image may be an image of an area estimated to be dangerous. The entire image may be an image when a dangerous situation occurs or before the occurrence.
なお、本開示は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本開示の実施の形態としてもよい。また、上記実施の形態に対して本開示の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本開示に含まれる。 In addition, this indication is not limited to the said embodiment. For example, another embodiment realized by arbitrarily combining the components described in this specification and excluding some of the components may be used as an embodiment of the present disclosure. Further, the present disclosure also includes modifications obtained by making various modifications conceivable by those skilled in the art without departing from the gist of the present disclosure, that is, the meanings of the words described in the claims. It is.
また、本開示は、さらに、以下のような場合も含まれる。 The present disclosure further includes the following cases.
(1)上記の装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。 (1) Specifically, the above apparatus is a computer system including a microprocessor, ROM, RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like. A computer program is stored in the RAM or hard disk unit. Each device achieves its functions by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
(2)上記の装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。 (2) A part or all of the constituent elements constituting the above-described apparatus may be configured by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
(3)上記の装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。 (3) A part or all of the constituent elements constituting the above-described device may be constituted by an IC card that can be attached to and detached from each device or a single module. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
(4)また、本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。 (4) Moreover, this indication may be the method shown above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
(5)また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。 (5) In addition, the present disclosure provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD ( It may be recorded on a Blu-ray (registered trademark) Disc), a semiconductor memory, or the like. The digital signal may be recorded on these recording media.
また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。 In addition, the present disclosure may transmit the computer program or the digital signal via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。 The present disclosure may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。 In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.
本開示は、特に、自動運転を行うための車両に搭載される車載カメラ、システムや、運転支援を行うための装置やシステム等において、危険が発生しそうな危険領域の予測するための危険予測方法に利用できる。 The present disclosure particularly relates to a risk prediction method for predicting a danger area where danger is likely to occur in an in-vehicle camera and system mounted on a vehicle for automatic driving, a device or system for driving assistance, and the like. Available to:
10 危険予測器
10a 畳み込みニューラルネットワーク
10b 第1ニューラルネットワーク
10c 第2ニューラルネットワーク
20 学習用データ作成装置
30 学習装置
50、50a、50b、51、51a、51b、51c、51d、51e、52 画像
54 セグメント情報
56b、57b、58b、59b アノテーション付き画像
61、63 危険領域画像
101、102 畳み込み層
201、203 記憶部
202 アノテーション付与部
301 誤差算出部
302 重み調整部
501、511 バス
502、503、512、513、562、571、581、591、592 人物
504、505、506、517、518 尤度
507、508、509、514、514d、515、515d、516、516d、519、520、541、542、563、574、583、593 領域
561、573 自動車
572、582 物体
DESCRIPTION OF
Claims (11)
車両に搭載された車載カメラにより撮影された入力画像を、前記畳み込みニューラルネットワークに取得させる取得ステップと、
前記畳み込みニューラルネットワークに、前記取得ステップにおいて取得した前記入力画像中の危険領域であって前記車両がそのまま走行した場合に前記車両の走行経路中に運動物体が出現して前記車両と衝突する可能性のある危険領域と当該危険領域の特徴とを推定させ、前記入力画像に対して予測される危険度として出力させる出力ステップとを含む、
危険予測方法。 A risk prediction method performed by a computer of a risk predictor using a convolutional neural network,
An acquisition step of causing the convolutional neural network to acquire an input image captured by an in-vehicle camera mounted on the vehicle;
In the convolutional neural network, there is a possibility that a moving object appears in the travel route of the vehicle and collides with the vehicle when the vehicle travels as it is in the dangerous region in the input image acquired in the acquisition step. An output step for estimating a certain dangerous area and a feature of the dangerous area and outputting the estimated risk level for the input image.
Risk prediction method.
請求項1に記載の危険予測方法。 In the output step, the convolutional neural network is caused to estimate a risk level of the risk area as a characteristic of the risk area, and a likelihood map indicating the estimated risk area and the risk level of the risk area is used as the risk level. Output,
The risk prediction method according to claim 1.
請求項1に記載の危険予測方法。 In the output step, the convolutional neural network is caused to estimate the type of the moving object associated with the dangerous area as the characteristic of the dangerous area, and output the estimated dangerous area and the type as the degree of danger.
The risk prediction method according to claim 1.
前記取得ステップを行う前に、前記危険領域を含む学習用画像と、前記学習用画像に前記危険領域を示すアノテーションが付されたアノテーション付き画像とを用いて、前記畳み込みニューラルネットワークに、前記学習用画像の中の前記危険領域と当該危険領域の前記特徴とを推定させるための当該畳み込みニューラルネットワークの重みを学習させる学習ステップを含む、
請求項1〜3のいずれか1項に記載の危険予測方法。 The risk prediction method further includes:
Before performing the acquisition step, the learning image including the dangerous area and the annotated image with the annotation indicating the dangerous area are added to the convolutional neural network using the learning image. A learning step for learning the weight of the convolutional neural network for estimating the dangerous area in the image and the feature of the dangerous area;
The risk prediction method according to any one of claims 1 to 3.
前記学習用画像それぞれのうちの一部領域であって前記危険領域を示すアノテーションが付された領域の危険領域画像と当該アノテーションが付されていない領域の安全領域画像とを用いて、全結合層を有する畳み込みニューラルネットワークである第1ニューラルネットワークに、前記一部領域が安全領域であるまたは危険領域であると判定させるための当該第1ニューラルネットワークの第1重みを学習させる第1学習ステップと、
前記第1ニューラルネットワークの全結合層が畳み込み層に変更された構成からなる第2ニューラルネットワークの重みの初期値を、前記第1学習ステップにおいて学習された前記第1重みに更新し、前記危険領域を含む学習用画像と、前記学習用画像に前記危険領域を示すアノテーションが付されたアノテーション付き画像とを用いて、前記第2ニューラルネットワークに、前記学習用画像の中の前記危険領域と当該危険領域の前記特徴とを推定させるための当該第2ニューラルネットワークの第2重みを学習させることにより、前記第2ニューラルネットワークと同一構成である前記畳み込みニューラルネットワークの重みを学習させる第2学習ステップとを含む、
請求項4に記載の危険予測方法。 The learning step includes
Using all of the learning images, a dangerous region image in a region with an annotation indicating the dangerous region, and a safe region image in a region without the annotation, the entire connection layer A first learning step of causing a first neural network that is a convolutional neural network to learn the first weight of the first neural network to determine that the partial region is a safe region or a dangerous region;
Updating an initial value of the weight of the second neural network having a configuration in which all the connection layers of the first neural network are changed to a convolution layer to the first weight learned in the first learning step; Using the learning image and the annotated image in which the learning image is annotated with the annotation indicating the dangerous region, the dangerous region in the learning image and the dangerous image in the second neural network. A second learning step of learning a weight of the convolutional neural network having the same configuration as the second neural network by learning a second weight of the second neural network for estimating the feature of the region; Including,
The risk prediction method according to claim 4.
車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像を取得し、取得した前記複数の画像の少なくとも一部の画像に含まれる危険領域であって、前記車両がそのまま走行した場合に前記車両の走行経路中に運動物体が出現して前記車両と衝突する可能性のある危険領域を決定して、当該少なくとも一部の画像に対して、決定した危険領域を示すアノテーションを付与する付与ステップと、を含み、
前記学習ステップでは、前記付与ステップにおいてアノテーションが付与された当該少なくとも一部の画像、および、前記複数の画像のうち当該少なくとも一部の画像に対応する画像を、前記学習用画像および前記アノテーション付き画像として取得して、当該畳み込みニューラルネットワークの前記重みを学習させる、
請求項4または5に記載の危険予測方法。 The risk prediction method further includes:
A plurality of time-sequential images taken by an in-vehicle camera mounted on the vehicle are acquired, and the dangerous region is included in at least some of the acquired images, and the vehicle travels as it is In such a case, a dangerous area in which a moving object appears in the traveling route of the vehicle and may collide with the vehicle is determined, and an annotation indicating the determined dangerous area is given to the at least some images. An granting step,
In the learning step, the at least a part of the image to which the annotation is given in the giving step, and an image corresponding to the at least a part of the plurality of images, the learning image and the annotated image And learning the weight of the convolutional neural network,
The risk prediction method according to claim 4 or 5.
請求項4〜6のいずれか1項に記載の危険予測方法。 The dangerous area is an area including a part of the area of the shielding object existing in the learning image, and the moving object is hidden before the moving object appears in the travel route from the shielding object. The area of
The risk prediction method according to any one of claims 4 to 6.
請求項4〜6のいずれか1項に記載の危険予測方法。 The dangerous area is an area between the two or more moving objects that will cross the traveling route of the vehicle when two or more moving objects including a person approach each other.
The risk prediction method according to any one of claims 4 to 6.
請求項4〜6のいずれか1項に記載の危険予測方法。 The annotation indicates the dangerous area and the category of the moving object associated with the dangerous area.
The risk prediction method according to any one of claims 4 to 6.
請求項4〜6のいずれか1項に記載の危険予測方法。 The annotation indicates the dangerous area and control information including a brake strength or a steering wheel angle of the vehicle at the time of capturing the learning image.
The risk prediction method according to any one of claims 4 to 6.
請求項4〜6のいずれか1項に記載の危険予測方法。 The annotation is segment information of the dangerous area.
The risk prediction method according to any one of claims 4 to 6.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710099249.6A CN107180220B (en) | 2016-03-11 | 2017-02-23 | Hazard Prediction Methods |
| US15/450,395 US11769321B2 (en) | 2016-03-11 | 2017-03-06 | Risk prediction method |
| EP17160068.7A EP3217332B1 (en) | 2016-03-11 | 2017-03-09 | Risk prediction method |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201662306720P | 2016-03-11 | 2016-03-11 | |
| US62/306,720 | 2016-03-11 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017162438A true JP2017162438A (en) | 2017-09-14 |
Family
ID=59857956
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016214701A Pending JP2017162438A (en) | 2016-03-11 | 2016-11-01 | Risk prediction method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017162438A (en) |
Cited By (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190031951A (en) * | 2017-09-19 | 2019-03-27 | 삼성전자주식회사 | An electronic device and Method for controlling the electronic device thereof |
| KR20190051621A (en) * | 2017-11-07 | 2019-05-15 | 재단법인대구경북과학기술원 | Image data processing apparatus using semantic segmetation map and controlling method thereof |
| KR20190062184A (en) * | 2017-11-27 | 2019-06-05 | 고려대학교 산학협력단 | System and method for pedestrian-vehicle collision warning based on pedestrian state |
| WO2019106789A1 (en) * | 2017-11-30 | 2019-06-06 | 三菱電機株式会社 | Processing device and processing method |
| JP2019139467A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processing device, information processing method and program |
| JP2019139468A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processor, information processing method, and program |
| JP2019139733A (en) * | 2018-08-24 | 2019-08-22 | 株式会社ビコー | Information processing system, information processing device, information processing method and program |
| CN110163336A (en) * | 2018-02-14 | 2019-08-23 | 财团法人交大思源基金会 | Immediately training track guiding system and method |
| JP2019153277A (en) * | 2017-12-07 | 2019-09-12 | イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ | Danger ranking using end-to-end deep neural network |
| JP2019182401A (en) * | 2018-04-16 | 2019-10-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | Learning-based speed planner for autonomous driving vehicle |
| JP2019192201A (en) * | 2018-04-19 | 2019-10-31 | クラウドワークス インコーポレイテッドCrowdWorks, Inc. | Learning object image extraction device and method for autonomous driving |
| JP2020036837A (en) * | 2018-09-05 | 2020-03-12 | 株式会社ニデック | Ophthalmologic image processing apparatus and ophthalmologic imaging apparatus |
| JP2020037464A (en) * | 2018-09-03 | 2020-03-12 | 三菱ロジスネクスト株式会社 | Determination device and determination method |
| JP2020061140A (en) * | 2018-10-05 | 2020-04-16 | 株式会社ストラドビジョン | CNN learning method, testing method, learning device, and testing device for blind spot monitoring |
| CN111497863A (en) * | 2019-01-30 | 2020-08-07 | 斯特拉德视觉公司 | Method and device for judging whether vehicle mode is changed by trajectory-based action analysis |
| CN111507172A (en) * | 2019-01-31 | 2020-08-07 | 斯特拉德视觉公司 | Method and device for supporting safe automatic driving by predicting movement of surrounding object |
| CN111507175A (en) * | 2019-01-30 | 2020-08-07 | 斯特拉德视觉公司 | Method and apparatus for convolutional neural networks for learning in virtual worlds |
| JP2020160518A (en) * | 2019-03-25 | 2020-10-01 | 新明工業株式会社 | Failure prediction system |
| JP2020165776A (en) * | 2019-03-29 | 2020-10-08 | トヨタ車体株式会社 | Pedestrian protection performance evaluation device |
| WO2021006622A1 (en) * | 2019-07-09 | 2021-01-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
| KR20210006826A (en) * | 2019-07-09 | 2021-01-19 | 삼성전자주식회사 | Electronic apparatus and controlling method thereof |
| JPWO2021075072A1 (en) * | 2019-10-16 | 2021-04-22 | ||
| JP2021067987A (en) * | 2019-10-18 | 2021-04-30 | 日立Astemo株式会社 | Processing device and external world recognition device using the same |
| KR102274806B1 (en) * | 2021-01-22 | 2021-07-08 | 한양대학교 산학협력단 | Method for automated parking and track generation method for automated parking |
| JP2021164034A (en) * | 2020-03-31 | 2021-10-11 | 株式会社ユピテル | System, program, learned model, learning model generation method and generation device, and the like |
| CN113743326A (en) * | 2021-09-07 | 2021-12-03 | 中国南方电网有限责任公司超高压输电公司大理局 | Safety belt wearing state monitoring system, method and device and computer equipment |
| KR20220025997A (en) * | 2020-08-24 | 2022-03-04 | 오토아이티(주) | Apparatus for providing vehicle AVM image for collision prevention of approaching objects |
| US11507833B2 (en) | 2019-06-14 | 2022-11-22 | Toyota Jidosha Kabushiki Kaisha | Image recognition apparatus |
| US11689800B2 (en) | 2021-05-13 | 2023-06-27 | Canon Kabushiki Kaisha | Image capturing apparatus and method of controlling the same, and storage medium |
| US11685405B2 (en) | 2020-04-06 | 2023-06-27 | Toyota Jidosha Kabushiki Kaisha | Vehicle controller, method, and computer program for vehicle trajectory planning and control based on other vehicle behavior |
| JP2023529239A (en) * | 2020-05-29 | 2023-07-07 | イムラ ヨーロッパ ソシエテ パ アクシオンス シンプリフィエ | A Computer-implemented Method for Multimodal Egocentric Future Prediction |
| JP2023540825A (en) * | 2020-09-08 | 2023-09-26 | フォーティートゥ ドット インコーポレイテッド | Roadway judgment method and device for a traveling vehicle using an artificial neural network, and a navigation device including the same |
| US11776277B2 (en) | 2020-03-23 | 2023-10-03 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of object, and controller |
| US11787287B2 (en) | 2017-11-17 | 2023-10-17 | Aisin Corporation | Vehicle drive assist system, vehicle drive assist method, and vehicle drive assist program |
| US11829153B2 (en) | 2020-04-06 | 2023-11-28 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of object, and controller |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016031576A (en) * | 2014-07-28 | 2016-03-07 | クラリオン株式会社 | Object detection device |
-
2016
- 2016-11-01 JP JP2016214701A patent/JP2017162438A/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016031576A (en) * | 2014-07-28 | 2016-03-07 | クラリオン株式会社 | Object detection device |
Cited By (55)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190031951A (en) * | 2017-09-19 | 2019-03-27 | 삼성전자주식회사 | An electronic device and Method for controlling the electronic device thereof |
| KR102436962B1 (en) | 2017-09-19 | 2022-08-29 | 삼성전자주식회사 | An electronic device and Method for controlling the electronic device thereof |
| KR20190051621A (en) * | 2017-11-07 | 2019-05-15 | 재단법인대구경북과학기술원 | Image data processing apparatus using semantic segmetation map and controlling method thereof |
| KR102206527B1 (en) | 2017-11-07 | 2021-01-22 | 재단법인대구경북과학기술원 | Image data processing apparatus using semantic segmetation map and controlling method thereof |
| US11787287B2 (en) | 2017-11-17 | 2023-10-17 | Aisin Corporation | Vehicle drive assist system, vehicle drive assist method, and vehicle drive assist program |
| KR20190062184A (en) * | 2017-11-27 | 2019-06-05 | 고려대학교 산학협력단 | System and method for pedestrian-vehicle collision warning based on pedestrian state |
| KR102099265B1 (en) * | 2017-11-27 | 2020-05-15 | 고려대학교 산학협력단 | System and method for pedestrian-vehicle collision warning based on pedestrian state |
| JPWO2019106789A1 (en) * | 2017-11-30 | 2019-12-12 | 三菱電機株式会社 | Processing apparatus and processing method |
| WO2019106789A1 (en) * | 2017-11-30 | 2019-06-06 | 三菱電機株式会社 | Processing device and processing method |
| JP2019153277A (en) * | 2017-12-07 | 2019-09-12 | イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ | Danger ranking using end-to-end deep neural network |
| JP7217138B2 (en) | 2017-12-07 | 2023-02-02 | イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ | Danger Ranking Using End-to-End Deep Neural Networks |
| JP2019139468A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processor, information processing method, and program |
| JP2019139467A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processing device, information processing method and program |
| CN110163336A (en) * | 2018-02-14 | 2019-08-23 | 财团法人交大思源基金会 | Immediately training track guiding system and method |
| JP2019182401A (en) * | 2018-04-16 | 2019-10-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | Learning-based speed planner for autonomous driving vehicle |
| US11126199B2 (en) | 2018-04-16 | 2021-09-21 | Baidu Usa Llc | Learning based speed planner for autonomous driving vehicles |
| JP2019192201A (en) * | 2018-04-19 | 2019-10-31 | クラウドワークス インコーポレイテッドCrowdWorks, Inc. | Learning object image extraction device and method for autonomous driving |
| JP2019139733A (en) * | 2018-08-24 | 2019-08-22 | 株式会社ビコー | Information processing system, information processing device, information processing method and program |
| JP2020037464A (en) * | 2018-09-03 | 2020-03-12 | 三菱ロジスネクスト株式会社 | Determination device and determination method |
| JP2020036837A (en) * | 2018-09-05 | 2020-03-12 | 株式会社ニデック | Ophthalmologic image processing apparatus and ophthalmologic imaging apparatus |
| JP7328489B2 (en) | 2018-09-05 | 2023-08-17 | 株式会社ニデック | Ophthalmic image processing device and ophthalmic photographing device |
| JP2020061140A (en) * | 2018-10-05 | 2020-04-16 | 株式会社ストラドビジョン | CNN learning method, testing method, learning device, and testing device for blind spot monitoring |
| CN111507175A (en) * | 2019-01-30 | 2020-08-07 | 斯特拉德视觉公司 | Method and apparatus for convolutional neural networks for learning in virtual worlds |
| CN111497863A (en) * | 2019-01-30 | 2020-08-07 | 斯特拉德视觉公司 | Method and device for judging whether vehicle mode is changed by trajectory-based action analysis |
| CN111507175B (en) * | 2019-01-30 | 2023-04-07 | 斯特拉德视觉公司 | Method and apparatus for convolutional neural network for learning in virtual world |
| CN111507172B (en) * | 2019-01-31 | 2023-08-18 | 斯特拉德视觉公司 | Method and apparatus for supporting safe autopilot by predicting movement of surrounding objects |
| CN111507172A (en) * | 2019-01-31 | 2020-08-07 | 斯特拉德视觉公司 | Method and device for supporting safe automatic driving by predicting movement of surrounding object |
| JP2020160518A (en) * | 2019-03-25 | 2020-10-01 | 新明工業株式会社 | Failure prediction system |
| JP2020165776A (en) * | 2019-03-29 | 2020-10-08 | トヨタ車体株式会社 | Pedestrian protection performance evaluation device |
| JP7147660B2 (en) | 2019-03-29 | 2022-10-05 | トヨタ車体株式会社 | Pedestrian protection performance evaluation device |
| US11507833B2 (en) | 2019-06-14 | 2022-11-22 | Toyota Jidosha Kabushiki Kaisha | Image recognition apparatus |
| KR20210006826A (en) * | 2019-07-09 | 2021-01-19 | 삼성전자주식회사 | Electronic apparatus and controlling method thereof |
| US12078998B2 (en) | 2019-07-09 | 2024-09-03 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
| US11599114B2 (en) | 2019-07-09 | 2023-03-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
| KR102269053B1 (en) | 2019-07-09 | 2021-06-24 | 삼성전자주식회사 | Electronic apparatus and controlling method thereof |
| WO2021006622A1 (en) * | 2019-07-09 | 2021-01-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
| JPWO2021075072A1 (en) * | 2019-10-16 | 2021-04-22 | ||
| JP2021067987A (en) * | 2019-10-18 | 2021-04-30 | 日立Astemo株式会社 | Processing device and external world recognition device using the same |
| JP7454353B2 (en) | 2019-10-18 | 2024-03-22 | 日立Astemo株式会社 | Processing device and external world recognition device using it |
| US11776277B2 (en) | 2020-03-23 | 2023-10-03 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of object, and controller |
| JP2021164034A (en) * | 2020-03-31 | 2021-10-11 | 株式会社ユピテル | System, program, learned model, learning model generation method and generation device, and the like |
| JP7446605B2 (en) | 2020-03-31 | 2024-03-11 | 株式会社ユピテル | Systems, programs, trained models, learning model generation methods, generation devices, etc. |
| JP7659929B2 (en) | 2020-03-31 | 2025-04-10 | 株式会社ユピテル | System, program, trained model, training model generation method and generation device, etc. |
| JP2024055911A (en) * | 2020-03-31 | 2024-04-19 | 株式会社ユピテル | System, program, trained model, training model generation method and generation device, etc. |
| US11685405B2 (en) | 2020-04-06 | 2023-06-27 | Toyota Jidosha Kabushiki Kaisha | Vehicle controller, method, and computer program for vehicle trajectory planning and control based on other vehicle behavior |
| US11829153B2 (en) | 2020-04-06 | 2023-11-28 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of object, and controller |
| JP2023529239A (en) * | 2020-05-29 | 2023-07-07 | イムラ ヨーロッパ ソシエテ パ アクシオンス シンプリフィエ | A Computer-implemented Method for Multimodal Egocentric Future Prediction |
| KR20220025997A (en) * | 2020-08-24 | 2022-03-04 | 오토아이티(주) | Apparatus for providing vehicle AVM image for collision prevention of approaching objects |
| KR102481289B1 (en) * | 2020-08-24 | 2022-12-27 | 오토아이티(주) | Apparatus for providing vehicle AVM image for collision prevention of approaching objects |
| JP2023540825A (en) * | 2020-09-08 | 2023-09-26 | フォーティートゥ ドット インコーポレイテッド | Roadway judgment method and device for a traveling vehicle using an artificial neural network, and a navigation device including the same |
| JP7806058B2 (en) | 2020-09-08 | 2026-01-26 | フォーティートゥ ドット インコーポレイテッド | Method and device for determining roadway for moving vehicle using artificial neural network, and navigation device including the same |
| KR102274806B1 (en) * | 2021-01-22 | 2021-07-08 | 한양대학교 산학협력단 | Method for automated parking and track generation method for automated parking |
| US11689800B2 (en) | 2021-05-13 | 2023-06-27 | Canon Kabushiki Kaisha | Image capturing apparatus and method of controlling the same, and storage medium |
| CN113743326B (en) * | 2021-09-07 | 2024-01-19 | 中国南方电网有限责任公司超高压输电公司大理局 | Safety belt wearing state monitoring system, method, device and computer equipment |
| CN113743326A (en) * | 2021-09-07 | 2021-12-03 | 中国南方电网有限责任公司超高压输电公司大理局 | Safety belt wearing state monitoring system, method and device and computer equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2017162438A (en) | Risk prediction method | |
| CN107180220B (en) | Hazard Prediction Methods | |
| CN107181908B (en) | Image processing method, image processing apparatus, and computer-readable recording medium | |
| JP2019179372A (en) | Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and program | |
| CN108885836A (en) | Driving assistance method and drive assistance device, automatic Pilot control device, vehicle, driving assistance system and the program for utilizing the driving assistance method | |
| US10363866B2 (en) | Contextual priority signal in autonomous environment | |
| CN114972911B (en) | Method and device for collecting and processing output data of autonomous driving perception algorithm model | |
| CN114648744B (en) | Methods for determining semantically collision-free space | |
| JP2020021453A (en) | Information processing method, information processing apparatus and information processing system | |
| JP2018018204A (en) | Ability evaluation system | |
| US10866590B2 (en) | Computer-assisted or autonomous driving safety-related decision making system and apparatus | |
| US20250042428A1 (en) | Processing system and information presentation device | |
| CN116710732A (en) | Rare Event Simulation in Motion Planning for Autonomous Vehicles | |
| WO2019088033A1 (en) | Evaluation device, evaluation system, vehicle, and program | |
| JP2019003343A (en) | Driving support device and driving support method | |
| CN107300915A (en) | Collision avoidance system and method, message processing device and method | |
| JP2019179554A (en) | Information processing method and server device | |
| JP6796442B2 (en) | Image processing methods, image processing devices and programs | |
| JP6726075B2 (en) | Image processing method, image processing apparatus and program | |
| US12499490B2 (en) | Information processing device, information processing method, server device, vehicle device, and information processing program | |
| JP6601679B2 (en) | Determination device, determination method, and determination program | |
| CN119452404A (en) | Method for predicting the influence of a traffic participant on at least one other traffic participant and method for operating a vehicle | |
| CN107180067B (en) | Image processing method, image processing apparatus, and recording medium | |
| CN107300905B (en) | Moving body control device and moving body control method | |
| KR102472649B1 (en) | Method and apparatus for tracking the object |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200730 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201113 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201222 |