JP7154071B2 - Driving state monitoring support system, driving state monitoring support method and program - Google Patents
Driving state monitoring support system, driving state monitoring support method and program Download PDFInfo
- Publication number
- JP7154071B2 JP7154071B2 JP2018168043A JP2018168043A JP7154071B2 JP 7154071 B2 JP7154071 B2 JP 7154071B2 JP 2018168043 A JP2018168043 A JP 2018168043A JP 2018168043 A JP2018168043 A JP 2018168043A JP 7154071 B2 JP7154071 B2 JP 7154071B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- driving
- class
- driver
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両を運転する運転者のながら運転を行なっているか否かなどの運転状態の監視を支援する運転状態監視支援システム、運転状態監視支援方法及びプログラムに関する。 The present invention relates to a driving state monitoring support system, a driving state monitoring support method, and a program for supporting monitoring of a driving state such as whether or not a driver is driving a vehicle.
近年、携帯電話やスマートフォンなどの携帯端末の普及により、多数の人間がいずれの場所においても、会話、メールのやり取りなどの情報の送受信が簡易かつ容易に行えるようになっている。
また、基地局が至る所に設置されているため、移動する車両中においても携帯端末が利用することが可能であり、運転者が運転以外に携帯端末の操作を行なうことができる。
2. Description of the Related Art In recent years, with the spread of mobile terminals such as mobile phones and smart phones, many people can easily and easily transmit and receive information such as conversations and exchanges of e-mails at any place.
In addition, since base stations are installed everywhere, the mobile terminal can be used even in a moving vehicle, and the driver can operate the mobile terminal other than driving.
このため、車両を運転しながら携帯端末を操作するながら運転を行なう運転者が増加し、携帯端末の操作に注意力の大部分が割かれ、運転者の車両の運転に対する注意力が大幅に低下してしまう。
これにより、運転者がながら運転を行なうことで、車両の運転が危険な状態に陥る場合があり、ながら運転による交通事故が発生する危険性が増大していることが問題となっている。
As a result, the number of drivers who operate a mobile terminal while driving a vehicle is increasing, and most of the driver's attention is devoted to operating the mobile terminal, resulting in a significant decrease in the driver's attention to driving the vehicle. Resulting in.
As a result, the driver's distracted driving may put the vehicle in a dangerous state, and the risk of a traffic accident due to distracted driving is increasing.
上述したながら運転を抑止するため、携帯電話の電波が発信されている走行中の車両を監視し、運転者が携帯電話を手に持って通話する違法運転を行なっているか否かを検出する装置がある(例えば、特許文献1参照)。
この装置は、車両の走行状態を確認するため、車両に加速度装置を搭載して、この加速度装置により車両が走行しているか否かの判定を行なう。
As described above, in order to deter driving, a device that monitors a moving vehicle that is transmitting mobile phone radio waves and detects whether the driver is carrying out illegal driving by holding a mobile phone in hand and talking. There is (for example, see Patent Document 1).
In order to confirm the running state of the vehicle, this device has an acceleration device mounted on the vehicle, and determines whether or not the vehicle is running by means of the acceleration device.
また、携帯電話から発信される電波により、運転者が携帯電話の操作状態にあるか否かを検出し、車両が走行した状態で携帯電話の電波が発信されている車両を特定し、運転者を撮像した撮像画像から運転者が携帯電話を操作している場合、違法運転を行なっていると判定する。 In addition, it detects whether or not the driver is operating the mobile phone from the radio waves emitted from the mobile phone, identifies the vehicle in which the mobile phone radio wave is being emitted while the vehicle is running, and If the driver is operating the mobile phone from the imaged image, it is determined that the driver is driving illegally.
また、近年、AI(artificial intelligence)を用いた画像解析により、人間の動作の解析を容易に行なうことができる環境が整備されてきている。
このため、ドライブレコーダの撮像画像の解析にAIを用いて、運転者が携帯端末を操作するなどのながら運転を行なっているか否かを判定することも行なわれている(例えば、非特許文献1参照)。
In recent years, an environment has been developed in which human motions can be easily analyzed by image analysis using AI (artificial intelligence).
For this reason, AI is used to analyze captured images of drive recorders to determine whether or not the driver is driving while operating a mobile terminal (for example, Non-Patent Document 1). reference).
しかしながら、特許文献1の違法運転を検出する装置は、車両の走行状態を検出する加速度センサと、携帯電話の発信する電波を検出する受信機とを、新たに車両を設ける必要がある。
また、特許文献1の違法運転を検出する装置は、携帯電話の操作が、車両を運転している運転者か否かを、撮影領域に設置された撮像装置により行なわれている。
However, the apparatus for detecting illegal driving of Patent Document 1 requires that the vehicle be newly provided with an acceleration sensor for detecting the running state of the vehicle and a receiver for detecting radio waves transmitted by the mobile phone.
Further, the device for detecting illegal driving disclosed in Patent Document 1 uses an imaging device installed in an imaging area to determine whether the operation of a mobile phone is performed by a driver who is driving a vehicle.
このため、その撮像装置の位置までに携帯電話の操作が終了している場合、携帯電話の操作を行なっていたのが運転者か同乗者かの判定を行なうことはできなくなるので、撮像装置を短い距離ごとに配置する必要がある。
また、加速度センサ、受信装置及び撮像装置の各々のデータを、同一のタイミングで解析する必要があり、加速度センサ、受信装置、撮像装置を各車両毎に抽出して処理を行なうため、大規模なシステムの開発が必要となる。
Therefore, if the operation of the mobile phone is finished before the position of the imaging device, it becomes impossible to determine whether the person operating the mobile phone is the driver or the passenger. They should be placed at short distances.
In addition, it is necessary to analyze the data of each of the acceleration sensor, the receiving device, and the imaging device at the same timing. System development is required.
また、AI、例えばCNN(convolutional neural network)などのディープラーニング技術を用いた解析により、ながら運転を行なっているか否かの解析においては、撮像画像に撮像されている物体や人間の表情などを精緻に特定はできる。
しかしながら、車両が走行中か否かの走行状態を検出することができないため、人間の状態が不自然であることを検出することはできるが、ながら運転であるか否かを判定することは困難である。
In addition, AI, for example, CNN (convolutional neural network) and other deep learning technology, such as CNN (convolutional neural network), in the analysis of whether or not you are driving, the objects and human facial expressions captured in the captured image are precisely analyzed. can be specified.
However, since it is not possible to detect whether the vehicle is running or not, it is possible to detect that the human condition is unnatural, but it is difficult to determine whether the vehicle is driving while driving. is.
本発明は、このような事情に鑑みてなされたもので、加速度装置や受信機などを車両に搭載する必要がなく、一般的に車両に搭載されているドライブレコーダのような定点撮像装置を用いて、運転者の運転中におけるながら運転を容易に検出する支援を行なう運転状態監視支援システム、運転状態監視支援方法及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and does not need to be mounted on the vehicle, such as an acceleration device and a receiver, and uses a fixed-point imaging device such as a drive recorder that is generally mounted on the vehicle. It is therefore an object of the present invention to provide a driving state monitoring support system, a driving state monitoring support method, and a program for easily detecting driving while the driver is driving.
この発明は上述した課題を解決するためになされたもので、本発明の運転状態監視支援システムは、撮像範囲が固定され、運転席を含む車内の画像を撮像する定点撮像装置によって時系列に撮像された画像データの各々を、直前の画像データ及び直後の画像データそれぞれと比較し、変化を有する画素からなる変化領域を示すマスキング画像を生成する変化領域抽出部と、前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出部と、前記肌色領域を運転者の動作状態を示す複数のクラスのいずれかに分類する機械学習モデルである動作分類モデルに対して前記肌色領域を入力し、前記運転者の動作状態のクラス分類を行なう運転者状態判定部と、前記マスキング画像を車両が走行している状態の走行クラス、及び前記車両が停止している状態の停止クラスのいずれかに分類する機械学習モデルである走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定部と、前記運転者状態判定部が前記肌色領域を運転者が携帯端末を操作している携帯端末操作クラスに分類し、かつ前記車両走行判定部が前記マスキング画像が前記走行クラスに分類した場合、対応する前記画像データを前記運転者が車両を運転しつつ携帯端末を操作している画像候補として抽出する結果統合部とを備えることを特徴とする。 The present invention has been made to solve the above-described problems. A driving condition monitoring support system according to the present invention has a fixed imaging range, and a fixed-point imaging device that captures images of the inside of a vehicle, including the driver's seat, in time series. a changed region extraction unit that compares each of the obtained image data with the immediately preceding image data and the immediately subsequent image data, respectively, and generates a masking image showing a changed region composed of pixels having a change; and the changed region in the image data. and a motion classification model, which is a machine learning model for classifying the skin color region into one of a plurality of classes indicating the motion state of the driver. A driver state determining unit receives the skin color region and classifies the operating state of the driver into classes; The masking image is input to a travel classification model, which is a machine learning model for classifying into one of the stop classes of the state, and the vehicle travel determination unit performs class classification processing, and the driver state determination unit includes the skin color region. is classified into the mobile terminal operation class in which the driver is operating the mobile terminal, and the vehicle driving determination unit classifies the masking image into the driving class, the corresponding image data is classified into the driving class when the driver operates the vehicle. and a result integration unit for extracting image candidates in which the portable terminal is being operated while driving .
本発明の運転状態監視支援システムは、前記変化領域抽出部が、前記撮像画像の各々をグレースケール画像に変換し、当該グレースケール画像の直前、直後それぞれのグレースケール画像とを比較し、対応する位置の画素の各々の階調度の差分が予め設定した閾値を超えた場合、変化を有する前記画素として前記変化領域を抽出することを特徴とする。 In the driving state monitoring support system of the present invention, the changed area extracting unit converts each of the captured images into a grayscale image, compares the grayscale images immediately before and after the grayscale image, and performs a corresponding operation. It is characterized in that, when a difference in gradation of each pixel at a position exceeds a preset threshold value, the changed area is extracted as the pixel having a change.
本発明の運転状態監視支援システムは、前記変化領域抽出部が、前記グレースケール画像及び当該グレースケール画像の直前のグレースケール画像を比較して得られる変化を有する画素の領域と、前記グレースケール画像及び当該グレースケール画像の直後のグレースケール画像を比較して得られる変化を有する画素の領域との重なり合う領域を、前記マスキング画像とすることを特徴とする。 In the driving state monitoring support system of the present invention, the changed region extracting unit compares the grayscale image with a grayscale image immediately preceding the grayscale image, and the region of pixels having a change obtained by comparing the grayscale image with and a region of pixels having a change obtained by comparing the grayscale image immediately after the grayscale image is used as the masking image.
本発明の運転状態監視支援システムは、走行分類モデルが、前記マスキング画像において、前記車両の車窓に対応する画像部分が変化しているか否かにより、前記車両の状態を走行クラス、あるいは停止クラスそれぞれに分類することを特徴とする。 In the driving state monitoring support system of the present invention, the driving classification model divides the vehicle state into a driving class or a stop class depending on whether or not the image portion corresponding to the car window of the vehicle in the masking image has changed. It is characterized by classifying into
本発明の運転状態監視支援システムは、前記変化領域抽出部が、前記画像データを所定数のセグメントに分割し、前記肌色領域と重なる前記セグメントの存在確率を、当該肌色領域に重ならないセグメントに比較して増加させ、前記動作分類モデルにおける前記携帯端末を操作している前記携帯端末操作クラスの確信度を、前記存在確率に対応して増加させることを特徴とする。 In the driving state monitoring support system of the present invention, the changing region extracting unit divides the image data into a predetermined number of segments, and compares the existence probability of the segment overlapping the skin color region with the segment not overlapping the skin color region. and increasing the certainty of the mobile terminal operation class operating the mobile terminal in the action classification model in accordance with the existence probability.
本発明の運転状態監視支援方法は、変化領域抽出部が、撮像範囲が固定され、運転席を含む車内の画像を撮像する定点撮像装置によって時系列に撮像された画像データの各々を、直前の画像データ及び直後の画像データそれぞれと比較し、変化を有する画素からなる変化領域を示すマスキング画像を生成する変化領域抽出過程と、肌色領域抽出部が、前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出過程と、運転者状態判定部が、前記肌色領域を運転者の動作状態を示す複数のクラスのいずれかに分類する機械学習モデルである動作分類モデルに対して前記肌色領域を入力し、前記運転者の動作状態のクラス分類を行なう運転者状態判定過程と、車両・枕s判定部が、前記マスキング画像を車両が走行している状態の走行クラス、及び前記車両が停止している状態の停止クラスのいずれかに分類する機械学習モデルである走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定過程と、結果統合部が、前記運転者状態判定過程によって前記肌色領域を運転者が携帯端末を操作している携帯端末操作クラスに分類され、かつ前記車両走行判定過程によって前記マスキング画像が前記走行クラスに分類された場合、対応する前記画像データを前記運転者が車両を運転しつつ携帯端末を操作している画像候補として抽出する結果統合過程とを含むことを特徴とする。 In the driving state monitoring support method of the present invention, the changing region extracting unit extracts each image data captured in time series by a fixed-point imaging device that captures an image of the inside of the vehicle including the driver's seat in a fixed imaging range. a changing area extracting step of comparing the image data with the immediately succeeding image data and generating a masking image showing a changing area made up of pixels having a change; a skin-color region extraction process for extracting a skin-color region including skin-color pixels from the vehicle; A driver state determination process in which the skin color region is input to the classification model and class classification of the driver's motion state is performed, and the vehicle/pillow s determination unit determines the state in which the vehicle is running on the masking image. a vehicle travel determination process of inputting the masking image to a travel classification model, which is a machine learning model for classifying into one of a travel class and a stop class in which the vehicle is stopped, and performing class classification processing; a result integration unit for classifying the flesh-colored area into a portable terminal operation class in which the driver is operating a portable terminal by the driver state determination process, and classifying the masking image into the driving class by the vehicle driving determination process; and a result integrating step of extracting the corresponding image data, if classified, as an image candidate of the driver operating the portable terminal while driving the vehicle .
本発明の運転状態監視支援方法は、変化領域抽出部が、撮像範囲が固定され、運転席を含む車内の画像を撮像する定点撮像装置によって時系列に撮像され画像データ群において、前記画像データの各々を直前の画像データ及び直後の画像データそれぞれと比較し、変化を有する画素からなる変化領域を示すマスキング画像を生成する変化領域抽出過程と、肌色領域抽出部が、前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出過程と、運転者状態判定部が、運転者の動作状態を複数のクラスのいずれかに分類する機械学習された動作分類モデルに対して前記肌色領域を入力し、前記運転者の状態のクラス分類の処理を行なう運転者状態判定過程と、車両走行判定部が、車両が走行している状態を示す走行クラス、及び前記車両が停止している状態を示す停止クラスのいずれかのクラスに分類する機械学習された走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定過程とを含むことを特徴とする。 In the driving state monitoring support method of the present invention, the changing region extracting unit captures an image of the inside of the vehicle including the driver's seat in time series by a fixed-point imaging device that captures an image of the inside of the vehicle including the driver's seat. a changing region extracting step of comparing each with immediately preceding image data and succeeding image data, respectively, to generate a masking image showing a changing region made up of pixels having a change; A skin-color region extraction process that extracts a skin-color region containing skin-color pixels from the region corresponding to the , and a machine-learned motion classification model in which the driver state determination unit classifies the driver's motion state into one of a plurality of classes. A driver state determination process for inputting the skin color region to and performing class classification processing of the driver state, a driving class in which the vehicle driving determination unit indicates the driving state of the vehicle, and the vehicle and a vehicle travel determination process of inputting the masking image to a machine-learned travel classification model that classifies the vehicle into one of the stop classes that indicate a state in which the vehicle is stopped, and performing class classification processing. Characterized by
本発明のプログラムは、コンピュータを、撮像範囲が固定され、運転席を含む車内の画像を撮像する定点撮像装置によって時系列に撮像された画像データの各々を、直前の画像データ及び直後の画像データそれぞれと比較し、変化を有する画素からなる変化領域を示すマスキング画像を生成する変化領域抽出手段、前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出手段、前記肌色領域を運転者の動作状態を示す複数のクラスのいずれかに分類する機械学習モデルである動作分類モデルに対して前記肌色領域を入力し、前記運転者の動作状態のクラス分類を行なう運転者状態判定手段、前記マスキング画像を車両が走行している状態の走行クラス、及び前記車両が停止している状態の停止クラスのいずれかに分類する機械学習モデルである走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定手段、前記運転者状態判定手段が前記肌色領域を運転者が携帯端末を操作している携帯端末操作クラスに分類し、かつ前記車両走行判定手段が前記マスキング画像が前記走行クラスに分類した場合、対応する前記画像データを前記運転者が車両を運転しつつ携帯端末を操作している画像候補として抽出する結果統合手段として機能させるためのプログラムである。 The program of the present invention causes the computer to convert each of the image data captured in time series by a fixed-point imaging device that captures an image of the inside of the vehicle including the driver's seat with a fixed imaging range into immediately preceding image data and immediately following image data. changed region extracting means for generating a masking image showing a changed region composed of pixels having a change in comparison with each other; means for inputting the flesh-colored area into an action classification model, which is a machine learning model for classifying the flesh-colored area into one of a plurality of classes indicating the action state of the driver, and classifying the action state of the driver. driver state determination means, and a driving classification model that is a machine learning model that classifies the masking image into either a driving class in which the vehicle is running or a stop class in which the vehicle is stopped. , the vehicle travel determining means for inputting the masking image and performing class classification processing ; When the vehicle driving determination means classifies the masking image into the driving class, the corresponding image data is functioned as a result integrating means for extracting image candidates of the driver operating the mobile terminal while driving the vehicle . It is a program for
この発明によれば、加速度装置や受信機などを車両に搭載する必要がなく、一般的に車両に搭載されているドライブレコーダのような定点撮像装置を用いて、運転者の運転中におけるながら運転を容易に検出する支援を行なう運転状態監視支援システム、運転状態監視支援方法及びプログラムを提供することができる。 According to the present invention, there is no need to mount an acceleration device or a receiver on the vehicle, and a fixed-point imaging device such as a drive recorder that is generally mounted on the vehicle can be used to drive the vehicle while the driver is driving. It is possible to provide a driving state monitoring support system, a driving state monitoring support method, and a program that support the detection of easily.
本発明は、車両を運転しながら、スマートフォンや携帯電話などの携帯端末を操作する危険な違法運転、所謂ながら運転を判定する際に用いる、高い確率でながら運転を行なっていることが推定される画像データを、撮像画像の画像データから抽出する支援を行なう運転状態監視支援システムに関する。
以下、図面を参照して、本発明の一実施形態による運転状態監視支援システムについて説明する。図1は、本発明の一実施形態による運転状態監視支援システムの構成例を示す図である。
図1において、本実施形態における運転状態監視支援システム1は、撮像画像入力部11、フレーム化画像生成部12、変化領域抽出部13、肌色領域抽出部14、矩形領域生成部15、運転者状態判定部16、車両走行判定部17、結果統合部18、画像提示制御部19及び記憶部20の各々を備えている。
The present invention is used to determine dangerous illegal driving, so-called driving while operating a mobile terminal such as a smartphone or a mobile phone while driving a vehicle, and it is estimated that driving is being performed while driving with a high probability. The present invention relates to a driving state monitoring support system that supports extraction of image data from image data of a captured image.
Hereinafter, a driving state monitoring support system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of a driving state monitoring support system according to one embodiment of the present invention.
In FIG. 1, the driving state monitoring support system 1 in this embodiment includes a captured
撮像画像入力部11は、撮像装置2が撮像する撮像画像(例えば、本実施形態においては動画像)の画像データを入力する。そして、撮像画像入力部11は、入力した画像データに対して、この撮像装置2のユーザを識別するユーザ識別情報を付与し、記憶部20に書き込んで記憶させる。本実施形態においては、例えば、ユーザ識別情報として動画名を付与し、画像データのファイル名((動画名).mpg)として用いる。
ここで、撮像装置2は、定点撮像装置(定点カメラ)であり、例えば、車両における運転席の運転者及び車窓を含む車両内を撮像するドライブレコーダなどである。撮像画像の画像データは、ドライブレコーダの記憶媒体であるメモリカードから、撮像画像入力部11により読み込まれる。
The captured
Here, the
フレーム化画像生成部12は、記憶部20に記憶されている画像データを単位時間(例えば、1秒間)当たり所定の枚数のフレーム化画像に変換する。
ここで、フレーム化画像生成部は、例えば、撮像装置2のMPEG(moving picture experts group)-4形式である撮像画像を、静止画像であるJPEG(joint photographic experts group)形式のフレーム化画像に変換する。
The framed
Here, the framed image generation unit converts, for example, an MPEG (moving picture experts group)-4 format captured image of the
そして、フレーム化画像生成部12は、JPEG形式に変換した画像データの各々に対して、動画名の末尾に、フレーム化画像の時系列の順番を付与して、記憶部20に書き込んで記憶させる。
フレーム化画像のファイル名は、(動画名)_1(フレーム番号).jpgであり、動画名、動画の画像データにおける時系列な順番を示すフレーム番号として付与されている。
上述したように、本実施形態においては、ドライブレコーダから撮像画像として動画像が供給される構成として説明したが、所定の時間幅(例えば、0.1秒毎)で撮像した静止画像(フレーム化画像に対応する画像データ)が時系列に供給される構成でも良い。
Then, the framed
The file name of the framed image is (video name)_1 (frame number). jpg, and given as a moving image name and a frame number indicating the chronological order in the image data of the moving image.
As described above, in the present embodiment, a moving image is supplied as a captured image from the drive recorder. image data corresponding to an image) may be supplied in time series.
変化領域抽出部13は、フレーム化画像の各々における動きのある画素領域、すなわち時系列にフレーム化画像の前後で画素値に変化を有する画素からなる領域を抽出する。
ここで、変化領域抽出部13は、フレーム化画像の各々を時系列の順番に基づき、記憶部20から順次読み出す。
そして、変化領域抽出部13は、フレーム化画像の各々をモノクロ化し、グレースケール画像に変換し、グレースケール画像の各画素と、それぞれのグレースケール化画像の直前及び直後の他のグレースケール画像の対応する画素との階調度の差分を求める。
The changed
Here, the changing
Then, the changing
このとき、変化領域抽出部13は、時系列において連続するフレーム化画像T1、T2及びT3の各々に対して、対応する画素との階調度の差分を求める。
ここで、例えば、フレーム化画像T1はフレーム化画像(動画名)_1.jpgであり、フレーム化画像T2はフレーム化画像(動画名)_2.jpgであり、フレーム化画像T3はフレーム化画像(動画名)_3.jpgである。
At this time, the changing
Here, for example, the framed image T1 is the framed image (video name)_1. jpg, and the framed image T2 is a framed image (video name)_2. jpg, and the framed image T3 is a framed image (video name)_3. jpg.
変化領域抽出部13は、グレースケール画像T2と直前のグレースケール画像T1との対応する画素の階調度の差分を求め、各画素の階調度の差分(階調度の変化量)の絶対値を階調度とする差分画像T2-T1を生成する。
また、変化領域抽出部13は、同様に、グレースケール画像T2と直後のグレースケール画像T3との対応する画素の階調度の差分を求め、画素の階調度の差分の絶対値を階調度とする差分画像T2-T3を求める。
The changing
Similarly, the changing
そして、変化領域抽出部13は、例えば、差分画像T2-T1及び差分画像T2-T3の各々において、各画素の階調度(差分)が、予め設定した差分閾値を超えた画素の階調度を「1」とし、差分閾値以下の画素の階調度を「0」とする2値化を行なう。
すなわち、変化領域抽出部13は、直前及び直後に対して変化が有る画素の抽出を行なう。
Then, for example, in each of the difference image T2-T1 and the difference image T2-T3, the changing
That is, the changed
変化領域抽出部13は、2値化した差分画像T2-T1及び差分画像T2-T3の各々において、階調度が「1」である画素が重なり合う画素の領域を変化領域として、変化領域の画素の階調度を「1」とし、変化領域以外の画素の階調度を「0」とした第1マスキング画像を生成する。
すなわち、変化領域抽出部13は、2値化した差分画像T2-T1及び差分画像T2-T3の各々の対応する画素の階調度の論理積を取り、論理積の結果を階調度とする第1マスキング画像を生成する。
In each of the binarized difference image T2-T1 and the difference image T2-T3, the changing
That is, the changing
ここで、変化領域抽出部13は、生成した第1マスキング画像の各々に対して、動画名の末尾に、フレーム化画像の時系列の順番及び第1マスキング画像であることを示す情報を付与して、記憶部20に書き込んで記憶させる。
第1マスキング画像のファイル名は、フレーム化画像(動画名)_2.jpgに対応する画像の場合、(動画名)_2_m1.jpgであり、動画名、動画の画像データにおける時系列な順番を示すフレーム番号に加え、第1マスキング画像であることを示すm1が付与されている。
Here, for each of the generated first masking images, the changing
The file name of the first masking image is framed image (video name)_2. For images corresponding to jpg, (movie name)_2_m1. jpg, and in addition to the moving image name and the frame number indicating the chronological order in the image data of the moving image, m1 indicating that it is the first masking image is added.
肌色領域抽出部14は、時系列の順番で対応するフレーム化画像及び第1マスキング画像との各々を用いて、第1マスキング画像における変化領域のなかから肌色を含む領域である肌色領域を抽出する。
ここで、肌色領域抽出部14は、第1マスキング画像(動画名)_n_m1.jpgにおける変化領域に対応する、フレーム化画像(動画名)_n.jpgにおける画像領域が肌色を含んでいるか否かの判定を行なう。
The skin-color
Here, the skin color
このとき、肌色領域抽出部は、フレーム化画像の各画素の階調度のRGB(red、green、blue)値を、HSV(hue、saturation、value)色空間における座標値に変換し、所定の肌色領域とする色空間領域に含まれる座標値に対応する画素を、肌色領域の画素として抽出する。
HSV色空間はRGB色空間に比較して「鮮やかさ」や「明るさ」の変化に頑健性が高いため、環境光が変化するフレーム化画像における肌色領域(人間の皮膚の肌色)を抽出し易くすることが可能となる。
At this time, the skin color region extraction unit converts the RGB (red, green, blue) values of the gradation of each pixel of the framed image into coordinate values in the HSV (hue, saturation, value) color space, and extracts the predetermined skin color. Pixels corresponding to coordinate values included in the color space area to be the area are extracted as pixels of the skin color area.
Compared to the RGB color space, the HSV color space is more robust to changes in "vividity" and "brightness", so it extracts the skin color area (human skin color) in the framed image where the ambient light changes. It is possible to make it easier.
これにより、肌色領域抽出部14は、フレーム化画像(動画名)_n.jpgにおける肌色を含んでいる画像領域に対応した、第1マスキング画像(動画名)_n_m1.jpgにおける変化領域を、肌色領域として抽出する。
このとき、肌色領域抽出部14は、抽出した肌色領域の各々において、各画素の画素値を、それぞれの画素を取り囲む複数の近傍画素、例えば48画素(対象とする画素を中心とした7×7画素において、中心の画素を除く48画素)の画素値の中央値に変換する。すなわち、メディアンフィルタによる平滑化を行なう。
As a result, the skin color
At this time, in each of the extracted skin color regions, the skin color
そして、肌色領域抽出部14は、第1マスキング画像(動画名)_n_m1.jpgにおける肌色領域とした変化領域における画素の階調度を「1」とし、それ以外の変化領域を含む領域の画素の階調度を「0」に変換した第2マスキング画像を生成する。第2マスキング画像における肌色領域は、運転者及び同乗者の各々の動作状況に対応して、1個の場合もあれば、複数個が存在する場合もある。
第2マスキング画像のファイル名は、フレーム化画像(動画名)_n.jpgに対応する画像の場合、(動画名)_n_m2.jpgであり、動画名、動画の画像データにおける時系列な順番を示すフレーム番号に加え、第2マスキング画像であることを示すm2が付与されている。
Then, the skin color
The file name of the second masking image is framed image (video name)_n. For images corresponding to jpg, (movie name)_n_m2. jpg, and in addition to the moving image name and the frame number indicating the chronological order in the image data of the moving image, m2 indicating that it is the second masking image is added.
矩形領域生成部15は、フレーム化画像(動画名)_n.jpgから、第2マスキング画像(動画名)_n_m2.jpgにおける肌色領域の各々に対応する領域を切り出す。
そして、矩形領域生成部15は、肌色領域に対応して切り出したフレーム化画像(動画名)_n.jpgの領域からなる切出画像を生成する。
The rectangular
Then, the rectangular
このとき、すでに述べたように、第2マスキング画像(動画名)_n_m2.jpgに複数の肌色領域が存在する場合、フレーム化画像(動画名)_n.jpgから切り出される切出画像は、複数個となる。
このため、矩形領域生成部15は、以降の処理を簡易とするため、予め設定した画素数を超える肌色領域、あるいは画素数未満の肌色領域それぞれを、第2マスキング画像から除去する。
At this time, as already described, the second masking image (video name)_n_m2. jpg, if there are multiple skin-colored areas, the framed image (movie name)_n. A plurality of clipped images are clipped from jpg.
For this reason, in order to simplify subsequent processing, the rectangular
そして、矩形領域生成部15は、第2マスキング画像の肌色領域に対応するフレーム化画像の画像領域を囲む矩形領域を生成し、この矩形領域を正方形に変換(領域拡大)して、フレーム化画像からこの矩形領域で囲まれる画像領域を切り出して切出画像を生成する。
矩形領域生成部15は、生成した矩形画像の各々に対してファイル名をそれぞれ付与して、記憶部20に書き込んで記憶させる。
切出画像のファイル名は、フレーム化画像(動画名)_n.jpgに対応する画像の場合、(動画名)_n_r.jpgであり、動画名、動画の画像データにおける時系列な順番を示すフレーム番号に加え、フレーム化画像における何個目(複数個における何れ)の切出画像であるかを示す切出画像番号rが付与されている。
Then, the rectangular
The rectangular
The file name of the clipped image is framed image (video name)_n. For images corresponding to jpg, (movie name)_n_r. jpg, and in addition to the name of the moving image and the frame number indicating the chronological order in the image data of the moving image, the clipped image number r indicating the number of the clipped image in the framed image (which of the plurality) is given.
図2は、本実施形態における矩形領域生成部15による、フレーム化画像から第2マスキング画像に基づく切出し処理により切出画像の生成を説明する概念図である。
図2(a)は、フレーム化画像におけるスマートフォン200(携帯端末の一例)を操作する運転者の手201を示す画像領域である。
FIG. 2 is a conceptual diagram illustrating generation of a clipped image from a framed image by clipping processing based on the second masking image by the rectangular
FIG. 2(a) is an image area showing a
図2(b)は、第2マスキング画像の肌色領域に対応する、フレーム化画像における領域220を矩形枠100で囲んだ矩形領域100Sを示している。領域150は、肌色の画像領域であるが、第2マスキング画像における肌色領域から、所定の画素数未満のために第2マスキング画像から除去された領域であり、矩形領域として抽出はされない。
また、図2(b)において、矩形領域100Sは、x軸方向の辺(右辺及び左辺)が画素数aであり、y軸方向の辺(上辺及び下辺)が画素数bの領域である。
FIG. 2(b) shows a
In FIG. 2B, the
図2(c)は、矩形枠100の上辺をy軸のプラス方向に画素数b/2伸ばし、下辺をy軸のマイナス方向に画素数b/2伸ばし、矩形枠100の右辺をx軸のプラス方向に画素数a/2伸ばし、左辺をx軸のマイナス方向に画素数a/2伸ばして、正方形の画像である切出画像300が生成されることを示している。
後述する一般的な画像を入力し、入力した画像のクラス分類する機械学習モデルは、入力する画像のアスペクト比が「1」である必要がある。このため、本実施形態においては、切出画像を正方形とする処理を行なっている。これにより、後述する機械学習モデルに入力する際、切出画像のアスペクト比が調整される処理がなくなり、アスペクト比の調整による画像における手の画像の変形を避けることができ、クラス分類の精度を上げることができる。
2C, the upper side of the
A machine learning model for inputting a general image and classifying the input image, which will be described later, requires that the input image have an aspect ratio of "1". For this reason, in the present embodiment, processing is performed to make the clipped image a square. This eliminates the process of adjusting the aspect ratio of the clipped image when inputting it to the machine learning model, which will be described later. can be raised.
図1に戻り、運転者状態判定部16は、矩形領域生成部15が生成した切出画像の各々を、上記機械学習モデルである動作分類モデルに入力し、切出画像それぞれのクラス分類の処理を行なう。動作分類モデルは、分類するクラスとして、例えばスマートフォンを操作している手(クラス#1)、検出する必要の無い物体(ハンドルやシフトレバーなど)を操作している手(クラス#2)、人間の顔(クラス#3)、人間の腕(クラス#4)、その他の物体(肌色の物体、クラス#5)などがある。また、動作分類モデルは、上記クラスの画像の各々を入力し、画像の示すクラスに分類される確信度を高くするように、各クラス(クラス#1からクラス#5)に対応する画像を教師データ(人間が画像を目視で確認してクラスに分類したデータ)として用いて予め機械学習されている。
Returning to FIG. 1, the driver
また、運転者状態判定部16は、切出画像を切り出したフレーム化画像と、当該フレーム化画像における切出画像の分類クラスとを、記憶部20における運転者状態判定テーブルに書き込んで記憶させる。ここで、運転者状態判定部16は、切出画像を入力して、動作分類モデルがクラス分類として出力する各クラスの確信度で最も高い確信度のクラスを、クラス分類されたクラスとして選択する。
Further, the driver
図3は、本実施形態における記憶部20の運転者状態判定テーブルの構成例を示す図である。図3の運転者状態判定テーブルは、レコード毎に、フレーム化画像のファイル名、分類されたクラス、分類されたクラスの確信度の各々の欄が備えられている。
フレーム化画像のファイル名は、フレーム化画像の時系列の順番を示す、(動画名)_n.jpgのファイル名である。また、レコード毎のフレーム化画像のファイル名の欄には、動画像をフレーム化画像とした際の時系列の順番に対応してフレーム化画像のファイル名が示されている。
FIG. 3 is a diagram showing a configuration example of the driver state determination table of the
The file name of the framed image is (video name)_n. jpg file name. In addition, the file name of the framed image for each record indicates the file name of the framed image corresponding to the chronological order when the moving image is framed as the framed image.
分類されたクラスは、上述したクラス#1(運転者がスマートフォンを操作している手を示す携帯端末操作クラス)、クラス#2(検出する必要の無い物体(ハンドルやシフトレバーなど)を操作している手を示すクラス)、クラス#3(人間の顔を示すクラス)、クラス#4(人間の腕)、クラス#5(その他の物体を示すクラス)などである。また、この分類されたクラスは、動作分類モデルが入力された切出画像のクラス分類において、クラス#1からクラス#5のうち最も確信度の高かったクラスである。最大確信度は、分類されたクラスの欄に記載されたクラスの確信度が示されている。 The classified classes are class #1 (portable terminal operation class showing the driver's hand operating a smartphone) and class #2 (objects that do not need to be detected (steering wheels, shift levers, etc.). class #3 (human face), class #4 (human arm), class #5 (other objects), and so on. Also, this classified class is the class with the highest degree of certainty among classes #1 to #5 in the class classification of the clipped image to which the action classification model is input. The maximum certainty factor indicates the certainty factor of the class described in the classified class column.
図1に戻り、車両走行判定部17は、第1マスキング画像の各々を、機械学習モデルである走行分類モデルに入力し、第1マスキング画像が車両が走行しているクラスに分類されるか否かの判定を行なう。走行分類モデルは、分類するクラスとして、例えば走行クラス(車両が走行している状態とするクラス)、停止クラス(車両がしている状態とするクラス)などがある。また、走行分類モデルは、上記クラスの画像の各々を入力し、画像の示すクラスに分類される確信度を高くするように、動作分類モデルと同様に、走行クラス及び停止クラスの各々に対応する画像を教師データを学習データとして用いて予め機械学習されている。
Returning to FIG. 1, the vehicle
また、車両走行判定部17は、第1マスキング画像に対応するフレーム化画像と、当該第1マスキング画像の分類クラスとを、記憶部20における走行状態判定テーブルに書き込んで記憶させる。ここで、車両走行判定部17は、第1マスキング画像を入力して、走行分類モデルがクラス分類として出力する各クラスの確信度で最も高い確信度のクラスを、クラス分類されたクラスとして選択する。
図4は、本実施形態における記憶部20の走行状態判定テーブルの構成例を示す図である。図4の走行状態判定テーブルは、レコード毎に、フレーム化画像のファイル名、分類されたクラス、分類されたクラスの確信度の各々の欄が備えられている。
Further, the vehicle
FIG. 4 is a diagram showing a configuration example of the running state determination table of the
フレーム化画像のファイル名は、フレーム化画像の時系列の順番を示す、(動画名)_n.jpgのファイル名である。また、レコード毎のフレーム化画像のファイル名の欄には、動画像をフレーム化画像とした際の時系列の順番に対応してフレーム化画像のファイル名が示されている。分類されたクラスは、上述した走行クラス(車両が走行している状態であるとするクラス)、停止クラス(車両が停止している状態であるとするクラス)などである。また、この分類されたクラスは、走行分類モデルが入力された第1マスキング画像のクラス分類において、走行クラスから停止クラスのうち確信度の高かったクラスである。最大確信度は、分類されたクラスの欄に記載されたクラスの確信度が示されている。 The file name of the framed image is (video name)_n. jpg file name. In addition, the file name of the framed image for each record indicates the file name of the framed image corresponding to the chronological order when the moving image is framed as the framed image. Classified classes include the above-described driving class (a class in which the vehicle is in a running state), a stop class (a class in which the vehicle is in a stopped state), and the like. Also, this classified class is the class with the highest degree of certainty among the driving class to the stop class in class classification of the first masking image to which the driving classification model is input. The maximum certainty factor indicates the certainty factor of the class described in the classified class column.
図1に戻り、結果統合部18は、記憶部20における運転者状態判定テーブル及び走行状態判定テーブルの各々を参照し、分類クラスそれぞれがクラス#1(携帯端末操作クラス)であり、かつ走行クラスであるフレーム化画像を検索する。ここで、結果統合部18は、分類クラスが携帯端末操作クラスかつ走行クラスであるフレーム化画像をながら運転候補画像として抽出する。このながら運転候補画像は、高い確度で運転者がながら運転をしていると推定されるフレーム化画像を示している。
Returning to FIG. 1, the
そして、結果統合部18は、記憶部20におけるシーンテーブルの運転状態フラグにデータを書き込むことにより、時系列に連続するフレーム化画像の各々がながら運転候補画像がであるかを示す。
また、結果統合部18は、記憶部20における全てのフレーム化画像に対するながら運転候補画像か否かの判定が終了した後、運転判定シーンの抽出を行なう。この運転判定シーンは、時系列のフレーム化画像のなかから、ながら運転候補画像のフレーム化画像から、ながら運転を行なっていない正常運転候補画像のフレーム化画像までを、運転判定シーンとして抽出する。
Then, the
Further, the
図5は、本実施形態の結果統合部18によるながら運転シーンの抽出の処理を示す概念図である。図5において、シーン#S1は、ながら運転候補画像でないフレーム化画像(動画名)_n-8.jpgで終了している。シーン#S2は、ながら運転候補画像であるフレーム化画像(動画名)_n.jpgで開始され、ながら運転候補画像ではないフレーム化画像(動画名)_n-8.jpgで終了している。シーン#S3は、ながら運転候補画像であるフレーム化画像(動画名)_n+q.jpgで開始されている。
FIG. 5 is a conceptual diagram showing the process of extracting a driving scene by the
シーン#S2のフレーム化画像(動画名)_n.jpgにおける画像領域501_1及び501_2の各々は、それぞれ車窓の変化領域、運転者の手の変化領域それぞれに対応している。
そして、第1マスキング画像における画像領域501_1に対応する変化領域が走行状態分類モデルにより走行クラスに分類され、画像領域501_2の変化領域(肌色領域)に対応する切出画像が動作分類モデルにより携帯端末操作クラスに分類されている。
これにより、結果統合部18は、第1マスキング画像(動画名)_n_m1.jpgが走行クラスに分類され、かつ切出画像(動画名)_n_r.jpgが携帯端末操作クラスに分類されたフレーム化画像(動画名)_n.jpgを、ながら運転候補画像であると判定する。
Image areas 501_1 and 501_2 in the framed image (movie name)_n.jpg of scene #S2 respectively correspond to the changed area of the car window and the changed area of the driver's hand.
Then, the changed area corresponding to the image area 501_1 in the first masking image is classified into the driving class by the driving state classification model, and the clipped image corresponding to the changed area (skin color area) of the image area 501_2 is classified into the portable terminal by the action classification model. classified into operational classes.
As a result, the
また、結果統合部18は、同様に、画像領域502_1が走行クラス、画像領域502_2が携帯端末操作クラスにそれぞれ分類されているため、フレーム化画像(動画名)_n+1.jpgをながら運転候補画像であると判定する。
一方、第1マスキング画像における画像領域501_1に対応する変化領域が走行状態分類モデルにより走行クラスに分類され、画像領域501_2の変化領域(肌色領域)に対応する切出画像が動作分類モデルによりクラス#5に分類されている。
これにより、結果統合部18は、フレーム化画像(動画名)_n+p.jpgをながら運転候補画像でない正常運転候補画像と判定する。
そして、結果統合部18は、フレーム化画像(動画名)_n.jpgからフレーム化画像(動画名)_n+p.jpgまでの時系列のフレーム化画像群をシーン#S2とする。
Similarly, the
On the other hand, the changed area corresponding to the image area 501_1 in the first masking image is classified into the driving class by the driving state classification model, and the clipped image corresponding to the changed area (flesh color area) of the image area 501_2 is class ## by the action classification model. classified as 5.
As a result, the
Then, the
図1に戻り、画像提示制御部19は、記憶部20におけるシーンテーブルを参照し、運転判定シーン毎に、その運転判定シーンにおいて最も携帯端末操作クラスの確信度の高いフレーム化画像を抽出して、図示しない表示部に対して表示する。
この処理は、利用者、例えば運転者のながら運転を管理する担当者が、運転状態監視支援システム1に対し、ドライブレコーダから入力された任意の撮像画像(動画名)_n.mpgを選択し、この撮像画像(動画名)_n.mpgにおける運転者のながら運転の状態を示す画像であるながら運転候補画像を表示させる制御を行なうことにより行なわれる。
Returning to FIG. 1, the image
In this process, a user, for example, a driver who manages driving selects an arbitrary captured image (movie name)_n.mpg input from the drive recorder to the driving condition monitoring support system 1, This is performed by performing control to display a driving candidate image, which is an image showing the driving state of the driver in this imaged image (movie name)_n.mpg.
また、本実施形態においては、フレーム化画像(動画名)_n.jpgに対して、第1マスキング画像(動画名)_n_m1.jpg、第2マスキング画像(動画名)_n_m2.jpg及び切出画像(動画名)_n_r.jpgフレーム番号の各々が、ファイル名におけるフレーム番号により、対応付けられている。 Further, in the present embodiment, the first masking image (moving image name)_n_m1.jpg, the second masking image (moving image name)_n_m2.jpg, and the clipped image ( Movie name)_n_r.jpg Each frame number is associated with the frame number in the file name.
図6は、本実施形態における記憶部20のシーンテーブルの構成例を示す図である。図6のシーンテーブルは、レコード毎に、フレーム化画像ファイル名、運転状態フラグ及びシーン番号の各々の欄が備えられている。
フレーム化画像ファイル名は、動画像をフレーム化画像とした際の時系列の順番を示す情報(n)が含まれる、(動画名)_n.jpgで示されるファイル名である。
FIG. 6 is a diagram showing a configuration example of a scene table of the
The framed image file name is a file name indicated by (moving image name)_n.jpg including information (n) indicating the chronological order when a moving image is framed as a framed image.
運転状態フラグは、フレーム化画像がながら運転候補画像と判定したか否かを示すフラグである。この運転状態フラグは、例えば、ながら運転画像候補の場合に「1」とされ、ながら運転をしない運転である正常運転画像候補である場合に「0」とされる。シーン番号は、フレーム化画像が属するシーンの時系列の順番の番号を示している。ここで、シーンは、運転フラグが「1」のフレーム化画像から「0」のフレーム化画像までを単位とする。このため、連続している正常運転画像候補は、シーンに属さない場合もある。 The driving state flag is a flag indicating whether or not the framed image is determined to be the driving candidate image. For example, this driving state flag is set to "1" in the case of the image candidate for the distracted driving image, and is set to "0" in the case of the image candidate for the normal driving image, which is driving without the distracted driving. The scene number indicates the chronological number of the scene to which the framed image belongs. Here, the scene is a unit from the framed image with the driving flag of "1" to the framed image with the driving flag of "0". For this reason, continuous normal operation image candidates may not belong to a scene.
次に、図7及び図8の各々を用いて、本実施形態の運転状態監視支援システムによるながら運転の監視を支援する処理の流れを説明する。図7は、本実施形態の運転状態監視支援システムにおけるながら運転の監視を支援する処理の動作例を示すフローチャートである。図8は、運転状態監視支援システムにおける構成の各々が処理により生成する画像データのそれぞれを説明する概念図である。 Next, using FIGS. 7 and 8, the flow of processing for supporting monitoring of driving by the driving state monitoring support system of the present embodiment will be described. FIG. 7 is a flowchart showing an operation example of a process for supporting monitoring of driving in the driving state monitoring support system of the present embodiment. FIG. 8 is a conceptual diagram for explaining image data generated by processing by each configuration in the driving state monitoring support system.
ステップS101:撮像画像入力部11は、撮像装置2が撮像する動画像の画像データを入力し、ファイル名として動画名を付与して、図8(a)に示す様に、動画像の画像データをファイル名((動画名).mpg)として記憶部20に書き込んで記憶させる。
Step S101: The captured
ステップS102:フレーム化画像生成部12は、記憶部20に記憶されている動画像の画像データ(動画名).mpgを読み出し、図8(b)に示す様に、単位時間(例えば、1秒間)当たり所定の枚数のフレーム化画像に変換する。
そして、フレーム化画像生成部12は、生成したフレーム化画像に対して、画像データのファイル名の(動画名)_n.jpgを付与して、フレーム番号の順番に従い時系列に記憶部20に書き込んで記憶させる。
Step S102: The framed
Then, the framed
ステップS103:変化領域抽出部13は、記憶部20からフレーム化画像(動画名)_n.jpgを順次読み出し、それぞれをモノクロ化してグレースケール画像を生成する。
そして、変化領域抽出部13は、グレースケール画像を一旦、記憶部20に対して、フレーム化画像(動画名)_n.jpgと対応させて書き込んで記憶させる。
Step S103: The changing
Then, the changing
ステップS104:変化領域抽出部13は、時系列の順番に、フレーム化画像(動画名)_n.jpgにおける変化する画素からなる変化領域を示す、このフレーム化画像(動画名)_n.jpgに対応する第1マスキング画像を生成する。
このとき、変化領域抽出部13は、グレースケール画像の直前及び直後の他のグレースケール画像の対応する画素との階調度の差分を求める。
そして、変化領域抽出部13は、対象のグレースケール画像と直前のグレースケール画像との各画素の階調度の差分が、差分閾値を超えた画素の階調度を「1」とし、差分閾値以下の画素の階調度を「0」とする2値化を行なった第1差分画像(上述した差分画像T2-T1)を生成する。
Step S104: The changing
At this time, the changing
Then, the changed
また、変化領域抽出部13は、対象のグレースケール画像と直後のグレースケール画像との各画素の階調度の差分が、差分閾値を超えた画素の階調度を「1」とし、差分閾値以下の画素の階調度を「0」とする2値化を行なった第2差分画像(上述した差分画像T2-T3)を生成する。
次に、変化領域抽出部13は、2値化した階調度の第1差分画像及び第2差分画像の各々において、図8(c)に示す様に、フレーム化画像(動画名)_1.jpgに対応して、階調度が「1」である画素が重なり合う画素の領域を変化領域として、変化領域の画素の階調度を「1」とし、変化領域以外の画素の階調度を「0」とした第1マスキング画像(動画名)_n_m1.jpgを生成する。
In addition, the changed
Next, the changing
ステップS105:肌色領域抽出部14は、時系列の順番で対応するフレーム化画像及び第1マスキング画像との各々を用いて、第1マスキング画像(動画名)_n_m1.jpgにおける変化領域のなかから肌色を含む領域である肌色領域を抽出する。
ここで、肌色領域抽出部14は、第1マスキング画像(動画名)_n_m1.jpgにおける変化領域に対応する、フレーム化画像(動画名)_n.jpgにおける画像領域が肌色を含んでいるか否かの判定を行なう。
これにより、肌色領域抽出部14は、フレーム化画像(動画名)_n.jpgにおける肌色を含んでいる画像領域に対応した、第1マスキング画像(動画名)_n_m1.jpgにおける変化領域を、肌色領域として抽出する。
Step S105: The skin color
Here, the skin color
As a result, the skin color
ステップS106:肌色領域抽出部14は、第1マスキング画像(動画名)_n_m1.jpgにおける肌色領域とした変化領域における画素の階調度を「1」とし、それ以外の変化領域を含む領域の画素の階調度を「0」に変換した第2マスキング画像(動画名)_n_m2.jpgを、図8(d)に示す様にフレーム化画像(動画名)_n.jpgに対応させて生成する。
Step S106: The skin color
ステップS107:矩形領域生成部15は、図8(e)に示す様に、それぞれのフレーム化画像(動画名)_n.jpgから、第2マスキング画像(動画名)_n_m2.jpgにおける肌色領域の各々に対応する領域を切り出し、切出画像(動画名)_n_r.jpgを生成する。
Step S107: As shown in FIG. 8(e), the rectangular
ステップS108:運転者状態判定部16は、矩形領域生成部15が生成した切出画像(動画名)_n_r.jpgの各々を、機械学習モデルである動作分類モデルに入力し、切出画像(動画名)_n_r.jpgそれぞれのクラス分類を行なう。
そして、運転者状態判定部16は、切出画像(動画名)_n_r.jpgのクラス分類の結果として、それぞれのクラスに分類する確信度を求める。
これにより、運転者状態判定部16は、確信度の最も高いクラスを、クラス分類されたクラスとして選択し、切出画像(動画名)_n_r.jpgを切り出したフレーム化画像(動画名)_n.jpgに対応させて、記憶部20の運転者状態判定テーブルに書き込んで記憶させる。
Step S108: The driver's
Then, the driver
As a result, the driver
ステップS109:車両走行判定部17は、記憶部20から第1マスキング画像の各々を順次読み出し、機械学習モデルである走行分類モデルに入力する。
これにより、車両走行判定部17は、第1マスキング画像(動画名)_n_m1.jpgそれぞれが走行クラス、あるいは停止クラスに分類される。
そして、車両走行判定部17は、記憶部20の走行状態判定テーブルにおける分類されたクラスの欄及び確信度の欄の各々に、走行分類モデルによりクラス分類された結果としてのクラス(走行クラスあるいは停止クラス)及び確信度を書き込んで記憶させる。このとき、車両走行判定部17は、走行しているクラスまたは停止しているクラスの確信度の高い方を、クラス分類により分類されたクラスとする。
Step S109: The vehicle
As a result, the vehicle
Then, the vehicle running
ステップS110:結果統合部18は、記憶部20における運転者状態判定テーブル及び走行状態判定テーブルの各々を参照する。
そして、結果統合部18は、動作分類モデルが分類したクラスと、走行分類モデルが分類したクラスとの各々における、それぞれのクラスを比較する。ここで、結果統合部18は、分類クラスが携帯端末操作クラスかつ走行クラスであるフレーム化画像をながら運転候補画像として抽出する。このながら運転候補画像は、高い確度で運転者がながら運転をしていると推定されるフレーム化画像(動画名)_n.jpgを示している。
Step S<b>110 : The
Then, the
一方、結果統合部18は、動作分類モデルが分類したクラスがクラス#1でない場合、または、走行分類モデルが分類したクラスが走行クラスでない場合、そのフレーム化画像(動画名)_n.jpgを、運転者がながら運転をしていないことを示す正常運転候補画像とする。
そして、結果統合部18は、記憶部20のシーンテーブルにおけるフレーム化画像の各々に対応するレコードの運転状態フラグの欄に対し、このフレーム化画像がながら運転候補画像と判定された場合、フラグとして「1」を記入する。また、結果統合部18は、記憶部20のシーンテーブルにおけるフレーム化画像の各々に対応するレコードの運転状態フラグの欄に対し、このフレーム化画像が正常運転候補画像と判定された場合、フラグとして「0」を記入する。
On the other hand, if the class classified by the action classification model is not class #1, or if the class classified by the driving classification model is not the driving class, the
Then, the
ステップS111:結果統合部18は、記憶部20におけるシーンテーブルを参照し、フレーム化画像の各々のレコードにおける運転状態フラグそれぞれを確認する。
そして、結果統合部18は、記憶部20におけるシーンテーブルを参照し、時系列に運転状態フラグが「1」から「0」までのフレーム化画像(動画名)_n.jpgをグループ化し、グループ化したフレーム化画像群に対してシーン番号を付与し、運転判定シーンとする。
また、結果統合部18は、記憶部20のシーンテーブルにおいて、グループ化されたフレーム化画像(動画名)_n.jpgに対応するシーン番号の欄に対し、そのフレーム化画像の属する運転判定シーンのシーン番号を書き込む。一方、結果統合部18は、運転判定シーンに含まれないフレーム化画像(動画名)_n.jpgのシーン番号の欄に対し、運転判定シーンに属さないことを示す文字、例えば「NO」を書き込む。
Step S111: The
Then, the
In addition, the
上述した構成により、本実施形態によれば、従来のように、加速度装置や受信機などを車両に搭載する必要がなく、一般的に車両に搭載されているドライブレコーダのような定点撮像装置の撮像画像を用い、運転者が携帯端末の操作を行い、かつ車両が走行している可能性の高いながら運転候補画像を抽出するため、運転者の管理を行なう担当者に対して、ながら運転が行なわれている可能性の高い運転判定シーンを簡易に提示することができ、運転者のながら運転の検出を容易とする支援を行なうことが可能となる。 With the above-described configuration, according to the present embodiment, there is no need to mount an acceleration device, a receiver, etc. on a vehicle as in the conventional art, and a fixed-point imaging device such as a drive recorder generally mounted on a vehicle can be used. In order to extract a driving candidate image while the driver operates the mobile terminal and the vehicle is likely to be running using the captured image, the person in charge of managing the driver is asked to It is possible to easily present a driving determination scene that is highly likely to be performed, and to assist the driver in facilitating the detection of driving.
次に、運転者状態判定部16における切出画像(動画名)_n_r.jpgのクラス分類において、携帯端末操作クラス(クラス#1)に対する分類の精度を向上させる動作について説明する。
図9は、本実施形態における運転者状態判定部16が存在確率マップを用い、切出画像(動画名)_n_r.jpgのクラス分類において携帯端末操作クラスへの分類の精度を上げる処理を説明する概念図である。運転者状態判定部16は、フレーム化画像(動画名)_n.jpg(300)を、所定の複数(h×i)のセグメント(画像領域)300Sに分割する。
そして、運転者状態判定部16は、分割した全てのセグメントの位置に付与する係数αの初期値を1.0とする。
また、運転者状態判定部16は、携帯端末操作クラスに分類された切出画像(動画名)_n_r.jpgと重なるセグメント300Sの位置の存在確率αに対して所定の係数β(例えば、1.1)を乗算し、それ以外のセグメント300Sの位置の存在確率αに対して所定の係数γ(例えば、0.9)を乗算する。
Next, the clipped image (video name)_n_r. In the jpg class classification, an operation for improving classification accuracy for the mobile terminal operation class (class #1) will be described.
FIG. 9 shows a clipped image (movie name)_n_r. FIG. 10 is a conceptual diagram for explaining a process for improving the accuracy of classification into mobile terminal operation classes in class classification of jpg. The driver
Then, the driver's
In addition, the driver
運転者状態判定部16は、上述したように、時系列にフレーム化画像から切り出した切出画像(動画名)_n_r.jpgのクラス分類を行なう毎に、各セグメントの位置における存在確率αに対して、係数β、γそれぞれを順次乗算する。
これにより、時系列のフレーム化画像の各々において、携帯端末操作クラスに分類される切出画像に重なる位置にあるセグメントの存在確率αは順次増加していく。一方、携帯端末操作クラスに分割されない位置にあるセグメントの存在確率αは順次低下していく。
As described above, the driver
As a result, in each of the time-series framed images, the presence probability α of the segment overlapping the clipped image classified into the mobile terminal operation class increases sequentially. On the other hand, the existence probability α of the segment at the position not divided into the mobile terminal operation class gradually decreases.
そして、運転者状態判定部16は、フレーム化画像(動画名)_n.jpgから切り出した切出画像(動画名)_n_r.jpgのクラス分類を、動作分類モデルが行った際、この切出画像(動画名)_n_r.jpgに重なるセグメントの存在確率αの幾何平均を切出画像のクラス#1の確信度に対して乗算する。
図9のフレーム化画像(動画名)_n.jpg(300)の位置に対応するセグメント300Sの各々において、動作分類モデルがクラス#1にクラス分類した切出画像(動画名)_n_r.jpgに重なる位置に存在するため、領域350におけるセグメントの存在確率αは初期値「1」より大きくなっている。
Then, when the action classification model classifies the cut-out image (movie name)_n_r.jpg cut out from the framed image (movie name)_n.jpg, the driver
In each of the
例えば、運転者状態判定部16は、フレーム化画像(動画名)_n.jpgから切り出した切出画像のクラス分類が終了した後、直前のフレーム化画像(動画名)_n-1.jpgまでに設定された各セグメントの存在確率αを用いて、クラス分類の結果として出力されるクラス#1の確信度を補正する。
すなわち、運転者状態判定部16は、フレーム化画像(動画名)_n.jpgから切り出した切出画像と重なる領域360におけるセグメント300Sの存在確率αの幾何平均を算出する。
For example, after the class classification of the clipped image clipped from the framed image (movie name)_n.jpg is completed, the driver
That is, the driver
例えば、領域360におけるセグメント300S_1がα=0.8、300S_2がα=0.9、300S_3がα=0.9、300S_4がα=1.1、…、300S_9がα=1.2の場合、
幾何平均Σ=(0.8×0.9×0.9×1.1×…×1.2)1/9
として計算される。
For example, if segment 300S_1 in
Geometric mean Σ=(0.8×0.9×0.9×1.1×…×1.2) 1/9
calculated as
そして、運転者状態判定部16は、フレーム化画像(動画名)_n.jpgから切り出した切出画像のクラス分類において、クラス#1の確信度に対して幾何平均Σを乗算する。
また、運転者状態判定部16は、クラス#1(携帯端末操作クラス)の確信度に対して幾何平均Σを乗算した後、クラス分類された各クラスの確信度を比較し、最も大きな確信度のクラスをクラス分類の結果として選択する。
Then, the driver
Further, the driver
これにより、携帯端末操作クラスの確信度が動作分類モデルによるクラス分類の直後に、他のクラスより微妙に小さい場合、切出画像(動画名)_n_r.jpgと重なる位置のセグメントの存在確率αから求めた幾何平均Σが1を超える場合、確信度の大きさが逆転して、携帯端末操作クラスがクラス分類として選択される確率が上昇する。
これは同一の人物であると、スマートフォンの操作に癖があり、同様の位置でスマートフォンを操作することが多いため、上述した存在確率αを用いることで、携帯端末操作クラス(クラス#1)に分類する精度を向上させることができる。
As a result, if the certainty of the mobile terminal operation class is slightly smaller than the other classes immediately after the class classification by the action classification model, from the existence probability α of the segment overlapping the clipped image (movie name)_n_r.jpg When the obtained geometric mean Σ exceeds 1, the degree of certainty is reversed, and the probability that the mobile terminal operation class is selected as the class classification increases.
The same person has a habit of operating the smartphone and often operates the smartphone in the same position. Classification accuracy can be improved.
また、上述した確信度マップは、入力される撮像画像から生成されるフレーム化画像における切出画像により順次更新、あるいは運転判定シーン毎にリセットして、運転判定シーンにおける切出画像により順次更新するか、または、前後のフレーム化画像の類似度を比較して画像に所定の類似閾値を下回るシーンチェンジが発生したタイミングでリセットして、以降のフレーム化画像で順次構成するなど、ながら運転候補画像を抽出する対象毎に適宜設定する。 In addition, the confidence map described above is sequentially updated by clipped images in the framed image generated from the input captured image, or is reset for each driving determination scene and sequentially updated by the clipped image in the driving determination scene. Alternatively, the similarity between the preceding and succeeding framed images is compared, and the driving candidate image is reset at the timing when a scene change below a predetermined similarity threshold occurs in the image, and the subsequent framed images are sequentially configured. is appropriately set for each target to be extracted.
また、図1に示す運転状態監視支援システムの定点撮像装置が撮像した動画データを用い、車両の運転者が携帯端末の操作を行い、かつ車両が走行している可能性の高いながら運転候補画像を抽出し、提示する機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、定点撮像装置が撮像した動画データからながら運転候補画像を抽出し、提示する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 In addition, using video data captured by the fixed-point imaging device of the driving state monitoring support system shown in FIG. A program for realizing the function to extract and present is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read into a computer system and executed. A process of extracting and presenting driving candidate images from the moving image data may be performed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
The "computer system" also includes the home page providing environment (or display environment) if the WWW system is used.
The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. Furthermore, "computer-readable recording medium" means a medium that dynamically retains a program for a short period of time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It also includes those that hold programs for a certain period of time, such as volatile memories inside computer systems that serve as servers and clients in that case. Further, the program may be for realizing part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail above with reference to the drawings, the specific configuration is not limited to these embodiments, and designs and the like are included within the scope of the gist of the present invention.
1…運転状態監視支援システム
11…撮像画像入力部
12フレーム化画像生成部
13…変化領域抽出部
14…肌色領域抽出部
15…矩形領域生成部
16…運転者状態判定部
17…車両走行判定部
18…結果統合部
19…画像提示制御部
20…記憶部
REFERENCE SIGNS LIST 1 Driving state
Claims (7)
前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出部と、
前記肌色領域を運転者の動作状態を示す複数のクラスのいずれかに分類する機械学習モデルである動作分類モデルに対して前記肌色領域を入力し、前記運転者の動作状態のクラス分類を行なう運転者状態判定部と、
前記マスキング画像を車両が走行している状態の走行クラス、及び前記車両が停止している状態の停止クラスのいずれかに分類する機械学習モデルである走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定部と、
前記運転者状態判定部が前記肌色領域を運転者が携帯端末を操作している携帯端末操作クラスに分類し、かつ前記車両走行判定部が前記マスキング画像が前記走行クラスに分類した場合、対応する前記画像データを前記運転者が車両を運転しつつ携帯端末を操作している画像候補として抽出する結果統合部と
を備えることを特徴とする運転状態監視支援システム。 Each of the image data captured in time series by a fixed-point imaging device that captures an image of the interior of the vehicle, including the driver's seat, with a fixed imaging range is compared with each of the previous image data and the immediately following image data, and pixels having changes are detected. a changing region extraction unit that generates a masking image showing a changing region consisting of
a skin color region extraction unit for extracting a skin color region including skin color pixels from a region corresponding to the changed region in the image data;
The skin-colored region is input to an action classification model, which is a machine learning model for classifying the skin-colored region into one of a plurality of classes indicating the action state of the driver, and classifying the action state of the driver. a person state determination unit;
The masking image is input to a driving classification model, which is a machine learning model that classifies the masking image into either a driving class in which the vehicle is running or a stop class in which the vehicle is stopped. , a vehicle travel determination unit that performs class classification processing ;
When the driver state determination unit classifies the skin color region into the portable terminal operation class in which the driver is operating the portable terminal, and the vehicle driving determination unit classifies the masking image into the driving class, the corresponding a result integration unit that extracts the image data as an image candidate of the driver operating the portable terminal while driving the vehicle;
A driving state monitoring support system comprising:
前記画像データの各々をグレースケール画像に変換し、当該グレースケール画像の直前、直後それぞれのグレースケール画像とを比較し、対応する位置の画素の各々の階調度の差分が予め設定した閾値を超えた場合、変化を有する前記画素として前記変化領域を抽出する
ことを特徴とする請求項1に記載の運転状態監視支援システム。 The changed region extraction unit
Each of the image data is converted into a grayscale image, and the grayscale images immediately before and after the grayscale image are compared with each other, and a difference in gradation between pixels at corresponding positions exceeds a preset threshold. 2. The driving state monitoring support system according to claim 1 , wherein the changed area is extracted as the pixel having a change, if the change occurs.
前記グレースケール画像及び当該グレースケール画像の直前のグレースケール画像を比較して得られる変化を有する画素の領域と、前記グレースケール画像及び当該グレースケール画像の直後のグレースケール画像を比較して得られる変化を有する画素の領域との重なり合う領域を、前記マスキング画像とする
ことを特徴とする請求項2に記載の運転状態監視支援システム。 The changed region extraction unit
A region of pixels having a change obtained by comparing said grayscale image and a grayscale image immediately preceding said grayscale image with a region of pixels having a change obtained by comparing said grayscale image and said grayscale image immediately following said grayscale image. 3. The driving state monitoring support system according to claim 2 , wherein a region that overlaps with a pixel region having a change is used as the masking image.
前記マスキング画像において、前記車両の車窓に対応する画像部分が変化しているか否かにより、前記車両の状態を走行クラス、あるいは停止クラスそれぞれに分類する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の運転状態監視支援システム。 The driving classification model is
According to whether or not an image portion corresponding to a car window of the vehicle is changed in the masking image, the state of the vehicle is classified into a driving class or a stop class , respectively. The driving state monitoring support system according to any one of 1.
ことを特徴とする請求項1から請求項4のいずれか一項に記載の運転状態監視支援システム。 The changing region extracting unit divides the image data into a predetermined number of segments, increases the existence probability of the segments that overlap the skin color region compared to the segments that do not overlap the skin color region, 5. The driving state monitoring support system according to any one of claims 1 to 4 , wherein the reliability of a mobile terminal operation class operating the mobile terminal is increased in accordance with the existence probability. .
肌色領域抽出部が、前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出過程と、
運転者状態判定部が、前記肌色領域を運転者の動作状態を示す複数のクラスのいずれかに分類する機械学習モデルである動作分類モデルに対して前記肌色領域を入力し、前記運転者の動作状態のクラス分類を行なう運転者状態判定過程と、
車両走行判定部が、前記マスキング画像を車両が走行している状態の走行クラス、及び前記車両が停止している状態の停止クラスのいずれかに分類する機械学習モデルである走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定過程と、
結果統合部が、前記運転者状態判定過程によって前記肌色領域を運転者が携帯端末を操作している携帯端末操作クラスに分類され、かつ前記車両走行判定過程によって前記マスキング画像が前記走行クラスに分類された場合、対応する前記画像データを前記運転者が車両を運転しつつ携帯端末を操作している画像候補として抽出する結果統合過程と
を含むことを特徴とする運転状態監視支援方法。 A changing region extracting unit compares each image data captured in time series by a fixed-point imaging device that captures an image of the interior of the vehicle including the driver's seat in a fixed imaging range with the immediately preceding image data and the immediately following image data. a changing region extraction process for generating a masking image showing a changing region composed of pixels having a change;
a skin color region extraction step in which a skin color region extraction unit extracts a skin color region including skin color pixels from a region corresponding to the changed region in the image data;
A driver state determination unit inputs the skin color region to an action classification model, which is a machine learning model for classifying the skin color region into one of a plurality of classes indicating the action state of the driver, and determines the action of the driver. a driver state determination process for classifying states;
A driving classification model, which is a machine learning model in which the vehicle driving determination unit classifies the masked image into either a driving class in which the vehicle is driving or a stop class in which the vehicle is stopped, a vehicle travel determination process of inputting the masking image and performing class classification processing ;
A result integration unit classifies the flesh-colored area into a mobile terminal operation class in which a driver operates a mobile terminal by the driver state determination process, and classifies the masking image into the driving class by the vehicle travel determination process. a result integration step of extracting the corresponding image data as an image candidate of the driver operating the portable terminal while driving the vehicle,
A driving state monitoring support method, comprising:
撮像範囲が固定され、運転席を含む車内の画像を撮像する定点撮像装置によって時系列に撮像された画像データの各々を、直前の画像データ及び直後の画像データそれぞれと比較し、変化を有する画素からなる変化領域を示すマスキング画像を生成する変化領域抽出手段、
前記画像データにおける前記変化領域に対応する領域から肌色の画素を含む肌色領域を抽出する肌色領域抽出手段、
前記肌色領域を運転者の動作状態を示す複数のクラスのいずれかに分類する機械学習モデルである動作分類モデルに対して前記肌色領域を入力し、前記運転者の動作状態のクラス分類を行なう運転者状態判定手段、
前記マスキング画像を車両が走行している状態の走行クラス、及び前記車両が停止している状態の停止クラスのいずれかに分類する機械学習モデルである走行分類モデルに対し、前記マスキング画像を入力し、クラス分類の処理を行なう車両走行判定手段、
前記運転者状態判定手段が前記肌色領域を運転者が携帯端末を操作している携帯端末操作クラスに分類し、かつ前記車両走行判定手段が前記マスキング画像が前記走行クラスに分類した場合、対応する前記画像データを前記運転者が車両を運転しつつ携帯端末を操作している画像候補として抽出する結果統合手段
として機能させるためのプログラム。 the computer,
Each of the image data captured in time series by a fixed-point imaging device that captures an image of the interior of the vehicle, including the driver's seat, with a fixed imaging range is compared with each of the previous image data and the immediately following image data, and pixels having changes are detected. changing region extracting means for generating a masking image showing a changing region consisting of
skin-color region extracting means for extracting a skin-color region including skin-color pixels from a region corresponding to the changed region in the image data;
The skin-colored region is input to an action classification model, which is a machine learning model for classifying the skin-colored region into one of a plurality of classes indicating the action state of the driver, and classifying the action state of the driver. person state determination means,
The masking image is input to a driving classification model, which is a machine learning model that classifies the masking image into either a driving class in which the vehicle is running or a stop class in which the vehicle is stopped. , vehicle travel determination means for performing class classification processing,
When the driver state determination means classifies the skin color area into the mobile terminal operation class in which the driver is operating the mobile terminal, and the vehicle travel determination means classifies the masking image into the travel class, the corresponding Result integration means for extracting the image data as an image candidate of the driver operating the portable terminal while driving the vehicle.
A program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168043A JP7154071B2 (en) | 2018-09-07 | 2018-09-07 | Driving state monitoring support system, driving state monitoring support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168043A JP7154071B2 (en) | 2018-09-07 | 2018-09-07 | Driving state monitoring support system, driving state monitoring support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042422A JP2020042422A (en) | 2020-03-19 |
JP7154071B2 true JP7154071B2 (en) | 2022-10-17 |
Family
ID=69798318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168043A Active JP7154071B2 (en) | 2018-09-07 | 2018-09-07 | Driving state monitoring support system, driving state monitoring support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7154071B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7606894B2 (en) * | 2021-03-12 | 2024-12-26 | 本田技研工業株式会社 | Image processing device, image processing method, and program |
WO2024176376A1 (en) * | 2023-02-22 | 2024-08-29 | シャープNecディスプレイソリューションズ株式会社 | Information processing device and information processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005258830A (en) | 2004-03-11 | 2005-09-22 | Yamaguchi Univ | Human behavior understanding system |
JP2017505477A (en) | 2013-12-30 | 2017-02-16 | アルカテル−ルーセント | Driver behavior monitoring system and method for driver behavior monitoring |
JP2017157196A (en) | 2016-02-29 | 2017-09-07 | 株式会社デンソー | Driver monitoring system |
-
2018
- 2018-09-07 JP JP2018168043A patent/JP7154071B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005258830A (en) | 2004-03-11 | 2005-09-22 | Yamaguchi Univ | Human behavior understanding system |
JP2017505477A (en) | 2013-12-30 | 2017-02-16 | アルカテル−ルーセント | Driver behavior monitoring system and method for driver behavior monitoring |
JP2017157196A (en) | 2016-02-29 | 2017-09-07 | 株式会社デンソー | Driver monitoring system |
Non-Patent Citations (2)
Title |
---|
Xuetao Zhang et al.,Visual Recognition of Driver Hand-held Cell Phone Use Based on Hidden CRF,Proceedings of 2011 IEEE International Conference on Vehicular Electronics and Safety,米国,IEEE,2011年07月12日,pp.248-251,https://ieeexplore.ieee.org/document/5983823 |
木戸口 稜 外3名,深層学習を用いた車内動画の運転手領域に基づく異常行動の検出,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年06月25日,第118巻 第116号,pp.53-59 |
Also Published As
Publication number | Publication date |
---|---|
JP2020042422A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325933B (en) | Method and device for recognizing copied image | |
EP3692461B1 (en) | Removing personally identifiable data before transmission from a device | |
CN112560999B (en) | Target detection model training method and device, electronic equipment and storage medium | |
US11462040B2 (en) | Distractor classifier | |
CN113689440B (en) | Video processing method, device, computer equipment and storage medium | |
US9514225B2 (en) | Video recording apparatus supporting smart search and smart search method performed using video recording apparatus | |
US20160155465A1 (en) | Video masking processing method and apparatus | |
US11348254B2 (en) | Visual search method, computer device, and storage medium | |
WO2019105457A1 (en) | Image processing method, computer device and computer readable storage medium | |
CN112434612A (en) | Smoking detection method and device, electronic equipment and computer readable storage medium | |
CN112084959B (en) | Crowd image processing method and device | |
EP4332910A1 (en) | Behavior detection method, electronic device, and computer readable storage medium | |
KR20190120106A (en) | Method for determining representative image of video, and electronic apparatus for processing the method | |
CN114359789B (en) | Target detection method, device, equipment and medium for video image | |
CN113486856A (en) | Driver irregular behavior detection method based on semantic segmentation and convolutional neural network | |
CN112950564B (en) | Image detection method and device, storage medium and electronic equipment | |
JP7154071B2 (en) | Driving state monitoring support system, driving state monitoring support method and program | |
WO2024152659A9 (en) | Image processing method and apparatus, device, medium, and program product | |
CN112766235B (en) | Face recognition method, apparatus, device, storage medium and computer program product | |
KR102656084B1 (en) | Method and apparatus for mapping objects besed on movement path | |
KR102838928B1 (en) | Spot prediction method, device, equipment and storage medium | |
CN113542866B (en) | Video processing method, device, equipment and computer readable storage medium | |
CN111598912A (en) | Image segmentation method and device | |
CN117351556A (en) | Gesture recognition method, device, vehicle and storage medium | |
JP7720440B1 (en) | Information processing device, information processing method, information processing program, and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7154071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |