[go: up one dir, main page]

JP2022037331A - Lost child detectors, lost child detection methods, and programs - Google Patents

Lost child detectors, lost child detection methods, and programs Download PDF

Info

Publication number
JP2022037331A
JP2022037331A JP2020141412A JP2020141412A JP2022037331A JP 2022037331 A JP2022037331 A JP 2022037331A JP 2020141412 A JP2020141412 A JP 2020141412A JP 2020141412 A JP2020141412 A JP 2020141412A JP 2022037331 A JP2022037331 A JP 2022037331A
Authority
JP
Japan
Prior art keywords
motion vector
lost child
feature point
detects
child
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020141412A
Other languages
Japanese (ja)
Other versions
JP7407677B2 (en
Inventor
光貴 岩村
Mitsutaka Iwamura
守真 横田
Morimasa Yokota
清泰 丸山
Kiyoyasu Maruyama
正英 小池
Masahide Koike
少翔 馬
Shaoxiang Ma
美里 内藤
Misato Naito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Techno Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Techno Service Co Ltd filed Critical Mitsubishi Electric Corp
Priority to JP2020141412A priority Critical patent/JP7407677B2/en
Publication of JP2022037331A publication Critical patent/JP2022037331A/en
Application granted granted Critical
Publication of JP7407677B2 publication Critical patent/JP7407677B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数のフレーム画像からなる入力画像から迷子を検知する際の処理負荷を抑制する。【解決手段】迷子検知装置12は、入力画像に対して動きベクトルを検出して人の領域を検出する第1の動きベクトル検出部50と、人の領域において特徴点を抽出する特徴点抽出部52と、特徴点の分布から、入力画像に映っている人の大きさを検知する大きさ検知部54と、特徴点での動きベクトルを検出する第2の動きベクトル検出部56と、特徴点での動きベクトルから、特徴点の軌跡を得る特徴点追跡部58と、特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知部60と、大きさ検知部54および行動検知部60の検知結果から迷子を判定する迷子判定部62とを備える。第1の動きベクトル検出部50は、あるフレーム画像に対して動きベクトルを検出し、第2の動きベクトル検出部56は、それに続く複数のフレーム画像にわたって動きベクトルを検出する。【選択図】図2The present invention suppresses the processing load when detecting a lost child from an input image consisting of a plurality of frame images. A lost child detection device 12 includes a first motion vector detection unit 50 that detects a motion vector in an input image to detect a human area, and a feature point extraction unit that extracts feature points in the human area. 52, a size detection section 54 that detects the size of a person appearing in an input image from the distribution of feature points, a second motion vector detection section 56 that detects a motion vector at a feature point, and a feature point a feature point tracking section 58 that obtains the locus of the feature points from the motion vector at , a behavior detection section 60 that detects the characteristic behavior of the lost child based on the trajectory of the feature points, a size detection section 54, and a behavior detection section A lost child determining section 62 is provided, which determines whether a lost child is found based on the detection result of the section 60. The first motion vector detection section 50 detects a motion vector for a certain frame image, and the second motion vector detection section 56 detects motion vectors for a plurality of subsequent frame images. [Selection diagram] Figure 2

Description

本発明は、撮像装置で撮像された画像に基づいて迷子を検知する迷子検知装置、迷子検知方法、およびプログラムに関する。 The present invention relates to a lost child detection device, a lost child detection method, and a program for detecting a lost child based on an image captured by the image pickup device.

従来、例えばショッピングモールやホームセンター等の施設において、監視カメラで撮像された画像を解析することにより、迷子を検知することが検討されている。 Conventionally, in facilities such as shopping malls and home centers, it has been studied to detect lost children by analyzing images captured by surveillance cameras.

特許文献1には、迷子の検知に特化した装置ではないが、画像取得装置(監視カメラ等)の時系列画像に基づいて、人物の移動軌跡情報を取得すると共に、人物の特徴や行動(迷子、万引き等)を特定した行動情報を取得し、それらの情報に基づいて人物の未来の移動経路を予測する装置が開示されている。人物の移動軌跡情報を取得するための方法として、オプティカルフローを用いることが挙げられている。 Patent Document 1 is not a device specialized for detecting lost children, but it acquires movement trajectory information of a person based on a time-series image of an image acquisition device (surveillance camera, etc.), and features and behaviors of the person (characteristics and behaviors of the person (such as a surveillance camera). A device that acquires behavioral information that identifies (lost child, shoplifting, etc.) and predicts the future movement route of a person based on the information is disclosed. As a method for acquiring the movement trajectory information of a person, the use of optical flow is mentioned.

特開2018-160219号公報JP-A-2018-160219

ところで、撮像装置で取得された、複数のフレーム画像からなる動画像にオプティカルフローを実施する(動画像の動きベクトルを検出する)ことで、動画像の中の人物の動きをとらえ、その人物の動きに基づいて迷子を検知する方法が考えられる。しかし、動画像の全フレーム画像、各フレーム画像の全領域にオプティカルフローを実施すると、処理負荷が大きくなってしまう。 By the way, by performing an optical flow on a moving image consisting of a plurality of frame images acquired by an image pickup device (detecting a motion vector of the moving image), the movement of the person in the moving image is captured, and the movement of the person is captured. A method of detecting a lost child based on the movement can be considered. However, if the optical flow is applied to all the frame images of the moving image and the entire area of each frame image, the processing load becomes large.

本発明の目的は、動画像(以下、入力画像とも言う)に対して動きベクトルを検出して、入力画像の中の迷子を検知する際に、処理負荷を抑制できるようにすることにある。 An object of the present invention is to detect a motion vector for a moving image (hereinafter, also referred to as an input image) so that a processing load can be suppressed when detecting a lost child in the input image.

本発明の迷子検知装置は、複数のフレーム画像からなる入力画像に対して動きベクトルを検出して人が映っている領域である人領域を検出する第1の動きベクトル検出部と、前記人領域の端付近における、前記動きベクトルが相対的に大きい部分を特徴点として抽出する特徴点抽出部と、前記特徴点の分布から、前記入力画像に映っている人の大きさを検知する大きさ検知部と、前記特徴点での動きベクトルを検出する第2の動きベクトル検出部と、前記特徴点での動きベクトルから、前記特徴点の軌跡を得る特徴点追跡部と、前記特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知部と、前記大きさ検知部により検知された人の大きさから人が子供と判定され、かつ、前記行動検知部により前記子供について前記迷子の特徴的な行動が検知された際に、前記子供を迷子と判定する迷子判定部と、を備え、前記第1の動きベクトル検出部は、あるフレーム画像に対して動きベクトルを検出し、前記第2の動きベクトル検出部は、それに続く複数のフレーム画像にわたって動きベクトルを検出する、ことを特徴とする。 The lost child detection device of the present invention has a first motion vector detection unit that detects a motion vector for an input image composed of a plurality of frame images to detect a human region, which is a region in which a person is reflected, and the human region. Size detection that detects the size of the person reflected in the input image from the feature point extraction unit that extracts the portion where the motion vector is relatively large near the end of the feature point and the distribution of the feature points. The unit, the second motion vector detection unit that detects the motion vector at the feature point, the feature point tracking unit that obtains the locus of the feature point from the motion vector at the feature point, and the locus of the feature point. Based on this, a person is determined to be a child from the size of the person detected by the motion detection unit that detects the characteristic behavior of the lost child and the size detection unit, and the motion detection unit determines that the child is the lost child. The first motion vector detection unit detects a motion vector for a certain frame image, and includes a lost child determination unit that determines the child as a lost child when the characteristic behavior of the above is detected. The second motion vector detection unit is characterized in that it detects a motion vector over a plurality of subsequent frame images.

この構成によれば、あるフレーム画像に対して動きベクトルを検出して特徴点を抽出し、当該あるフレーム画像に続く複数のフレーム画像では、特徴点のみ動きベクトルを検出するので、全フレーム画像の全領域の動きベクトルを検出する場合に比べて、処理負荷を軽減することができる。 According to this configuration, the motion vector is detected for a certain frame image and the feature points are extracted, and in a plurality of frame images following the certain frame image, the motion vector is detected only for the feature points. The processing load can be reduced as compared with the case of detecting the motion vector in the entire region.

本発明の迷子検知装置において、前記第1の動きベクトル検出部は、前記入力画像の全領域に対して動きベクトルを検出する、としてもよい。 In the lost child detection device of the present invention, the first motion vector detection unit may detect a motion vector in the entire region of the input image.

本発明の迷子検知装置において、前記第1の動きベクトル検出部は、前記入力画像において人が現れ始める、予め定められた領域に対して動きベクトルを検出する、としてもよい。 In the lost child detection device of the present invention, the first motion vector detection unit may detect a motion vector in a predetermined region where a person starts to appear in the input image.

この構成によれば、第1の動きベクトル検出部が上記あるフレーム画像の予め定められた領域に対して動きベクトルを検出するので、第1の動きベクトル検出部がフレーム画像の全領域に対して動きベクトルを検出する場合に比べて、処理負荷を軽減することができる。 According to this configuration, since the first motion vector detection unit detects the motion vector in the predetermined region of the frame image, the first motion vector detection unit detects the entire region of the frame image. Compared with the case of detecting a motion vector, the processing load can be reduced.

本発明の迷子検知装置において、前記予め定められた領域は、前記入力画像の端領域である、としてもよい。 In the lost child detection device of the present invention, the predetermined region may be the end region of the input image.

本発明の迷子検知装置において、前記第1の動きベクトル検出部は、前記あるフレーム画像に続く複数のフレーム画像の前記予め定められた領域に対しても動きベクトルを検出する、としてもよい。 In the lost child detection device of the present invention, the first motion vector detection unit may also detect a motion vector in the predetermined region of a plurality of frame images following the certain frame image.

この構成によれば、入力画像において人が現れ始めた際に、迅速に人領域を検出してその特徴点を抽出することができる。 According to this configuration, when a person starts to appear in the input image, the human area can be quickly detected and the feature points can be extracted.

本発明の迷子検知装置において、前記迷子の特徴的な行動は、周りの人に比べて移動速度が速いこと、周りの人とは別の方向への移動していること、キョロキョロする首振り、狭い領域で往復する行動、および、泣くことによるしゃくりあげ、の少なくとも1つを含む、としてもよい。 In the lost child detection device of the present invention, the characteristic behaviors of the lost child are that the moving speed is faster than that of the surrounding people, that the lost child is moving in a direction different from that of the surrounding people, and that the head swings around. It may include at least one of a reciprocating action in a narrow area and a crying screaming.

本発明の迷子検知方法は、複数のフレーム画像からなる入力画像に対して動きベクトルを検出して人が映っている領域である人領域を検出する第1検出ステップと、前記人領域の端付近における、前記動きベクトルが相対的に大きい部分を特徴点として抽出する抽出ステップと、前記特徴点の分布から、前記入力画像に映っている人の大きさを検知する、大きさ検知ステップと、前記特徴点での動きベクトルを検出する第2検出ステップと、前記特徴点での動きベクトルから、前記特徴点の軌跡を得る特徴点追跡ステップと、前記特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知ステップと、前記大きさ検知ステップにより検知された人の大きさから人が子供と判定され、かつ、前記行動検知ステップにより前記子供について前記迷子の特徴的な行動が検知された際に、前記子供を迷子と判定する迷子判定ステップと、を備え、前記第1検出ステップでは、あるフレーム画像に対して動きベクトルを検出し、前記第2検出ステップでは、それに続く複数のフレーム画像にわたって動きベクトルを検出する、ことを特徴とする。 The lost child detection method of the present invention includes a first detection step of detecting a motion vector for an input image composed of a plurality of frame images to detect a human region, which is a region in which a person is reflected, and the vicinity of the edge of the human region. In the extraction step of extracting a portion having a relatively large motion vector as a feature point, and a size detection step of detecting the size of a person reflected in the input image from the distribution of the feature points. A second detection step for detecting a motion vector at a feature point, a feature point tracking step for obtaining a locus of the feature point from a motion vector at the feature point, and a characteristic of a lost child based on the locus of the feature point. A person is determined to be a child from the size of the person detected by the action detection step and the size detection step, and the characteristic behavior of the lost child is detected for the child by the action detection step. A lost child determination step for determining the child as a lost child is provided. In the first detection step, a motion vector is detected for a certain frame image, and in the second detection step, a plurality of subsequent steps are detected. It is characterized by detecting a motion vector over a frame image.

本発明のプログラムは、複数のフレーム画像からなる入力画像に対して動きベクトルを検出して人が映っている領域である人領域を検出する第1の動きベクトル検出手段、前記人領域の端付近における、前記動きベクトルが相対的に大きい部分を特徴点として抽出する特徴点抽出手段、前記特徴点の分布から、前記入力画像に映っている人の大きさを検知する大きさ検知手段、前記特徴点での動きベクトルを検出する第2の動きベクトル検出手段、前記特徴点での動きベクトルから、前記特徴点の軌跡を得る特徴点追跡手段、前記特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知手段、および、前記大きさ検知手段により検知された人の大きさから人が子供と判定され、かつ、前記行動検知手段により前記子供について前記迷子の特徴的な行動が検知された際に、前記子供を迷子と判定する迷子判定手段、としてコンピュータを機能させるプログラムであって、前記第1の動きベクトル検出手段は、あるフレーム画像に対して動きベクトルを検出し、前記第2の動きベクトル検出手段は、それに続く複数のフレーム画像にわたって動きベクトルを検出する、ことを特徴とする。 The program of the present invention is a first motion vector detecting means for detecting a motion vector in an input image composed of a plurality of frame images to detect a human region, which is a region in which a person is reflected, near the end of the human region. A feature point extracting means for extracting a portion having a relatively large motion vector as a feature point, a size detecting means for detecting the size of a person reflected in the input image from the distribution of the feature points, and the feature. A second motion vector detecting means for detecting a motion vector at a point, a feature point tracking means for obtaining a locus of the feature point from a motion vector at the feature point, and a characteristic of a lost child based on the locus of the feature point. A person is determined to be a child based on the size of the person detected by the motion detecting means and the size detecting means, and the motion detecting means causes the child to have a characteristic behavior of the lost child. A program that causes a computer to function as a lost child determining means for determining a child as a lost child when detected, the first motion vector detecting means detects a motion vector for a certain frame image, and the motion vector is detected. The second motion vector detecting means is characterized in that the motion vector is detected over a plurality of subsequent frame images.

本発明によれば、入力画像から迷子を検知する際の処理負荷を抑制することができる。 According to the present invention, it is possible to suppress the processing load when detecting a lost child from an input image.

迷子検知システムの全体構成を模式的に示す図である。It is a figure which shows typically the whole structure of the lost child detection system. 迷子検知装置の機能ブロック図である。It is a functional block diagram of a lost child detection device. 第1、2の動きベクトルの検出タイミングの説明図である。It is explanatory drawing of the detection timing of the 1st and 2nd motion vectors. 入力画像で検出される人領域の一例を示す図である。It is a figure which shows an example of the human area detected in the input image. 入力画像における特徴点とその軌跡の一例を示す図である。It is a figure which shows an example of a feature point in an input image and the locus thereof. 子供が走っている状態の特徴点の軌跡の例を示す図である。It is a figure which shows the example of the locus of the characteristic point of the state which a child is running. 子供がキョロキョロ首振りをしている状態の特徴点の軌跡の例を示す図である。It is a figure which shows the example of the locus of the characteristic point of the state which a child is swinging around. 子供が周りの人と別の方向へ移動している状態の特徴点の軌跡の例を示す図である。It is a figure which shows the example of the locus of the characteristic point of the state which a child is moving in a direction different from the surrounding person. 子供が狭い領域で行ったり来たりしている状態の特徴点の軌跡の例を示す図である。It is a figure which shows the example of the locus of the feature point of the state which a child goes back and forth in a narrow area. 子供が泣くことでしゃくりあげている状態の特徴点の軌跡の例を示す図である。It is a figure which shows the example of the locus of the characteristic point of the state which a child is crying and raising. 別の実施形態における第1の動きベクトル検出部の検出領域の一例を示す図である。It is a figure which shows an example of the detection area of the 1st motion vector detection part in another embodiment. 別の実施形態における第1の動きベクトル検出部の検出領域の別の一例を示す図である。It is a figure which shows another example of the detection area of the 1st motion vector detection part in another embodiment. 別の実施形態における第1、2の動きベクトルの検出タイミングの説明図である。It is explanatory drawing of the detection timing of the 1st and 2nd motion vectors in another embodiment.

以下、本発明に係る実施形態について添付図面を参照しながら詳細に説明する。以下で述べる構成は、説明のための例示であって、システム、装置の仕様等に合わせて適宜変更が可能である。また、以下において複数の実施形態や変形例などが含まれる場合、それらの特徴部分を適宜に組み合わせて用いることは当初から想定されている。全ての図面において同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The configuration described below is an example for explanation, and can be appropriately changed according to the specifications of the system and the device. Further, when a plurality of embodiments, modifications, and the like are included in the following, it is assumed from the beginning that those characteristic portions are appropriately combined and used. The same elements are designated by the same reference numerals in all drawings, and duplicate description is omitted.

図1は、本実施形態に係る迷子検知システム10の全体構成を模式的に示す図である。迷子検知システム10は、例えばショッピングモールやホームセンター等の商業施設における迷子20を検知するためのシステムである。迷子検知システム10は、商業施設に設置された撮像装置14と、撮像装置14で撮像された画像に基づいて迷子20を検知する迷子検知装置12とを備える。撮像装置14と迷子検知装置12は、LAN(Local Area Network)等のネットワーク16を介して通信可能に接続されている。なお、撮像装置14と迷子検知装置12は、専用回線により接続されていてもよく、また、無線により接続されていてもよい。 FIG. 1 is a diagram schematically showing the overall configuration of the lost child detection system 10 according to the present embodiment. The lost child detection system 10 is a system for detecting a lost child 20 in a commercial facility such as a shopping mall or a home center. The lost child detection system 10 includes an image pickup device 14 installed in a commercial facility and a lost child detection device 12 that detects a lost child 20 based on an image captured by the image pickup device 14. The image pickup device 14 and the lost child detection device 12 are communicably connected to each other via a network 16 such as a LAN (Local Area Network). The image pickup device 14 and the lost child detection device 12 may be connected by a dedicated line or may be wirelessly connected.

撮像装置14は、撮影機能と通信機能を有する監視カメラ等のビデオカメラであり、商業施設の天井、壁などに設置されて、予め定められた領域を撮像する。撮像装置14は、予め定められたフレームレートで撮像を行い、撮像により生成された複数のフレーム画像からなる動画像は、ネットワーク16を介して迷子検知装置12に送信される。なお、撮像装置14は、商業施設の中に複数設けることができる。 The image pickup device 14 is a video camera such as a surveillance camera having a shooting function and a communication function, and is installed on a ceiling, a wall, or the like of a commercial facility to take a picture of a predetermined area. The image pickup device 14 takes an image at a predetermined frame rate, and a moving image composed of a plurality of frame images generated by the image pickup is transmitted to the lost child detection device 12 via the network 16. A plurality of image pickup devices 14 can be provided in a commercial facility.

迷子検知装置12は、コンピュータを含み、各撮像装置14からの動画像を受信して解析することにより、迷子20を検知する。迷子20が検知された際には、迷子検知装置12が有するディスプレイ、または、別の装置のディスプレイに、迷子が検知され旨と、迷子の動画像が撮像された位置(撮像装置14の位置)と、検知された迷子の特徴(洋服の色や種類、背の高さ等)とを表示する。この際、不図示のランプを点灯させたり、不図示のスピーカーから警報を発してもよい。迷子20の保護者は、直接、または、商業施設の監視員、案内係等を介してこれらの情報に接することで、迅速に迷子20に再会することが可能となる。 The lost child detection device 12 includes a computer and detects the lost child 20 by receiving and analyzing a moving image from each image pickup device 14. When the lost child 20 is detected, the display of the lost child detecting device 12 or the display of another device indicates that the lost child has been detected, and the position where the moving image of the lost child is captured (position of the image pickup device 14). And the characteristics of the detected lost child (color and type of clothes, height, etc.) are displayed. At this time, a lamp (not shown) may be turned on, or an alarm may be issued from a speaker (not shown). The guardian of the lost child 20 can quickly reunite with the lost child 20 by contacting the information directly or through a guard of a commercial facility, an usher, or the like.

図1の一点鎖線の内側には、迷子検知装置12のハードウェア構成の一例が示されている。迷子検知装置12は、例えば、プロセッサ30、ROM36、RAM38、ハードディスクドライブ(HDD)40、ネットワークカード等の通信部42、マウスやキーボード等の入力部32、およびディスプレイ等の表示部34を含み、これらがバス46に接続されて構成されている。なお、プロセッサ30は、1つまたは複数のCPUから構成されてもよく、複数のCPUのそれぞれは物理的に互いに離れて位置してもよい。 Inside the alternate long and short dash line in FIG. 1, an example of the hardware configuration of the lost child detection device 12 is shown. The lost child detection device 12 includes, for example, a processor 30, a ROM 36, a RAM 38, a hard disk drive (HDD) 40, a communication unit 42 such as a network card, an input unit 32 such as a mouse or keyboard, and a display unit 34 such as a display. Is connected to the bus 46 and is configured. The processor 30 may be composed of one or a plurality of CPUs, and the plurality of CPUs may be physically separated from each other.

迷子検知装置12は、HDD40等に記憶されたプログラムをプロセッサ30が実行することにより、図2に示すように、第1の動きベクトル検出部50、特徴点抽出部52、大きさ検知部54、第2の動きベクトル検出部56、特徴点追跡部58、行動検知部60、および迷子判定部62として機能する。なお、プロセッサ30が実行するプログラムは、通信手段により提供することはもちろん、光ディスクやUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納して提供することも可能である。 In the lost child detection device 12, the processor 30 executes a program stored in the HDD 40 or the like, so that the first motion vector detection unit 50, the feature point extraction unit 52, the size detection unit 54, as shown in FIG. It functions as a second motion vector detection unit 56, a feature point tracking unit 58, a behavior detection unit 60, and a lost child determination unit 62. The program executed by the processor 30 can be provided not only by communication means but also by storing it in a computer-readable recording medium such as an optical disk or a USB memory.

図2は、迷子検知装置12の機能ブロック図であり、同図には処理の流れも合わせて示されている。以下、図2を参照しながら、迷子検知装置12が行う迷子検知について詳細に説明する。以下では、撮像装置14から受信した動画像を入力画像とも言う。 FIG. 2 is a functional block diagram of the lost child detection device 12, and the figure also shows the flow of processing. Hereinafter, the lost child detection performed by the lost child detecting device 12 will be described in detail with reference to FIG. 2. Hereinafter, the moving image received from the image pickup apparatus 14 is also referred to as an input image.

複数のフレーム画像からなる入力画像は、図2に示すように、第1の動きベクトル検出部50と、第2の動きベクトル検出部56とに入力される。以下説明するように、第1の動きベクトル検出部50は、フレーム画像の全領域に対して動きベクトルを検出するのに対し、第2の動きベクトル検出部56は、フレーム画像の中の特徴点のみ動きベクトルを検出する。 As shown in FIG. 2, an input image composed of a plurality of frame images is input to the first motion vector detection unit 50 and the second motion vector detection unit 56. As will be described below, the first motion vector detection unit 50 detects the motion vector for the entire area of the frame image, whereas the second motion vector detection unit 56 detects the feature points in the frame image. Only detect motion vectors.

図3には、時系列に並んだフレーム画像が番号付きで示されており、第1の動きベクトル検出部50は、2番目、6番目、10番目・・のフレーム画像に対して動きベクトルを検出し、第2の動きベクトル検出部56は、3~5番目、7~9番目・・のフレーム画像に対して動きベクトルを検出することが示されている。なお、n番目(nは2以上の任意の整数)のフレーム画像に対して動きベクトルを検出するとは、n-1番目のフレーム画像に対するn番目のフレーム画像の動きベクトルを検出することを意味する。以下、フレーム画像をフレームとも言う。 In FIG. 3, frame images arranged in chronological order are shown with numbers, and the first motion vector detection unit 50 sets motion vectors for the second, sixth, tenth, and so on frame images. It is shown that the second motion vector detection unit 56 detects the motion vector for the 3rd to 5th, 7th to 9th, and so on frame images. Note that detecting the motion vector for the nth frame image (n is an arbitrary integer of 2 or more) means detecting the motion vector of the nth frame image for the n-1st frame image. .. Hereinafter, the frame image is also referred to as a frame.

図3には、4フレームごとに第1の動きベクトル検出部50が動きベクトルを検出する例が示されているが、入力画像のフレームレートに応じて、例えば数フレーム~数十フレームごとに第1の動きベクトル検出部50がフレームの動きベクトルを検出し、第1の動きベクトル検出部50が動きベクトルを検出するフレームの間の各フレームに対して第2の動きベクトル検出部56が動きベクトルを検出すればよい。 FIG. 3 shows an example in which the first motion vector detection unit 50 detects a motion vector every four frames. However, depending on the frame rate of the input image, for example, every several frames to several tens of frames. The motion vector detection unit 50 of 1 detects the motion vector of the frame, and the second motion vector detection unit 56 detects the motion vector for each frame between the frames in which the first motion vector detection unit 50 detects the motion vector. Should be detected.

まず、第1の動きベクトル検出部50は、入力画像の全領域に対して動きベクトルを検出して、人が映っている領域である人領域を検出する。なお、第1の動きベクトル検出部50が検出する動きベクトルを、第1の動きベクトルとも言う。図3の例では、まず、1番目のフレーム画像の全画素に対する、2番目のフレーム画像の動きベクトルを検出する。図4は、入力画像70から検出される人領域72の一例を示す図である。第1の動きベクトル検出部50は、動きベクトルの大きさが0である領域を背景領域74として検出し、動きベクトルの大きさが0ではない領域を人領域72として検出する。 First, the first motion vector detection unit 50 detects a motion vector for the entire region of the input image, and detects a human region, which is a region in which a person is reflected. The motion vector detected by the first motion vector detection unit 50 is also referred to as a first motion vector. In the example of FIG. 3, first, the motion vector of the second frame image is detected for all the pixels of the first frame image. FIG. 4 is a diagram showing an example of a human region 72 detected from the input image 70. The first motion vector detection unit 50 detects a region where the size of the motion vector is 0 as the background region 74, and detects a region where the magnitude of the motion vector is not 0 as the human region 72.

次に、図2の特徴点抽出部52は、人領域72の端付近における、動きベクトルが相対的に大きい部分を特徴点として抽出する。図5は、入力画像70における特徴点80の一例を示す図であり、図5および以降説明する各図において、×印が特徴点80を表している。なお、特徴点80の数は適宜、変更することができる。 Next, the feature point extraction unit 52 in FIG. 2 extracts a portion having a relatively large motion vector near the end of the human region 72 as a feature point. FIG. 5 is a diagram showing an example of the feature point 80 in the input image 70, and the x mark represents the feature point 80 in FIG. 5 and each of the figures described below. The number of feature points 80 can be changed as appropriate.

特徴点抽出部52は、例えば、人領域72の端付近における各部の動きベクトルの大きさの平均値を取得し、平均値よりも大きな動きベクトルを有する部分の全て又はいくつかを特徴点として抽出する。また、特徴点抽出部52は、例えば、人領域72の端付近における動きベクトルのうち、大きさが大きい上位いくつかの動きベクトルの部分を特徴点として抽出してもよい。ただし、以下で説明するように、特徴点の分布から入力画像70に映っている人の大きさを検知する必要があるので、特徴点抽出部52は、人領域72の少なくとも上端と下端の部分を特徴点として抽出するようにする。 The feature point extraction unit 52 acquires, for example, the average value of the size of the motion vector of each part near the end of the human region 72, and extracts all or some of the parts having a motion vector larger than the average value as feature points. do. Further, the feature point extraction unit 52 may, for example, extract a portion of some upper motion vectors having a large size from the motion vectors near the end of the human region 72 as feature points. However, as described below, since it is necessary to detect the size of the person reflected in the input image 70 from the distribution of feature points, the feature point extraction unit 52 is at least the upper end and the lower end portion of the human area 72. Is extracted as a feature point.

次に、図2の大きさ検知部54は、人領域72の特徴点の分布から、入力画像70に映っている人の大きさを検知する。これは、人領域72における人が、大人なのか、子供なのかを検知するものである。 Next, the size detection unit 54 of FIG. 2 detects the size of the person reflected in the input image 70 from the distribution of the feature points of the human area 72. This is to detect whether the person in the human domain 72 is an adult or a child.

大きさ検知部54は、例えば、子供の背の高さの最大値を表す、予め定められた閾値よりも、人領域72の上下方向の幅が小さい場合には、人領域72における人が子供であると判定する。なお、撮像装置14のレンズの倍率や、人が画像の中の端付近に現れるか、中央付近に現れるかにより、同じ人でも人領域72の大きさが変化するので、これらに対応させて上記した閾値を変えるとよい。 In the size detection unit 54, for example, when the vertical width of the human area 72 is smaller than a predetermined threshold value representing the maximum value of the height of the child, the person in the human area 72 is the child. Is determined to be. The size of the human area 72 changes depending on the magnification of the lens of the image pickup apparatus 14 and whether a person appears near the edge or the center of the image. It is good to change the threshold value.

なお、迷子検知装置12は、大きさ検知部54が入力画像70に映っている人が大人のみであると判定した場合には、以降説明する処理を行わないとしてもよい。これにより、装置の処理負荷を軽減することができる。 If the size detection unit 54 determines that the person reflected in the input image 70 is only an adult, the lost child detection device 12 may not perform the process described below. As a result, the processing load of the device can be reduced.

次に、図2に示す第2の動きベクトル検出部56は、特徴点での動きベクトルを検出する。なお、第2の動きベクトル検出部56が検出する動きベクトルを、第2の動きベクトルとも言う。図3の例では、まず、2番目のフレーム画像の特徴点に対する3番目のフレーム画像の動きベクトルを検出し、次に、3番目のフレーム画像の特徴点に対する4番目のフレーム画像の動きベクトルを検出する。第2の動きベクトル検出部56は、以降、同様の処理を繰り返す。 Next, the second motion vector detection unit 56 shown in FIG. 2 detects the motion vector at the feature point. The motion vector detected by the second motion vector detection unit 56 is also referred to as a second motion vector. In the example of FIG. 3, first, the motion vector of the third frame image with respect to the feature point of the second frame image is detected, and then the motion vector of the fourth frame image with respect to the feature point of the third frame image is obtained. To detect. The second motion vector detection unit 56 repeats the same processing thereafter.

次に、図2の特徴点追跡部58は、第2の動きベクトル検出部56により得られた動きベクトルのうち、同じ特徴点についての動きベクトルを連結することにより、特徴点の軌跡82を生成する。図5および図6A~図6Eには、特徴点の軌跡82の例が示されている。 Next, the feature point tracking unit 58 of FIG. 2 generates a locus 82 of the feature points by concatenating the motion vectors for the same feature points among the motion vectors obtained by the second motion vector detection unit 56. do. 5 and 6A to 6E show an example of the locus 82 of the feature point.

次に、図2の行動検知部60は、特徴点の軌跡82に基づいて迷子20の特徴的な行動を検知する。図6A~図6Eは、迷子20の特徴的な行動と、その際の特徴点の軌跡82の例を示す図である。図6Aは、子供が走っている状態の特徴点の軌跡82の例を示す図であり、図6Bは、子供が歩きながらキョロキョロ首振りをしている状態の特徴点の軌跡82の例を示す図であり、図6Cは、子供が周りの人と別の方向へ移動している状態の特徴点の軌跡82の例を示す図であり、図6Dは、子供が狭い領域で行ったり来たりしている状態の特徴点の軌跡82の例を示す図であり、図6Eは、子供が泣くことでしゃくりあげている状態の特徴点の軌跡82の例を示す図である。 Next, the behavior detection unit 60 of FIG. 2 detects the characteristic behavior of the lost child 20 based on the locus 82 of the feature point. 6A to 6E are diagrams showing an example of the characteristic behavior of the lost child 20 and the locus 82 of the characteristic point at that time. FIG. 6A is a diagram showing an example of the locus 82 of the feature point in the state where the child is running, and FIG. 6B shows an example of the locus 82 of the feature point in the state where the child is swinging while walking. FIG. 6C is a diagram showing an example of a locus 82 of a feature point in a state where a child is moving in a direction different from that of a person around him, and FIG. 6D is a diagram showing an example of a locus 82 of a feature point in which the child moves back and forth in a narrow area. It is a figure which shows the example of the locus 82 of the feature point of the state which is crying, and FIG. 6E is the figure which shows the example of the locus 82 of the feature point of the state which a child is crying.

行動検知部60は、例えば、図6A~図6Eに示すような特徴点の軌跡82を有する迷子の軌跡モデルを、予め、迷子検知装置12に記憶しておき、迷子の軌跡モデルと、特徴点追跡部58からの特徴点の軌跡82とを対比して、それらの類似度が高い場合に、人領域72における人が迷子20の特徴的な行動をとっていると判定する。 The behavior detection unit 60 stores, for example, a lost child locus model having a feature point locus 82 as shown in FIGS. 6A to 6E in the lost child detection device 12 in advance, and the lost child locus model and the feature point. By comparing with the locus 82 of the feature points from the tracking unit 58, it is determined that the person in the human region 72 is taking the characteristic behavior of the lost child 20 when their similarity is high.

また、行動検知部60は、迷子の軌跡モデルを用いずに、迷子20の特徴的な行動を判定してもよい。例えば、図6Aのように、少ないフレーム数で長い特徴点の軌跡82が得られたり、特徴点の軌跡82の振幅が大きい場合には、人が走っていると判定することができる。この判定は、例えば、予め定められた長さの閾値と、特徴点の軌跡82の長さを対比することで、または、予め定められた振幅の閾値と、特徴点の軌跡82の振幅を対比することで実現することができる。また、例えば、図6Bのように、人領域72の上側の特徴点の軌跡82が左右に揺れるように変化している場合には、人がキョロキョロ首振りをしていると判定することができる。また、例えば、図6Cのように、入力画像に複数の人領域72の特徴点の軌跡82が現れる場合に、1人の人領域72の特徴点の軌跡82が、多数の人領域72の特徴点の軌跡82とは逆方向に延びていく場合には、1人が、多くの人とは別の方向へ移動していると判定することができる。また、例えば、図6Dのように、少ないフレーム数の間に、人領域72の特徴点の軌跡82の延びる方向が、何度も反転するような場合には、人が行ったり来たりしていると判定することができる。また、例えば、図6Eのように、人領域72の上側の特徴点の軌跡82が上下に揺れるように変化している場合には、子供が泣くことでしゃくりあげていると判定することができる。 Further, the behavior detection unit 60 may determine the characteristic behavior of the lost child 20 without using the lost child locus model. For example, as shown in FIG. 6A, when a long feature point locus 82 can be obtained with a small number of frames or when the amplitude of the feature point locus 82 is large, it can be determined that a person is running. This determination is made, for example, by comparing a predetermined length threshold value with the length of the feature point locus 82, or by comparing a predetermined amplitude threshold value with the amplitude of the feature point locus 82. It can be realized by doing. Further, for example, when the locus 82 of the upper feature point of the human region 72 changes so as to swing left and right as shown in FIG. 6B, it can be determined that the person is swinging. .. Further, for example, when the loci 82 of the feature points of a plurality of human regions 72 appear in the input image as shown in FIG. 6C, the loci 82 of the feature points of one human region 72 are the features of a large number of human regions 72. When extending in the direction opposite to the locus 82 of the point, it can be determined that one person is moving in a direction different from that of many people. Further, for example, as shown in FIG. 6D, when the extending direction of the locus 82 of the feature point of the human region 72 is reversed many times during a small number of frames, a person moves back and forth. It can be determined that there is. Further, for example, when the locus 82 of the upper feature point of the human region 72 changes so as to sway up and down as shown in FIG. 6E, it can be determined that the child is crying and crying.

次に、図2の迷子判定部62は、大きさ検知部54により人領域72における人が子供と判定され、かつ、行動検知部60により当該人領域72について迷子の特徴的な行動が検知された場合に、入力画像70に迷子20が映っていると判定する。 Next, in the lost child determination unit 62 of FIG. 2, the size detection unit 54 determines that the person in the human area 72 is a child, and the behavior detection unit 60 detects the characteristic behavior of the lost child in the person area 72. In this case, it is determined that the lost child 20 is reflected in the input image 70.

迷子判定部62により迷子20が検知された際には、迷子検知装置12は、入力画像70の人領域72の色から迷子20の洋服の色を特定し、人領域72に対してパターンマッチング等を行うことで迷子20の洋服の種類等を特定して、それらを迷子20の特徴としてディスプレイに表示する。また、迷子検知装置12は、大きさ検知部54から迷子20のおおよその背の高さの情報を受け付けて、迷子20の特徴としてディスプレイに表示する。また、迷子20が検知された入力画像を撮像した撮像装置14の位置情報をディスプレイに表示する。これは、各撮像装置14の識別情報と位置情報を対応付けたテーブルを、迷子検知装置12に予め記憶しておき、迷子検知装置12が入力画像を受信する際に、それを撮像した撮像装置14の識別情報も合わせて受信し、その識別情報を上記テーブルと照合して撮像装置14の位置情報を得ることにより、実現することができる。 When the lost child 20 is detected by the lost child determination unit 62, the lost child detection device 12 identifies the color of the clothes of the lost child 20 from the color of the human area 72 of the input image 70, and pattern matching or the like with respect to the human area 72. By performing the above, the types of clothes of the lost child 20 and the like are specified, and they are displayed on the display as the characteristics of the lost child 20. Further, the lost child detecting device 12 receives information on the approximate height of the lost child 20 from the size detecting unit 54 and displays it on the display as a feature of the lost child 20. Further, the position information of the image pickup apparatus 14 that has captured the input image in which the lost child 20 is detected is displayed on the display. This is an image pickup device in which a table in which the identification information and the position information of each image pickup device 14 are associated with each other is stored in advance in the lost child detection device 12, and when the lost child detection device 12 receives an input image, the table is imaged. This can be realized by receiving the identification information of the 14 together and collating the identification information with the above table to obtain the position information of the image pickup apparatus 14.

次に、以上説明した迷子検知装置12の作用効果について説明する。 Next, the operation and effect of the lost child detection device 12 described above will be described.

以上説明したように、第1の動きベクトル検出部50は、フレーム画像の全画素に対して動きベクトルを検出する(密なオプティカルフローを実施する)のに対し、第2の動きベクトル検出部56は、特徴点のみに対して動きベクトルを検出する(疎なオプティカルフローを実施する)。よって、第2の動きベクトル検出部56は、第1の動きベクトル検出部50に比べて、処理負荷が非常に軽い。 As described above, the first motion vector detection unit 50 detects the motion vector for all the pixels of the frame image (performs a dense optical flow), whereas the second motion vector detection unit 56 detects the motion vector. Detects motion vectors only for feature points (performs sparse optical flow). Therefore, the processing load of the second motion vector detection unit 56 is much lighter than that of the first motion vector detection unit 50.

以上説明した迷子検知装置12によれば、入力画像の全フレームの全領域に対して動きベクトルを検出するのではなく、図3に示すように、第1の動きベクトル検出部50が、あるフレーム画像の全領域に対して動きベクトルを検出し、その検出結果から、特徴点抽出部52が、特徴点を抽出し、第2の動きベクトル検出部56が、それに続く複数のフレーム画像に対して特徴点のみ動きベクトルを検出するため、装置全体の処理負荷を大きく抑制することができる。以上説明した迷子検知装置12によれば、フレームレートが高い入力画像や、画素数が多いフレーム画像であっても、リアルタイム処理を実現することができる。また、プロセッサ30の処理能力が低い場合でも、迷子を検知することができる。 According to the lost child detection device 12 described above, the motion vector is not detected for the entire area of all the frames of the input image, but as shown in FIG. 3, the first motion vector detection unit 50 is a frame. A motion vector is detected for the entire area of the image, the feature point extraction unit 52 extracts the feature points from the detection result, and the second motion vector detection unit 56 detects the subsequent frame images for a plurality of frame images. Since the motion vector is detected only at the feature points, the processing load of the entire device can be greatly suppressed. According to the lost child detection device 12 described above, real-time processing can be realized even for an input image having a high frame rate or a frame image having a large number of pixels. Further, even when the processing capacity of the processor 30 is low, the lost child can be detected.

なお、図3に示すように、第1の動きベクトル検出部50が、定期的に、フレーム画像の全領域に対して動きベクトルを検出する理由は、入力画像70に新たに人が現れた場合に、その人についての人領域72を検出して、特徴点を抽出する必要があるためである。また、人に対する光のあたり方が変化する等して特徴点の色が変化した場合に、特徴点の追跡ができなくなることがあり、この時、再び特徴点の抽出が必要になるためである。 As shown in FIG. 3, the reason why the first motion vector detection unit 50 periodically detects the motion vector for the entire area of the frame image is when a new person appears in the input image 70. This is because it is necessary to detect the human area 72 for that person and extract the feature points. In addition, when the color of the feature point changes due to a change in the way the light hits a person, it may not be possible to track the feature point, and at this time, it is necessary to extract the feature point again. ..

次に、別の実施形態の迷子検知装置について説明する。以上説明した迷子検知装置12は、第1の動きベクトル検出部50が入力画像の全領域の動きベクトルを検出したが、別の実施形態の迷子検知装置では、第1の動きベクトル検出部50が、入力画像の人がフレームインする領域(人が現れ始める領域)のみ動きベクトルを検出する。図7は、この実施形態における、第1の動きベクトル検出部50が動きベクトルを検出する領域90(予め定められた領域)の一例を示す図であり、同図では、領域90は、入力画像70の端付近にある。 Next, another embodiment of the lost child detection device will be described. In the lost child detection device 12 described above, the first motion vector detection unit 50 detects the motion vector in the entire region of the input image, but in the lost child detection device of another embodiment, the first motion vector detection unit 50 detects the motion vector. , The motion vector is detected only in the area where the person in the input image is framed in (the area where the person starts to appear). FIG. 7 is a diagram showing an example of a region 90 (predetermined region) in which the first motion vector detection unit 50 detects a motion vector in this embodiment. In the figure, the region 90 is an input image. It is near the end of 70.

撮像装置14が撮像する範囲は予め決まっており、各撮像装置14の入力画像70において、人が現れ始める領域90(人がフレームインする領域)は予め把握することができる。迷子検知装置は、各撮像装置14の識別情報と領域90を対応づけたテーブルを予め記憶しておき、迷子検知装置が入力画像を受信する際に、それを撮像した撮像装置14の識別情報も合わせて受信し、その識別情報と上記テーブルと照合することで、領域90を把握することができる。そして、第1の動きベクトル検出部50は、フレーム画像の領域90のみに対して動きベクトルを検出し、その検出結果から、特徴点抽出部52は、特徴点を抽出し、第2の動きベクトル検出部56は、それに続く複数のフレーム画像に対して特徴点の動きベクトルを検出する。 The range to be imaged by the image pickup device 14 is predetermined, and in the input image 70 of each image pickup device 14, the area 90 (the area where the person frames in) where the person starts to appear can be grasped in advance. The lost child detection device stores in advance a table in which the identification information of each image pickup device 14 and the area 90 are associated with each other, and when the lost child detection device receives the input image, the identification information of the image pickup device 14 that captures the input image is also stored. The area 90 can be grasped by receiving them together and collating the identification information with the above table. Then, the first motion vector detection unit 50 detects the motion vector only for the region 90 of the frame image, and the feature point extraction unit 52 extracts the feature points from the detection result, and the second motion vector. The detection unit 56 detects motion vectors of feature points for a plurality of subsequent frame images.

この別の実施形態によれば、第1の動きベクトル検出部50がフレーム画像の予め定められた領域90に対して動きベクトルを検出するので、第1の動きベクトル検出部50がフレーム画像の全領域に対して動きベクトルを検出する場合に比べて、装置の処理負荷を軽減することができる。 According to this another embodiment, since the first motion vector detection unit 50 detects the motion vector with respect to the predetermined region 90 of the frame image, the first motion vector detection unit 50 detects the entire frame image. Compared with the case of detecting a motion vector for a region, the processing load of the device can be reduced.

なお、入力画像70における人が現れ始める領域90は、撮像装置14が撮像する領域よって変わるので、例えば、入力画像70の中央付近に廊下やエレベーターの出口などがある場合には、図8のように入力画像70の中央付近に領域90が設定されることになる。また、図示されていないが、例えば、下りのエスカレーターや階段が入力画像70の上端付近に映っている場合には、入力画像70の上端付近に領域90が設定されることもある。 The area 90 in the input image 70 where a person starts to appear changes depending on the area in which the image pickup device 14 takes an image. Therefore, for example, when there is a corridor or an elevator exit near the center of the input image 70, as shown in FIG. The area 90 is set near the center of the input image 70. Further, although not shown, for example, when a descending escalator or stairs is reflected near the upper end of the input image 70, the area 90 may be set near the upper end of the input image 70.

なお、この別の実施形態において、第1の動きベクトル検出部50は、図9のように、全てのフレーム画像の領域90に対して動きベクトルを検出するとしてもよい。この構成によれば、入力画像70において人が現れ始めた際に、迅速に人領域72を検出して、その特徴点を抽出することが可能になる。例えば、特徴点の色が変化して、特徴点の追跡ができなくなった際に、第2の動きベクトル検出部56は、新たな特徴点をすぐに取得することができ、新たな特徴点の追跡がすぐに可能になる。 In this other embodiment, the first motion vector detection unit 50 may detect the motion vector for the region 90 of all the frame images as shown in FIG. According to this configuration, when a person starts to appear in the input image 70, the human area 72 can be quickly detected and the feature points thereof can be extracted. For example, when the color of the feature point changes and the feature point cannot be tracked, the second motion vector detection unit 56 can immediately acquire the new feature point, and the new feature point can be tracked. Tracking will be possible soon.

以上説明した各実施形態では、撮像装置14と迷子検知装置は別体の構成であったが、それらが一体となった構成であってもよい。例えば、撮像装置14が、以上説明した迷子検知装置の機能を有していてもよい。 In each of the above-described embodiments, the image pickup device 14 and the lost child detection device have separate configurations, but they may be integrated. For example, the image pickup device 14 may have the function of the lost child detection device described above.

以上説明した各実施形態では、迷子検知装置は、撮像装置14から送られてくる動画像をリアルタイムで処理することを想定しているが、迷子検知装置は、撮像装置14の動画像を一時的に録画しておき、それを読み出して処理を行うとしてもよい。 In each of the above-described embodiments, the lost child detection device is assumed to process the moving image sent from the image pickup device 14 in real time, but the lost child detection device temporarily processes the moving image of the image pickup device 14. It may be recorded in, read out, and processed.

また、以上説明した各実施形態では、迷子検知装置のプロセッサ30は、プログラムに従って動作する汎用的なCPUを想定しているが、専用のプロセッサ(例えばGPU:Graphics Processing Unit、ASIC:Application Specific Integrated Circuit、FPGA:Field Programmable Gate Array等)を含むものであってもよい。 Further, in each of the above-described embodiments, the processor 30 of the lost child detection device is assumed to be a general-purpose CPU that operates according to a program, but a dedicated processor (for example, GPU: Graphics Processing Unit, ASIC: Application Specific Integrated Circuit). , FPGA: Field Programmable Gate Array, etc.) may be included.

10 迷子検知システム、12 迷子検知装置、14 撮像装置、16 ネットワーク、20 迷子、30 プロセッサ、32 入力部、34 表示部、36 ROM、38 RAM、40 ハードディスクドライブ、42 通信部、46 バス、50 第1の動きベクトル検出部、52 特徴点抽出部、54 大きさ検知部、56 第2の動きベクトル検出部、58 特徴点追跡部、60 行動検知部、62 迷子判定部、70 入力画像、72 人領域、74 背景領域、80 特徴点、82 特徴点の軌跡、90 領域。 10 Lost child detection system, 12 Lost child detection device, 14 Imaging device, 16 Network, 20 Lost child, 30 Processor, 32 Input section, 34 Display section, 36 ROM, 38 RAM, 40 Hard disk drive, 42 Communication section, 46 Bus, 50th 1 motion vector detection unit, 52 feature point extraction unit, 54 size detection unit, 56 second motion vector detection unit, 58 feature point tracking unit, 60 behavior detection unit, 62 lost child determination unit, 70 input image, 72 people Region, 74 background region, 80 feature points, 82 feature point trajectories, 90 regions.

Claims (8)

複数のフレーム画像からなる入力画像に対して動きベクトルを検出して人が映っている領域である人領域を検出する第1の動きベクトル検出部と、
前記人領域の端付近における、前記動きベクトルが相対的に大きい部分を特徴点として抽出する特徴点抽出部と、
前記特徴点の分布から、前記入力画像に映っている人の大きさを検知する大きさ検知部と、
前記特徴点での動きベクトルを検出する第2の動きベクトル検出部と、
前記特徴点での動きベクトルから、前記特徴点の軌跡を得る特徴点追跡部と、
前記特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知部と、
前記大きさ検知部により検知された人の大きさから人が子供と判定され、かつ、前記行動検知部により前記子供について前記迷子の特徴的な行動が検知された際に、前記子供を迷子と判定する迷子判定部と、を備え、
前記第1の動きベクトル検出部は、あるフレーム画像に対して動きベクトルを検出し、前記第2の動きベクトル検出部は、それに続く複数のフレーム画像にわたって動きベクトルを検出する、
ことを特徴とする迷子検知装置。
A first motion vector detection unit that detects a motion vector for an input image composed of a plurality of frame images and detects a human region, which is a region in which a person is reflected, and
A feature point extraction unit that extracts a portion having a relatively large motion vector as a feature point near the end of the human region, and a feature point extraction unit.
From the distribution of the feature points, a size detection unit that detects the size of the person reflected in the input image, and
A second motion vector detection unit that detects the motion vector at the feature point, and
A feature point tracking unit that obtains a locus of the feature point from a motion vector at the feature point,
A behavior detection unit that detects the characteristic behavior of a lost child based on the locus of the feature points,
When a person is determined to be a child from the size of the person detected by the size detection unit, and the behavior detection unit detects the characteristic behavior of the lost child for the child, the child is regarded as a lost child. It is equipped with a lost child judgment unit for judgment.
The first motion vector detection unit detects a motion vector for a certain frame image, and the second motion vector detection unit detects a motion vector over a plurality of subsequent frame images.
A lost child detection device characterized by this.
請求項1に記載の迷子検知装置であって、
前記第1の動きベクトル検出部は、前記入力画像の全領域に対して動きベクトルを検出する、
ことを特徴とする迷子検知装置。
The lost child detection device according to claim 1.
The first motion vector detection unit detects a motion vector for the entire region of the input image.
A lost child detection device characterized by this.
請求項1に記載の迷子検知装置であって、
前記第1の動きベクトル検出部は、前記入力画像において人が現れ始める、予め定められた領域に対して動きベクトルを検出する、
ことを特徴とする迷子検知装置。
The lost child detection device according to claim 1.
The first motion vector detection unit detects a motion vector in a predetermined region where a person starts to appear in the input image.
A lost child detection device characterized by this.
請求項3に記載の迷子検知装置であって、
前記予め定められた領域は、前記入力画像の端領域である、
ことを特徴とする迷子検知装置。
The lost child detection device according to claim 3.
The predetermined area is an edge area of the input image.
A lost child detection device characterized by this.
請求項3または4に記載の迷子検知装置であって、
前記第1の動きベクトル検出部は、前記あるフレーム画像に続く複数のフレーム画像の前記予め定められた領域に対しても動きベクトルを検出する、
ことを特徴とする迷子検知装置。
The lost child detection device according to claim 3 or 4.
The first motion vector detection unit also detects a motion vector in the predetermined region of a plurality of frame images following the certain frame image.
A lost child detection device characterized by this.
請求項1から5のいずれか一項に記載の迷子検知装置であって、
前記迷子の特徴的な行動は、周りの人に比べて移動速度が速いこと、周りの人とは別の方向への移動していること、キョロキョロする首振り、狭い領域で往復する行動、および、泣くことによるしゃくりあげ、の少なくとも1つを含む、
ことを特徴とする迷子検知装置。
The lost child detection device according to any one of claims 1 to 5.
The characteristic behaviors of the lost child are that it moves faster than the people around it, that it is moving in a different direction from those around it, that it swings around, that it moves back and forth in a narrow area, and that it moves back and forth in a narrow area. , Including at least one of crying
A lost child detection device characterized by this.
複数のフレーム画像からなる入力画像に対して動きベクトルを検出して人が映っている領域である人領域を検出する第1検出ステップと、
前記人領域の端付近における、前記動きベクトルが相対的に大きい部分を特徴点として抽出する抽出ステップと、
前記特徴点の分布から、前記入力画像に映っている人の大きさを検知する、大きさ検知ステップと、
前記特徴点での動きベクトルを検出する第2検出ステップと、
前記特徴点での動きベクトルから、前記特徴点の軌跡を得る特徴点追跡ステップと、
前記特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知ステップと、
前記大きさ検知ステップにより検知された人の大きさから人が子供と判定され、かつ、前記行動検知ステップにより前記子供について前記迷子の特徴的な行動が検知された際に、前記子供を迷子と判定する迷子判定ステップと、を備え、
前記第1検出ステップでは、あるフレーム画像に対して動きベクトルを検出し、前記第2検出ステップでは、それに続く複数のフレーム画像にわたって動きベクトルを検出する、
ことを特徴とする迷子検知方法。
The first detection step of detecting a motion vector for an input image consisting of a plurality of frame images to detect a human area, which is an area in which a person is reflected, and
An extraction step of extracting a portion having a relatively large motion vector as a feature point near the end of the human region, and an extraction step.
A size detection step that detects the size of a person reflected in the input image from the distribution of the feature points, and
The second detection step of detecting the motion vector at the feature point, and
A feature point tracking step for obtaining a locus of the feature point from a motion vector at the feature point,
A behavior detection step that detects the characteristic behavior of a lost child based on the locus of the feature points, and
When a person is determined to be a child from the size of the person detected by the size detection step, and the characteristic behavior of the lost child is detected for the child by the behavior detection step, the child is regarded as a lost child. With a lost child judgment step to judge,
In the first detection step, a motion vector is detected for a certain frame image, and in the second detection step, a motion vector is detected over a plurality of subsequent frame images.
A lost child detection method characterized by this.
複数のフレーム画像からなる入力画像に対して動きベクトルを検出して人が映っている領域である人領域を検出する第1の動きベクトル検出手段、
前記人領域の端付近における、前記動きベクトルが相対的に大きい部分を特徴点として抽出する特徴点抽出手段、
前記特徴点の分布から、前記入力画像に映っている人の大きさを検知する大きさ検知手段、
前記特徴点での動きベクトルを検出する第2の動きベクトル検出手段、
前記特徴点での動きベクトルから、前記特徴点の軌跡を得る特徴点追跡手段、
前記特徴点の軌跡に基づいて、迷子の特徴的な行動を検知する行動検知手段、および、
前記大きさ検知手段により検知された人の大きさから人が子供と判定され、かつ、前記行動検知手段により前記子供について前記迷子の特徴的な行動が検知された際に、前記子供を迷子と判定する迷子判定手段、
としてコンピュータを機能させるプログラムであって、
前記第1の動きベクトル検出手段は、あるフレーム画像に対して動きベクトルを検出し、前記第2の動きベクトル検出手段は、それに続く複数のフレーム画像にわたって動きベクトルを検出する、
プログラム。
A first motion vector detecting means, which detects a motion vector for an input image composed of a plurality of frame images and detects a human region, which is a region in which a person is reflected.
A feature point extraction means for extracting a portion having a relatively large motion vector near the end of the human region as a feature point.
A size detecting means for detecting the size of a person reflected in the input image from the distribution of the feature points.
A second motion vector detecting means for detecting a motion vector at the feature point,
A feature point tracking means for obtaining a locus of the feature point from a motion vector at the feature point.
A behavior detection means for detecting a characteristic behavior of a lost child based on the locus of the feature points, and a behavior detection means.
When a person is determined to be a child from the size of the person detected by the size detecting means, and the characteristic behavior of the lost child is detected for the child by the behavior detecting means, the child is regarded as a lost child. Lost child judgment means to judge,
It is a program that makes a computer function as
The first motion vector detecting means detects a motion vector for a certain frame image, and the second motion vector detecting means detects a motion vector over a plurality of subsequent frame images.
program.
JP2020141412A 2020-08-25 2020-08-25 Lost child detection device, lost child detection method, and program Active JP7407677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020141412A JP7407677B2 (en) 2020-08-25 2020-08-25 Lost child detection device, lost child detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020141412A JP7407677B2 (en) 2020-08-25 2020-08-25 Lost child detection device, lost child detection method, and program

Publications (2)

Publication Number Publication Date
JP2022037331A true JP2022037331A (en) 2022-03-09
JP7407677B2 JP7407677B2 (en) 2024-01-04

Family

ID=80494568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020141412A Active JP7407677B2 (en) 2020-08-25 2020-08-25 Lost child detection device, lost child detection method, and program

Country Status (1)

Country Link
JP (1) JP7407677B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016333A (en) * 2015-06-30 2017-01-19 Kddi株式会社 Moving object extraction apparatus, method and program
JP2018151834A (en) * 2017-03-13 2018-09-27 パナソニック株式会社 Lost child detection device and lost child detection method
JP2018160219A (en) * 2017-03-24 2018-10-11 株式会社 日立産業制御ソリューションズ Moving route prediction device and method for predicting moving route

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016333A (en) * 2015-06-30 2017-01-19 Kddi株式会社 Moving object extraction apparatus, method and program
JP2018151834A (en) * 2017-03-13 2018-09-27 パナソニック株式会社 Lost child detection device and lost child detection method
JP2018160219A (en) * 2017-03-24 2018-10-11 株式会社 日立産業制御ソリューションズ Moving route prediction device and method for predicting moving route

Also Published As

Publication number Publication date
JP7407677B2 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
KR101942808B1 (en) Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN
JP6276519B2 (en) Person counting device and human flow line analyzing device
JP5390322B2 (en) Image processing apparatus and image processing method
JP6674584B2 (en) Video surveillance system
JP2020014210A (en) Information processing system, information processing method, and program
JP6729793B2 (en) Information processing apparatus, control method, and program
JP6555906B2 (en) Information processing apparatus, information processing method, and program
JP5832910B2 (en) Image monitoring device
JP2019067208A (en) Image processing apparatus, image processing method, and program
JP2012088787A (en) Image processing device, image processing method
KR102332229B1 (en) Method for Augmenting Pedestrian Image Data Based-on Deep Learning
WO2019220589A1 (en) Video analysis device, video analysis method, and program
US20120155707A1 (en) Image processing apparatus and method of processing image
Nguyen et al. Single camera based fall detection using motion and human shape features
JP2016095701A (en) Image processing apparatus, image processing method, and program
CN115661698B (en) Escalator passenger abnormal behavior detection method, system, electronic device and storage medium
JP2022037331A (en) Lost child detectors, lost child detection methods, and programs
CN114764895A (en) Abnormal behavior detection device and method
JPWO2008035411A1 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP2012128693A (en) Video processing device, video processing method and program
JP6954416B2 (en) Information processing equipment, information processing methods, and programs
JP7566586B2 (en) Estimation device, estimation system, estimation method, and program
JPH11328365A (en) Image monitoring apparatus and method
JP5864231B2 (en) Moving direction identification device
JP7275863B2 (en) Image processing device, image processing device control method, and image processing device control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230104

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231219

R150 Certificate of patent or registration of utility model

Ref document number: 7407677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150