JP2019066909A - Object distribution estimation device - Google Patents
Object distribution estimation device Download PDFInfo
- Publication number
- JP2019066909A JP2019066909A JP2017188324A JP2017188324A JP2019066909A JP 2019066909 A JP2019066909 A JP 2019066909A JP 2017188324 A JP2017188324 A JP 2017188324A JP 2017188324 A JP2017188324 A JP 2017188324A JP 2019066909 A JP2019066909 A JP 2019066909A
- Authority
- JP
- Japan
- Prior art keywords
- image
- density
- unit
- photographed
- recognition means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定する。【解決手段】画像取得手段30は撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する。密度推定手段50および単体識別手段51はそれぞれが、撮影画像内の任意の位置に撮影された物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の認識器を用いて物体数の当該範囲ごとに設けられた複数の認識手段である。手法マップ記憶手段42は、撮影画像内の位置と、複数の認識手段のうち当該位置にて物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する。分布推定手段52は手法マップ記憶手段42に記憶される精度保証認識手段により撮影画像内にて取得した物体数から、空間における物体の分布情報を生成する。【選択図】図2PROBLEM TO BE SOLVED: To estimate highly accurate information on the distribution of an object in a wide range from a photographed image of a space where congestion may occur in a wide field of view. An image acquisition means 30 acquires a photographed image of a space in which a predetermined object photographed by a photographing unit may exist. The density estimation means 50 and the single identification means 51 are recognition means for recognizing the number of objects photographed at arbitrary positions in the captured image, and a plurality of recognizers having different ranges of the number of recognizable objects can be recognized. It is a plurality of recognition means provided for each corresponding range of the number of objects used. The method map storage means 42 stores the position in the captured image in association with the accuracy guarantee recognition means capable of recognizing the number of objects at the position with an accuracy equal to or higher than a predetermined lower limit value among the plurality of recognition means. .. The distribution estimation means 52 generates distribution information of objects in space from the number of objects acquired in the captured image by the accuracy guarantee recognition means stored in the method map storage means 42. [Selection diagram] Fig. 2
Description
本発明は、人等の所定の物体が存在し得る空間が撮影された撮影画像から物体の分布を推定する物体分布推定装置に関し、特に、混雑が生じ得る空間が撮影された撮影画像から物体の分布を推定する物体分布推定装置に関する。 The present invention relates to an object distribution estimation apparatus for estimating the distribution of an object from a photographed image in which a space in which a predetermined object such as a person can exist is photographed, and in particular, a photographed image in which a space where congestion may occur is photographed. The present invention relates to an object distribution estimation apparatus that estimates a distribution.
マラソンやパレード等のイベントが開催される会場のように混雑が発生し得る空間においては事故防止等のために、混雑が発生している区域に警備員を多く配置するなどの対応が求められる。そこで、会場の各所に監視カメラを配置して撮影画像から人の分布状況を推定し、分布状況を表示することによって監視効率向上が期待できる。 In places where congestions may occur, such as marathons and events where parades and other events are held, it is required to provide a large number of security guards in areas where congestion occurs, for the purpose of preventing accidents and the like. Therefore, surveillance efficiency can be expected to be improved by arranging surveillance cameras at various places in the hall, estimating the distribution of persons from the photographed image, and displaying the distribution.
撮影画像からイベント会場に存在している人を検出する方法の1つとして、予め人の画像の特徴を学習した認識器によって撮影画像を探索する方法がある。 One of the methods for detecting a person present in the event hall from the photographed image is a method of searching for the photographed image by a recognizer that has learned the features of the human image in advance.
例えば、下記特許文献1に記載の物体検出装置においては、認識器として、多数の「人」の画像データおよび「人以外」の画像データを用いて予め学習させた識別器を用いて入力画像から人を検出することが記載されている。 For example, in the object detection device described in Patent Document 1 below, an input image is generated using a classifier that has been learned in advance using multiple “person” image data and “non-person” image data as a recognizer. Detecting a person is described.
また、下記特許文献2に記載の群衆解析装置においては、予め密度下限値を超えた人物密度の群衆が撮影された学習画像を用いて人物密度ごとに機械学習した識別器を用い人物密度を推定することによって、群衆の発生を判定することが記載されている。 Further, in the crowd analysis device described in Patent Document 2 below, the person density is estimated using a classifier that has been machine-learned for each person density using a learning image in which a crowd of people density exceeding the density lower limit is photographed in advance. By doing, it is described to determine the occurrence of the crowd.
以下、一人ひとりの人を認識する認識器を単体識別器、人物密度を推定する認識器を密度推定器と称する。 Hereinafter, a recognizer that recognizes each person is referred to as a single identifier, and a recognizer that estimates human density is referred to as a density estimator.
ところで、イベント会場は一般に広大であるため設置・運用コストの観点から、各監視カメラの視野を広くして設置台数を減ずることが要請される。 By the way, since the event hall is generally large, it is required to widen the field of view of each monitoring camera and reduce the number of installed cameras from the viewpoint of installation and operation costs.
しかしながら、単体識別器と密度推定器とは、それぞれの学習画像の特性によって確度の高い認識が可能な解像度のレンジが異なる。一方、広い視野で撮影した撮影画像においては、カメラから人までの距離に応じた人の像の解像度低下が顕著に生じる。 However, the single classifier and the density estimator have different resolution ranges that can be recognized with high accuracy depending on the characteristics of the respective learning images. On the other hand, in the photographed image photographed in a wide field of view, the resolution of the image of the person according to the distance from the camera to the person is remarkably reduced.
そのため、広い視野で撮影した撮影画像に対し、認識器をその特性を考慮せずに用いると確度の高い情報を提供することが困難となる問題があった。 Therefore, there is a problem that it is difficult to provide highly accurate information if a recognizer is used without taking into consideration the characteristics of a photographed image photographed in a wide field of view.
すなわち、単体識別器は一人ひとりの人の位置を認識可能であるのに対して、密度推定器は一人ひとりの人の位置までは認識できない。また、一般には認識対象となる画像(撮影画像の一部)の解像度が学習画像よりも低くなると認識精度は低下すること、および単体識別器の学習は単独の人の像が占める学習画像を用いて行われるのに対して密度推定器の学習は複数の人の像が写り得る視野の学習画像を用いて行われることから、カメラから人までの距離に応じた認識精度低下は密度推定器よりも単体識別器の方が生じやすい。 That is, while the single classifier can recognize the position of each person, the density estimator can not recognize the positions of each person. Also, in general, when the resolution of the image to be recognized (part of the photographed image) becomes lower than that of the learning image, the recognition accuracy decreases, and the learning of the single classifier uses the learning image occupied by the image of a single person. Since the learning of the density estimator is performed using the learning image of the field of view in which the images of a plurality of people can be taken while the recognition accuracy is reduced according to the distance from the camera to the person It is more likely that a single discriminator will occur.
よって、撮影画像におけるカメラ近傍の領域の人の分布は単体識別器により認識した方が詳細な情報を提供できるが、遠方の領域の人の分布までも単体識別器により認識しようとすれば確度の低い情報を提供してしまうことになる。他方、遠方の領域の人の分布は密度推定器により認識した方が確度の高い情報を提供できるが、カメラ近傍の領域の人の分布までも密度推定器により認識しようとすれば詳細な情報を提供し損ねてしまうことになる。 Therefore, the person distribution in the area near the camera in the captured image can provide more detailed information if it is recognized by the single-body discriminator, but if even the distribution of the person in the distant area is to be recognized by the single-body discriminator It will provide low information. On the other hand, although the distribution of people in the distant area can provide more accurate information if it is recognized by the density estimator, it is possible to recognize even the distribution of people in the area near the camera by the density estimator. It will fail to provide.
本発明は、上記問題を鑑みてなされたものであり、混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定できる物体分布推定装置を提供することを目的とする。 The present invention has been made in view of the above problems, and provides an object distribution estimation apparatus capable of estimating, in a wide range, information with high accuracy regarding the distribution of objects from a photographed image obtained by photographing a space where congestion may occur with a wide view. The purpose is
(1)本発明に係る物体分布推定装置は、撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、それぞれが、撮影された前記物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、前記撮影画像内の任意の位置に撮影された前記物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の前記認識器を用いて前記物体数の当該範囲ごとに設けられた複数の認識手段と、前記撮影画像内の位置と、前記複数の認識手段のうち当該位置にて前記物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した物体数から、前記空間における前記物体の分布情報を生成する分布推定手段と、を備える。 (1) The object distribution estimation apparatus according to the present invention is different from the image acquisition means for acquiring a photographed image of a space where a predetermined object photographed by the photographing unit may exist, and the number of photographed objects is different. A recognition unit that recognizes the number of objects photographed at an arbitrary position in the photographed image using a recognizer that learns in advance the features of each of a plurality of types of learning images, and the number of objects that can be recognized is mutually different The plurality of recognition means provided for each relevant range of the number of objects using a plurality of different recognition devices, the position in the photographed image, and the number of objects in advance at the position among the plurality of recognition means A storage unit that associates and stores an accuracy guarantee recognition unit that can be recognized with an accuracy equal to or higher than a defined lower limit, and the number of objects acquired in the photographed image by the accuracy guarantee recognition unit stored in the storage unit , And a distribution estimating means for generating distribution information of the object in the serial space.
(2)上記(1)に記載の物体分布推定装置において、前記認識手段が前記下限値以上の精度で認識可能である前記物体の像に関しての解像度の下限値を当該認識手段の限界解像度と定め、前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置での前記物体の像の前記解像度が前記限界解像度以上となるものを前記精度保証認識手段として関連付けて記憶している構成とすることができる。 (2) In the object distribution estimation device according to (1), the lower limit value of the resolution of the image of the object which can be recognized with accuracy higher than the lower limit value by the recognition means is determined as the limit resolution of the recognition means. The storage means is one of the plurality of recognition means with respect to a position in the photographed image, one in which the resolution of the image of the object at the position is equal to or more than the limit resolution. It is possible to associate and store the configuration.
(3)上記(2)に記載の物体分布推定装置において、前記物体の像の画素数によって前記解像度を表し、前記限界解像度に対応する前記画素数を限界画素数として、前記空間内に存在する前記物体を模したモデルを前記撮影部の撮影面に投影して投影像を生成する投影手段と、前記撮影画像内の位置に対して、当該位置に生成される前記投影像の画素数と前記複数の認識手段それぞれの前記限界画素数とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、をさらに備えた構成とすることができる。 (3) In the object distribution estimation device according to (2), the resolution is represented by the number of pixels of the image of the object, and the number of pixels corresponding to the limit resolution is present in the space as the limit number of pixels. A projection unit configured to project a model imitating the object on a shooting surface of the shooting unit to generate a projected image; and for a position in the shot image, the number of pixels of the projection image generated at the position and the number The image processing apparatus may further include selection means for comparing the limit pixel number of each of the plurality of recognition means and selecting the accuracy assurance recognition means to be associated with the position.
(4)上記(2)に記載の物体分布推定装置において、前記空間における前記撮影部から前記物体までの距離によって前記解像度を推定し、前記限界解像度に対応する前記距離を限界距離として、前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置に撮影される前記物体についての前記距離が前記限界距離以下となるものを前記精度保証認識手段として関連付けて記憶している構成とすることができる。 (4) In the object distribution estimation device according to (2), the resolution is estimated based on a distance from the imaging unit to the object in the space, and the storage corresponding to the limit resolution is used as a limit distance. The means associates the position in the photographed image with one of the plurality of recognition means in which the distance for the object photographed at the position is equal to or less than the limit distance as the accuracy assurance recognition means. The configuration can be stored.
(5)上記(4)に記載の物体分布推定装置において、前記撮影画像における位置を前記空間における前記物体に応じた高さの水平面に逆投影して物体仮想位置を求める投影手段と、前記撮影画像内の位置に対して、当該位置に対応する前記物体仮想位置と前記撮影部との距離と、前記複数の認識手段それぞれの前記限界距離とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、をさらに備えた構成とすることができる。 (5) In the object distribution estimation apparatus according to (4), projection means for backprojecting a position in the photographed image on a horizontal plane at a height corresponding to the object in the space to obtain an object virtual position; The accuracy assurance recognition in which the distance between the virtual position of the object corresponding to the position and the photographing unit and the limit distance of each of the plurality of recognition means are compared with the position in the image and associated with the position. And a selection means for selecting a means.
(6)他の本発明に係る物体分布推定装置は、撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を予め学習した密度推定器を用い、前記撮影画像内の任意の位置に撮影された前記物体の前記密度を認識する密度推定手段と、単独の前記物体が撮影された単体画像の特徴を予め学習した単体識別器を用い、前記撮影画像内の任意の位置に撮影された前記物体の有無を認識する単体識別手段と、前記撮影画像内の位置と、前記密度推定手段および前記単体識別手段のうち当該位置にて前記物体の密度または有無を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した前記物体の密度または有無から、前記空間における前記物体の分布情報を生成する分布推定手段と、を備える。 (6) Another object distribution estimation apparatus according to the present invention is an image acquisition unit for acquiring a photographed image of a space in which a predetermined object photographed by the photographing unit may exist, and the above-mentioned density at each predetermined density. A density estimation unit that recognizes the density of the object captured at an arbitrary position in the captured image using a density estimator that learns in advance features of density images obtained by capturing a space in which the object exists; A single identification means for recognizing the presence or absence of the object photographed at an arbitrary position in the photographed image using a single classifier which previously learned the features of the single image in which the object is photographed; a position in the photographed image And storage means for associating and storing the density estimation means and the single identification means among the accuracy assurance recognition means capable of recognizing the density or presence of the object at the position with an accuracy equal to or higher than a predetermined lower limit at a predetermined position. , From the density or the presence or absence of the object acquired in the captured image by the accuracy assurance recognizer stored in the storage unit, and a distribution estimating means for generating distribution information of the object in the space.
本発明によれば、混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定できる。 According to the present invention, it is possible to estimate, in a wide range, highly accurate information on the distribution of an object from a photographed image obtained by photographing a space where congestion may occur with a wide view.
以下、本発明の実施の形態(以下実施形態という)に係る物体分布推定装置1について、図面に基づいて説明する。 Hereinafter, an object distribution estimation apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described based on the drawings.
[物体分布推定装置1の構成]
図1は物体分布推定装置1の概略の構成を示すブロック図である。物体分布推定装置1は、撮影部2、通信部3、記憶部4、画像処理部5、操作部6、表示制御部7および表示部8からなる。
[Configuration of Object Distribution Estimation Device 1]
FIG. 1 is a block diagram showing a schematic configuration of the object distribution estimation apparatus 1. As shown in FIG. The object distribution estimation device 1 includes a photographing unit 2, a
撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、所定の物体が混雑し得る所定の空間を所定の時間間隔で撮影して撮影画像を出力する撮影手段である。以下、撮影部2が撮影する部分を対象空間と称する。
The photographing unit 2 is a monitoring camera, and is connected to the
例えば、撮影部2は、イベント会場に設置されたポールに対象空間を俯瞰する視野を有して設置される。その視野は固定されていてもよいし、通信部3を介した外部からの指示に従って変更されてもよい。また、例えば、撮影部2は対象空間をフレーム周期1/5秒で撮影してカラー画像を生成する。カラー画像の代わりにモノクロ画像を生成してもよい。
For example, the photographing unit 2 is installed on a pole installed at the event hall with a view that overlooks the target space. The field of view may be fixed or may be changed in accordance with an external instruction via the
通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示制御部7と接続される。通信部3は、撮影部2から撮影画像を取得して画像処理部5に入力し、画像処理部5から入力された情報を表示制御部7に出力する。
The
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。
The storage unit 4 is a memory device such as a read only memory (ROM) or a random access memory (RAM), and stores various programs and various data. The storage unit 4 is connected to the
画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、また記憶部4から読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示制御部7とも接続され、通信部3経由で撮影部2から取得した撮影画像を解析することにより、撮影されている人の分布を推定し、推定結果を記した分布画像等の分布情報を通信部3経由で表示制御部7に出力する。
The
操作部6は表示制御部7に対する入力機器であり、キーボード及びマウス等で構成される。操作部6は表示制御部7に接続され、監視員による指示操作を受け付け、当該指示操作を表示制御部7に出力する。
The operation unit 6 is an input device for the
表示制御部7はPC(Personal Computer)等で構成され、ROM、RAM等のメモリ装置等で構成される記憶部(不図示)、通信部3が接続されている通信網とのインターフェース回路である通信部(不図示)、および、CPU、MCU、IC等の演算装置等で構成される制御部(不図示)を備える。表示制御部7は通信網を介して通信部3に接続されるとともに、操作部6および表示部8と接続される。表示制御部7は画像処理部5からの情報を通信部3から受信して記憶するとともに、監視員による操作指示を操作部6から入力され、記憶した情報のうち操作指示に応じた情報を表示部8に出力する。
The
表示部8は、液晶ディスプレイまたはCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3および表示制御部7を介して画像処理部5と接続され、画像処理部5により生成された情報を表示する表示手段である。監視員は表示された情報を視認して混雑の発生等を判断し、必要に応じて人員配置の変更等の対処を行う。
The display unit 8 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and is connected to the
なお、本実施形態においては、撮影部2と画像処理部5の個数が1対1である物体分布推定装置1を例示するが、別の実施形態においては、撮影部2と画像処理部5の個数を多対1或いは多対多とすることもできる。
In the present embodiment, the object distribution estimation apparatus 1 in which the number of the imaging unit 2 and the number of the
[物体分布推定装置1の機能]
図2および図3は物体分布推定装置1の機能を示す機能ブロック図である。そのうち、図2は撮影画像を基にした分布推定処理を行うときの機能ブロック図である。また、図3は分布推定処理に先立って手法マップ作成処理を行うときの機能ブロック図である。
[Function of Object Distribution Estimation Device 1]
2 and 3 are functional block diagrams showing functions of the object distribution estimation apparatus 1. Among them, FIG. 2 is a functional block diagram when performing distribution estimation processing based on a photographed image. Further, FIG. 3 is a functional block diagram when the method map creation processing is performed prior to the distribution estimation processing.
(分布推定処理)
物体分布推定装置1の機能のうち、まず、分布推定処理に関して説明する。分布推定処理を行うとき(図2)、通信部3は画像取得手段30および分布情報出力手段31等として機能し、記憶部4は密度推定器記憶手段40、単体識別器記憶手段41、手法マップ記憶手段42、物体モデル記憶手段43(図2においては不図示)およびカメラパラメータ記憶手段44(図2においては不図示)等として機能し、画像処理部5は密度推定手段50、単体識別手段51、分布推定手段52等として機能する。
(Distribution estimation process)
Among the functions of the object distribution estimation apparatus 1, the distribution estimation process will be described first. When the distribution estimation process is performed (FIG. 2), the
これらのうちの密度推定手段50および単体識別手段51のそれぞれは、撮影されている物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、撮影画像内の任意の位置に撮影された物体の数を認識する認識手段であり、密度推定手段50と単体識別手段51とは、認識可能な物体の数の範囲が互いに異なる複数の認識器を用いて物体数の当該範囲ごとに設けられた複数の認識手段をなす。例えば、密度推定手段50は、0人/m2の密度、0人/m2より高く2人/m2以下の密度、2人/m2より高く4人/m2以下の密度および4人/m2より高い密度の学習画像を用いて学習した認識器を用い、撮影画像内の任意の位置に設定される領域を窓として、窓内が0人/m2の密度、0人/m2より高く2人/m2以下の密度、2人/m2より高く4人/m2以下の密度および4人/m2より高い密度のいずれであるかを認識する。また例えば、単体識別手段51は0人および1人の学習画像を用いて学習した認識器を用い、窓内が0人および1人のいずれであるかを認識する。つまり、密度推定手段50は物体の数として窓内の物体の密度を認識し、またその範囲の下限は0人/m2である一方、上は4人/m2を超える値にまで及ぶ。これに対し、単体識別手段51が窓内にて認識可能な物体の数の範囲は0および1である。
Among these, each of the density estimation means 50 and the simple identification means 51 uses a recognizer which has previously learned the features of each of a plurality of types of learning images different in the number of objects being photographed, and any position within the photographed image The density estimation means 50 and the simple identification means 51 are the recognition means for recognizing the number of objects that can be recognized using a plurality of recognizers that are different from each other in the range of the number of recognizable objects. Provide a plurality of recognition means provided for each. For example, the
画像取得手段30は、撮影手段である撮影部2から撮影画像を順次取得して、取得した撮影画像を密度推定手段50および単体識別手段51に順次出力する。
The
密度推定器記憶手段40は、所定の密度ごとに当該密度にて物体(人)が存在する空間を撮影した密度画像それぞれの画像特徴を学習した推定密度算出関数であって、画像の特徴量を入力されると当該画像に撮影されている物体の密度の推定値(推定密度)を算出し、算出した推定密度を出力する推定器(密度推定器)の情報を予め記憶している。つまり上記推定密度算出関数の係数等のパラメータを密度推定器の情報として予め記憶している。 The density estimator storage means 40 is an estimated density calculation function which learns image features of each density image obtained by photographing a space in which an object (person) exists at the density for each predetermined density, and the feature amount of the image is calculated When input, an estimated value (estimated density) of the density of an object captured in the image is calculated, and information of an estimator (density estimator) which outputs the calculated estimated density is stored in advance. That is, parameters such as coefficients of the estimated density calculation function are stored in advance as information of the density estimator.
密度推定手段50は、画像取得手段30から入力された撮影画像の各所から密度推定用の特徴量(推定用特徴量)を抽出するとともに密度推定器記憶手段40から密度推定器を読み出して、抽出した推定用特徴量のそれぞれを密度推定器に入力することによって推定密度の分布(密度分布)を推定し、推定した密度分布を分布推定手段52に出力する。好適には密度推定手段50はさらに密度分布を単体識別手段51にも出力する。
The
密度推定の処理と密度推定器について具体的に説明する。 The process of density estimation and the density estimator will be specifically described.
密度推定手段50は、撮影画像の各画素の位置に窓(推定用抽出窓)を設定し、各推定用抽出窓における撮影画像から推定用特徴量を抽出する。推定用特徴量はGLCM(Gray Level Co-occurrence Matrix)特徴である。
The
各推定用抽出窓に撮影されている対象空間内の領域は同一サイズであることが望ましい。そこで、好適には密度推定手段50はこの点に配慮した処理を行う。当該処理に際し、密度推定手段50はカメラパラメータ記憶手段44(図2においては不図示)を利用する。
It is desirable that the regions in the target space captured by the estimation extraction windows have the same size. Therefore, preferably, the
カメラパラメータ記憶手段44は、撮影部2のカメラパラメータを記憶している。カメラパラメータは、実空間における撮影部2の設置位置および撮影方向といった外部パラメータ、撮影部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む情報である。
The camera
密度推定手段50はカメラパラメータ記憶手段44から撮影部2のカメラパラメータを読み出し、カメラパラメータを用いたホモグラフィ変換により撮影画像の任意の画素に撮影されている対象空間内の領域が同一サイズとなるように撮影画像を変形してから推定用特徴量を抽出する。
The
密度推定器は多クラスの画像を識別する識別器で実現することができ、多クラスSVM(Support Vector Machine)法で学習した識別関数とすることができる。 The density estimator can be realized by a classifier that identifies multiple classes of images, and can be a classification function learned by the multiclass Support Vector Machine (SVM) method.
密度は、例えば、人が存在しない「背景」クラス、0人/m2より高く2人/m2以下である「低密度」クラス、2人/m2より高く4人/m2以下である「中密度」クラス、4人/m2より高い「高密度」クラスの4クラスと定義することができる。 The density is, for example, a "background" class in which there are no people, a "low density" class which is higher than 0 person / m 2 and not more than 2 people / m 2, and not less than 2 people / m 2 and not more than 4 people / m 2 It can be defined as four classes of "medium density" class and "high density" class higher than 4 persons / m 2 .
推定密度は各クラスに予め付与された値であり、分布推定の結果として出力される値である。本実施形態では各クラスに対応する値を「背景」、「低密度」、「中密度」、「高密度」と表記する。 The estimated density is a value given in advance to each class, and is a value output as a result of distribution estimation. In the present embodiment, values corresponding to each class are described as “background”, “low density”, “medium density”, and “high density”.
すなわち、密度推定器は「背景」クラス、「低密度」クラス、「中密度」クラス、「高密度」クラスのそれぞれに帰属する多数の密度画像の特徴量に多クラスSVM法を適用して学習した、各クラスの画像を他のクラスと識別するための識別関数である。この学習により導出された識別関数のパラメータが密度推定器として記憶されている。なお、密度画像の特徴量は、推定用特徴量と同種であり、GLCM特徴である。 That is, the density estimator learns by applying the multiclass SVM method to the feature quantities of many density images belonging to each of the "background" class, the "low density" class, the "medium density" class, and the "high density" class. It is an identification function for identifying each class image from other classes. The parameters of the discriminant function derived by this learning are stored as a density estimator. The feature amount of the density image is the same as the feature amount for estimation, and is a GLCM feature.
密度推定手段50は、各画素に対応して抽出した推定用特徴量のそれぞれを密度推定器に入力することによってその出力値である推定密度を取得する。なお、撮影画像を変形させて推定用特徴量を抽出した場合、密度推定手段50は、カメラパラメータを用いたホモグラフィ変換により密度分布を元の撮影画像の形状に変形させる。
The density estimation means 50 acquires estimated density which is the output value by inputting each of the feature quantities for estimation extracted corresponding to each pixel to the density estimator. When the photographed image is deformed and the estimation feature amount is extracted, the
こうして得られた、撮影画像の画素ごとの推定密度の集まりが密度分布である。 A group of estimated densities for each pixel of the captured image obtained in this manner is a density distribution.
密度推定手段50が出力する密度分布から撮影画像の各所における人の粗密状況が分かるが、密度分布から個々の人の位置までは分からない。これに対し、単体識別手段51は、撮影画像の各位置における人の有無を識別することでより詳細な情報(人の位置)を得る手段である。
The density distribution outputted by the density estimating means 50 indicates the density of people in each part of the photographed image, but the density distribution does not indicate the position of each person. On the other hand, the
単体識別器記憶手段41は、単独の人(物体)の画像特徴を学習した識別器(単体識別器)の情報を記憶している。 The single identifier storage means 41 stores information of a identifier (single identifier) that has learned the image features of a single person (object).
図4は、予め単体識別器記憶手段41が記憶している単体識別器の情報を模式的に表した図である。 FIG. 4 is a diagram schematically representing the information of the single-piece discriminator stored in advance by the single-piece discriminator storage means 41. As shown in FIG.
単体識別器は、画像の特徴量を入力されると当該画像が単独の人が撮影されている画像(単体画像)であることの尤もらしさを表す評価値(識別スコア)を算出して出力する評価値算出関数の係数、および識別スコアに対して適用する閾値等のパラメータで表される。 The single-body discriminator calculates and outputs an evaluation value (identification score) representing the likelihood that the image is a single person image (single-body image) when the image feature amount is input. It is represented by parameters such as a coefficient of the evaluation value calculation function and a threshold applied to the identification score.
単体識別器は多数の単体画像とそれぞれが人以外しか写っていない多数の無人画像とからなる学習用画像の特徴量に線形SVM法を適用して学習した識別器とすることができる。 The single-piece discriminator can be a discriminator learned by applying the linear SVM method to the feature amount of a learning image consisting of a large number of single-piece images and a large number of unmanned images in which each person is only a person.
学習アルゴリズムとして線形SVMを用いた場合、評価値算出関数の係数は重みベクトルである。この重みベクトルは、特徴量の各要素に対する重みであり、入力された画像の特徴量と重みベクトルとの内積の値が識別スコアを表す。学習において、当該重みベクトルと特徴量との内積が0より大きい場合は人、0以下の場合は人以外と識別されるように調整される。よって、入力された画像が単体画像であるか否かを識別する閾値は原理上は0であり、通常、閾値は0に設定することができる。ただし、単体画像を単体画像でないと識別する誤りを減じるために、閾値を0よりも小さな値に設定してもよい。 When a linear SVM is used as a learning algorithm, the coefficient of the evaluation value calculation function is a weight vector. The weight vector is a weight for each element of the feature amount, and the value of the inner product of the feature amount of the input image and the weight vector represents the identification score. In learning, when the inner product of the weight vector and the feature amount is larger than 0, it is adjusted so as to be identified as a person, and when less than 0, it is identified as other than a person. Therefore, the threshold for identifying whether or not the input image is a single image is in principle 0, and the threshold can generally be set to 0. However, the threshold may be set to a value smaller than 0 in order to reduce an error in identifying a single image as not being a single image.
なお、学習用画像の特徴量はHOG(Histograms of Oriented Gradients)特徴量である。 Note that the feature amounts of the learning image are HOG (Histograms of Oriented Gradients) feature amounts.
単体識別器記憶手段41が記憶している単体識別器は、密度が高いほど単独の物体を構成する部分のうちの少ない部分の画像特徴を学習した識別器となっている。単体識別器記憶手段41は、低密度クラスを表す値と対応付けて単独の人の全身の画像特徴を学習した単体識別器である全身識別器100、中密度クラスを表す値と対応付けて単独の人の上部2/3の画像特徴を学習した単体識別器である上半身識別器101、高密度クラスを表す値と対応付けて単独の人の上部1/3の画像特徴を学習した単体識別器である頭部近傍識別器102を記憶している。
The single-piece classifier stored in the single-piece
全身識別器100は単独の人の全身が撮影された単体画像を用いて学習した単体識別器であり、上半身識別器101は単独の人の上部2/3が撮影された単体画像(人の全身が撮影された単体画像の上部2/3を切り出した画像など)を用いて学習した単体識別器であり、頭部近傍識別器102は単独の人の上部1/3が撮影された単体画像(人の全身が撮影された単体画像の上部1/3を切り出した画像など)を用いて学習した単体識別器である。
The whole-
単体識別手段51は、画像取得手段30から入力された撮影画像の各位置から単体識別用の特徴量(識別用特徴量)を抽出するとともに単体識別器記憶手段41から単体識別器を読み出して、抽出した識別用特徴量のそれぞれを単体識別器に入力することによって物体の有無を識別し、各位置における物体の有無を分布推定手段52に出力する。
The
具体的には単体識別手段51は、まず、撮影画像内に所定間隔にて複数の候補位置を設定する。所定間隔は1画素であり、単体識別手段51は撮影画像の各画素の位置を順次候補位置に設定する。なお候補位置は人の頭部重心を表すものとする。
Specifically, the
また、単体識別手段51は、各候補位置に単独の人の上部1/3の形状に定められた窓を設定するとともに密度推定手段50から入力された密度分布を参照し、当該窓内の推定密度を集計する。そして、単体識別手段51は、各候補位置における最多の推定密度を当該候補位置の密度と決定する。
In addition, the single-piece identification means 51 sets a window defined in the shape of the upper third of a single person at each candidate position and refers to the density distribution input from the density estimation means 50 to estimate the inside of the window Aggregate the density. Then, the
また、単体識別手段51は、各候補位置に当該候補位置の密度に応じた識別用抽出窓を設定し、識別用抽出窓内の撮影画像から識別用特徴量を抽出する。識別用抽出窓は、各密度に応じた単体識別器の学習に用いた単体画像の形状を有し、予め定めた複数の倍率で拡大・縮小した大きさの窓である。すなわち、識別用抽出窓は、候補位置の密度が低密度であれば単独の人の全身の形状に定められた窓であり、中密度であれば単独の人の上部2/3の形状に定められた窓であり、高密度であれば単独の人の上部1/3の形状に定められた窓である。
Further, the
また、単体識別手段51は、候補位置ごとに当該候補位置の密度に応じた単体識別器を単体識別器記憶手段41から読み出す。すなわち、単体識別手段51は、候補位置の密度が低密度であれば全身識別器を読み出し、中密度であれば上半身識別器を読み出し、高密度であれば頭部近傍識別器を読み出す。そして、単体識別手段51は、各候補位置について、読み出した単体識別器に当該候補位置から抽出した識別用特徴量を入力し、その出力値である識別スコアを当該候補位置の評価値として取得する。
In addition, the
そして、単体識別手段51は、候補位置ごとの密度、評価値を参照し、予め定めた基準を満たす評価値が算出された候補位置を物体が存在する位置、それ以外の候補位置を物体が存在しない位置と決定する。
Then, the single-
具体的には、単体識別手段51は、識別スコアがそれに対応する閾値以上である候補位置を抽出し、抽出した候補位置のうち対応する密度が同一であり且つ互いに近接する複数の候補位置を一つにまとめ、まとめた候補位置を人が存在する位置と決定する。
Specifically, the
この候補位置をまとめる処理は、実際に人が撮影されている位置に加えてその近傍においても同一人物に対して高い識別スコアが算出されることに対処するために行う。具体的には、例えば、単体識別手段51は、密度ごとに、閾値以上の識別スコアが算出された候補位置を識別スコアが高い順に順次、注目位置に設定するとともに注目位置より識別スコアが低い候補位置を比較位置に設定する。そして、単体識別手段51は、比較位置のうち当該比較位置に設定された識別用抽出窓と注目位置に設定された識別用抽出窓との重なりが予め定めた割合より大きい比較位置の情報を削除することで複数の候補位置を一つにまとめる。
The process of putting together the candidate positions is performed to cope with the fact that a high identification score is calculated for the same person in the vicinity as well as the position where the person is actually photographed. Specifically, for example, for each density, the single-
そして、単体識別手段51は、候補位置ごとの物体有無の情報を分布推定手段52に出力する。
Then, the
手法マップ記憶手段42は、撮影画像内の位置と、複数の認識手段のうちの、当該位置に窓が設定された場合に当該窓内に撮影されている物体の数を予め定めた下限値以上の精度で認識可能な精度保証認識手段とを関連付けた手法マップを記憶する。
The method
図5は、撮影画像およびこれに対応する手法マップの一例を示す模式図であり、図5(a)が撮影画像200を示し、図5(b)が撮影画像200に対応する手法マップ250を表形式で示している。密度推定手段50および単体識別手段51のそれぞれについては、様々な解像度のテスト画像を用いた事前の実験によって、下限値以上の精度で認識できる人の像の解像度の限界(限界解像度)が判明している。また、密度推定手段50および単体識別手段51には、それぞれを識別する符号(認識手段ID)として“A”および“B”が予め付与されている。
FIG. 5 is a schematic view showing an example of a photographed image and a method map corresponding thereto, and FIG. 5 (a) shows the photographed
図5の例において、撮影画像200中の領域201は、撮影部2から遠方に存在する人が撮影され得る領域である。領域201内の任意の位置に推定用抽出窓を設定した場合、推定用抽出窓内の人の像の解像度は密度推定手段50の限界解像度を下回らないため、密度推定手段50による密度推定結果が下限値以上の精度で得られる。また、領域201内の任意の位置に識別用抽出窓を設定した場合、識別用抽出窓内の人の像の解像度は単体識別手段51の限界解像度を下回り、単体識別手段51による識別結果が下限値以上の精度で得られない。
In the example of FIG. 5, an
以上のことに対応して、手法マップ250には、領域201内の画素群の座標[…,(X2,Y2),…]と対応付けて密度推定手段50に付与された符号Aが記憶されている。
Corresponding to the above, in the
また、図5の例において、撮影画像200中の領域202は、撮影部2の近傍に存在する人が撮影され得る領域である。領域202内の任意の位置に推定用抽出窓を設定した場合、推定用抽出窓内の人の像の解像度は密度推定手段50の限界解像度を下回らないため、密度推定手段50による密度推定結果が下限値以上の精度で得られる。また、領域202内の任意の位置に識別用抽出窓を設定した場合、識別用抽出窓内の人の像の解像度は単体識別手段51の限界解像度を下回らないため、単体識別手段51による識別結果が下限値以上の精度で得られる。
Further, in the example of FIG. 5, an
以上のことに対応して、手法マップ250には、領域202内の画素群の座標[…,(X3,Y3),…]と対応付けて密度推定手段50に付与された符号Aと単体識別手段51に付与された符号Bとが記憶されている。
Corresponding to the above, in the
分布推定手段52は、複数の認識手段が認識した位置ごとの物体の数のうち、手法マップ記憶手段42に当該位置と関連付けて記憶されている精度保証認識手段が認識した数から対象空間における物体の分布情報を生成し、生成した分布情報を分布情報出力手段31に出力する。 The distribution estimation means 52 is an object in the target space from the number recognized by the accuracy assurance recognition means stored in association with the position in the method map storage means 42 among the number of objects at each position recognized by the plurality of recognition means. Distribution information is generated, and the generated distribution information is output to the distribution information output means 31.
具体的には、分布推定手段52は、密度推定手段50から入力された位置ごとの物体の密度の情報、単体識別手段51から入力された位置ごとの物体の有無の情報、および手法マップ記憶手段42に記憶されている手法マップを参照し、精度保証認識手段が認識した数に基づいて分布画像を生成する。 Specifically, the distribution estimation means 52 includes information on the density of the object at each position input from the density estimation means 50, information on the presence / absence of an object at each position input from the simplex identification means 51, and a method map storage means The distribution map is generated based on the number recognized by the accuracy assurance recognition means with reference to the method map stored in S.42.
例えば、分布推定手段52は、手法マップにおいて符号Aおよび符号Bと対応付けられており且つ物体が存在すると認識された画素位置に、当該位置の推定密度に応じた色で着色した物体モデルを投影し、また、手法マップにおいて密度推定手段50を表す符号Aのみと対応付けられている位置の画素の値に、推定密度と対応する色をセットして分布画像を生成する。色は、例えば、推定密度が高密度であれば赤、中密度であれば黄、低密度であれば緑などとすることができる。 For example, the distribution estimation unit 52 projects an object model colored with a color according to the estimated density of the position to a pixel position that is associated with the code A and the code B in the method map and that an object is recognized to exist. Also, a color corresponding to the estimated density is set to the value of the pixel at the position associated with only the code A representing the density estimation means 50 in the method map to generate a distribution image. The color may be, for example, red if the estimated density is high, yellow if it is medium density, or green if it is low.
この分布画像の生成に際し、分布推定手段52は物体モデル記憶手段43に記憶されている物体モデルを利用する。物体モデル記憶手段43は、予め物体の形状を近似した物体モデルを記憶している。物体モデルは、立位の人の頭部、胴部、脚部に対応する3つの回転楕円体から構成される立体モデルである。ちなみに、頭部重心を人の代表位置とする。なお、立体モデルはより単純化して人全体を1つの回転楕円体で表すものとすることもできるし、より詳細に例えば、人の頭部、胴部、両腕、両脚を別々の回転楕円体で表すものとすることもできる。 In generating the distribution image, the distribution estimation means 52 uses the object model stored in the object model storage means 43. The object model storage means 43 stores an object model which approximates the shape of the object in advance. The object model is a three-dimensional model composed of three spheroids corresponding to the head, torso and legs of a standing person. By the way, let the center of gravity of the head be the representative position of a person. Note that the three-dimensional model can be simplified to represent the whole person as one spheroid, or more specifically, for example, a person's head, torso, both arms, and both legs may be separate spheroids. It can also be represented by
物体モデルの投影は、物体モデル記憶手段43から読み出した物体モデルと、カメラパラメータ記憶手段44から読み出したカメラパラメータとを用いて、後述する手法マップ生成処理の投影手段53と基本的に同様にして行われる。 The projection of the object model is basically the same as the projection means 53 of the method map generation process described later, using the object model read out from the object model storage means 43 and the camera parameters read out from the camera parameter storage means 44. To be done.
図6は図5の撮影画像200に対応する分布画像の一例を示す模式図である。図5の領域202は上述したように符号Aおよび符号Bが対応付けられており、当該領域に対応して図6には、物体が存在すると認識された画素位置に頭部重心を置いた物体モデルの投影像210〜212が当該画素位置の推定密度に応じた色で描かれる。ここで、各投影像のハッチングは推定密度に応じた色を表しており、投影像210の網掛けは推定密度が高密度であることに対応する色(上述の例では赤色)を表しており、同様に、投影像211の横線ハッチングおよび投影像212の斜線ハッチングは中密度、低密度に対応する色(上述の例ではそれぞれ黄色、緑色)を表している。
FIG. 6 is a schematic view showing an example of a distribution image corresponding to the photographed
図5の領域201は上述したように符号Aのみが対応付けられており、当該領域に対応する図6の領域220の各画素は推定密度に応じた色で表示される。具体的には、領域220内の部分領域221〜223のハッチングは上述の投影像210〜212と共通の色を表しており、部分領域221は高密度、部分領域222は中密度、部分領域223は低密度と推定された領域である。
As described above, the
なお、分布推定手段52は、撮影画像に上記分布画像を透過合成することによって分布画像を生成してもよい。或いは、分布推定手段52は、対象空間の地形や建造物を模した立体モデルの投影像に上記分布画像を透過合成することによって分布画像を生成してもよい。 The distribution estimation unit 52 may generate a distribution image by transparently combining the distribution image with the captured image. Alternatively, the distribution estimation unit 52 may generate a distribution image by transparently combining the distribution image with a projection image of a three-dimensional model that simulates the topography of a target space or a building.
分布情報出力手段31は、分布推定手段52から入力された分布情報を、表示制御部7経由で表示部8に伝送し、表示させる。
The distribution
(手法マップ作成処理)
続いて、物体分布推定装置1の機能のうち手法マップ作成処理に関して説明する。手法マップ作成処理を行うとき(図3)、記憶部4は手法マップ記憶手段42、物体モデル記憶手段43、カメラパラメータ記憶手段44、および限界値記憶手段45等として機能し、画像処理部5は投影手段53および適用手法選択手段54等として機能する。なお、手法マップを作成するタイミングは、手法マップが未だ記憶されていないとき、視野変更が行われたとき、または推定希望領域が変更されたときである。推定希望領域は、撮影画像内において監視員が物体分布推定装置1に物体の分布を推定させたいと希望する領域である。監視員が操作部6を用いて推定希望領域を入力すると、当該領域の情報が表示制御部7および通信部3を介して画像処理部5に入力される。
(Method map creation process)
Subsequently, among the functions of the object distribution estimation apparatus 1, a method map creation process will be described. When performing a method map creation process (FIG. 3), the storage unit 4 functions as a method
投影手段53は、操作部6を用いて入力された推定希望領域を参照するとともに、物体モデル記憶手段43から物体モデル、カメラパラメータ記憶手段44からカメラパラメータをそれぞれ読み出し、推定希望領域内の各画素位置に物体モデルを投影して投影像を生成し、生成した画素位置ごとの投影像を適用手法選択手段54に出力する。 The projection means 53 refers to the estimated desired area input using the operation unit 6 and reads out the object model from the object model storage means 43 and the camera parameters from the camera parameter storage means 44, and each pixel in the estimated desired area The object model is projected to the position to generate a projection image, and the generated projection image for each pixel position is output to the application method selection unit.
例えば、投影手段53は、カメラパラメータを用いて、対象空間を模した仮想空間の高さ160cmの水平面において推定希望領域内の各画素位置と対応する3次元位置を導出する。上記の高さ160cmは、上述したように頭部重心を人の代表位置としていることに対応して、対象空間において平均的な人の頭部の高さとして予め定めた数値である。そして、投影手段53は、導出した3次元位置を基準にして仮想空間に物体モデルを配置し、カメラパラメータを用いて、配置した物体モデルを撮影部2の撮影面に投影する。 For example, the projection unit 53 derives a three-dimensional position corresponding to each pixel position in the estimated desired area in the horizontal plane 160 cm high in the virtual space simulating the target space, using the camera parameter. The height 160 cm is a numerical value predetermined as the average height of the head of a person in the target space, corresponding to the center of gravity at the representative position of the person as described above. Then, the projection unit 53 arranges the object model in the virtual space on the basis of the derived three-dimensional position, and projects the arranged object model on the imaging plane of the imaging unit 2 using the camera parameters.
適用手法選択手段54は、推定希望領域内の各画素位置について、当該画素位置における物体の像の解像度を各認識手段の限界解像度と比較し、物体像の解像度が限界解像度以上である認識手段を精度保証認識手段として選択する。つまり、適用手法選択手段54は、投影手段53から入力された画素位置ごとの投影像の解像度と、限界値記憶手段45に記憶されている複数の認識手段それぞれの限界解像度とを参照して、推定希望領域内の各画素位置における精度保証認識手段を選択して、画素位置と精度保証認識手段との対応関係を手法マップ記憶手段42に記憶させる。
The application method selection means 54 compares the resolution of the image of the object at the pixel position with the limit resolution of each recognition means for each pixel position in the estimation desired area, and recognizes the recognition means whose resolution of the object image is at least the limit resolution. Select as accuracy assurance recognition means. That is, the application
具体的には、解像度は物体の像の画素数によって表すことができる。つまり、物体の像に対応する画素数が多いほど、その像は高解像度である。 Specifically, the resolution can be represented by the number of pixels of the image of the object. That is, the larger the number of pixels corresponding to the image of the object, the higher the resolution of the image.
この場合、限界解像度に対応する画素数を限界画素数として定義し、限界値記憶手段45には、限界解像度として当該限界画素数を記憶させることができる。また、適用手法選択手段54は、推定希望領域内の各画素位置について、当該画素位置の投影像の画素数を計数する。画素数の計数値が当該画素位置における物体の像の解像度となり、適用手法選択手段54は、当該計数値を各認識手段の限界画素数と比較し、計数値が限界画素数以上である認識手段を精度保証認識手段として選択する。
In this case, the number of pixels corresponding to the limit resolution can be defined as the limit pixel number, and the limit
図7は図5の撮影画像200に対応する手法マップの一例を示す模式図である。この例では、一点鎖線で囲む推定希望領域300に対して手法マップが作成される。投影手段53は、推定希望領域300内の画素群の位置[…,(x1,y1),…,(x2,y2),…,(x3,y3),…]に物体モデルを投影して投影像群[…,投影像310,…,投影像320,…,投影像330,…]を生成する。これら各投影像に対応して適用手法選択手段54は、各投影像の解像度[…,r1,…,r2,…,r3,…]を導出する。限界値記憶手段45には、密度推定手段50に付与された符号Aと対応付けてその限界解像度RA、単体識別手段51に付与された符号Bと対応付けてその限界解像度RBが記憶されている。本例では、画素位置(x1,y1)の投影像310の解像度r1についてr1<RA、r1<RBであり、画素位置(x2,y2)の投影像320の解像度r2についてr2>RA、r2<RBであり、画素位置(x3,y3)の投影像330の解像度r3についてr3>RA、r2>RBであるとする。適用手法選択手段54は、解像度[…,r1,…,r2,…,r3,…]をRAおよびRBのそれぞれと比較し、[…,(x1,y1)の精度保証認識手段は無し,…,(x2,y2)の精度保証認識手段は密度推定手段50,…,(x3,y3)の精度保証認識手段は密度推定手段50および単体識別手段51,…]と判定する。つまり、適用手法選択手段54は、推定希望領域300において画素位置(x1,y1)を含む領域311内の各画素位置については精度保証認識手段は無いと判定する一方、画素位置(x2,y2)を含む領域321内の各画素位置については符合Aとの関連付けを手法マップ記憶手段42に記憶させ、また、画素位置(x3,y3)を含む領域331内の各画素位置については符合Aおよび符号Bとの関連付けを手法マップ記憶手段42に記憶させる。
FIG. 7 is a schematic view showing an example of a method map corresponding to the photographed
[物体分布推定装置1の動作]
図8、図9および図10のフロー図を参照して物体分布推定装置1の動作を説明する。
[Operation of Object Distribution Estimation Device 1]
The operation of the object distribution estimation apparatus 1 will be described with reference to the flowcharts of FIGS. 8, 9 and 10.
図8は物体分布推定装置1の動作の概略のフロー図である。物体分布推定装置1が動作を開始すると、イベント会場に設置されている撮影部2は所定時間おきに監視空間を撮影して撮影画像を画像処理部5が設置されている画像解析センター宛に順次送信する。そして、画像処理部5は基本的に撮影画像を受信するたびに図8のフロー図に従い、ステップS5〜S10の分布推定処理に関する動作を繰り返す。但し、手法マップを作成する必要がある場合は、ステップS5〜S10の分布推定処理に先行してステップS1〜S4の手法マップ作成処理を行う。
FIG. 8 is a schematic flow chart of the operation of the object distribution estimation device 1. When the object distribution estimation apparatus 1 starts operation, the imaging unit 2 installed at the event hall captures images of the monitoring space at predetermined time intervals and sequentially transfers the captured image to the image analysis center where the
すなわち、操作部6から画像処理部5に推定希望領域の変更指示が入力された場合(ステップS1にて「YES」の場合)、画像処理部5は手法マップ作成処理(ステップS4)を行う。また、物体分布推定装置1の動作開始時のように手法マップがない場合、または撮影部2の視野が変更された場合は(ステップS2にて「YES」の場合)、画像処理部5は例えば、表示部8に推定希望領域の入力を求める表示を行って、操作部6からの推定希望領域の入力を待ち(ステップS3にて「NO」の場合)、推定希望領域が入力されると(ステップS3にて「YES」の場合)、手法マップ作成処理S4を行う。そして、これらの場合、画像処理部5は、手法マップ作成処理S4の後に、ステップS5〜S10の分布推定処理を行う。
That is, when an instruction to change the estimation desired area is input from the operation unit 6 to the image processing unit 5 (in the case of “YES” in step S1), the
一方、推定希望領域の変更がなく、且つ手法マップが既に存在し、且つ視野変更が生じていない場合は(ステップS1およびS2にて「NO」の場合)、画像処理部5は手法マップ作成処理S4を省略してステップS5〜S10の分布推定処理を行う。
On the other hand, if there is no change in the estimated desired area, and a method map already exists, and no change in the visual field occurs (“NO” in steps S1 and S2), the
図9は手法マップ作成処理S4の概略のフロー図であり、図9を参照しつつ、手法マップ作成処理S4を説明する。 FIG. 9 is a schematic flow chart of the method map creating process S4, and the method map creating process S4 will be described with reference to FIG.
画像処理部5はステップS1またはS3にて推定希望領域が指定されると、投影手段53として動作し、推定希望領域内の各画素を順次、注目位置に設定し(ステップS40)、物体モデル記憶手段43から読み出した物体モデルを、カメラパラメータ記憶手段44から読み出したカメラパラメータに基づいて撮影部2の撮影面に投影する(ステップS41)。次に画像処理部5は適用手法選択手段54として動作し、適用手法選択手段54は、投影手段53により生成された物体の投影像の解像度を算出する(ステップS42)。
When the area desired for estimation is designated in step S1 or S3, the
適用手法選択手段54は、注目位置における物体数を認識する複数の認識手段それぞれについて、当該位置における物体の投影像の解像度と、当該認識手段の限界解像度とを比較して精度保証認識手段か否かを判断し、精度保証認識手段であれば手法マップに記憶させる。具体的には、本実施形態では認識手段は密度推定器および単体識別器それぞれを用いた2種類であり、それぞれを上述した認識手段IDである符号AおよびBで識別する。
The application
適用手法選択手段54は、限界値記憶手段45から、符号Aと対応付けて記憶されている単体識別器の限界解像度を読み出し、投影像の解像度と当該限界解像度とを比較する。そして、投影像の解像度が限界解像度以上であれば(ステップS43にて「YES」の場合)、単体識別器を注目位置の精度保証認識手段として手法マップ記憶手段42に記憶させる(ステップS44)。一方、投影像の解像度が限界解像度未満であれば(ステップS43にて「NO」の場合)、単体識別器は注目位置の精度保証認識手段とはされずステップS44は省略される。
The application
ステップS43,S44での単体識別器についての精度保証認識手段の判定に続いて、ステップS45,S46にて密度推定器についての精度保証認識手段の判定を同様に行う。つまり、適用手法選択手段54は、限界値記憶手段45から、符号Bと対応付けて記憶されている密度推定器の限界解像度を読み出して、投影像の解像度と比較し、投影像の解像度が限界解像度以上であれば(ステップS45にて「YES」の場合)、密度推定器を注目位置の精度保証認識手段として手法マップ記憶手段42に記憶させ(ステップS46)、一方、投影像の解像度が限界解像度未満であれば(ステップS45にて「NO」の場合)、密度推定器は注目位置の精度保証認識手段とはされずステップS46は省略される。
Subsequent to the determination of the accuracy assurance recognition means for the single unit discriminator in steps S43 and S44, the determination of the accuracy assurance recognition means for the density estimator is similarly performed in steps S45 and S46. That is, the application method selection means 54 reads the limit resolution of the density estimator stored in association with the code B from the limit value storage means 45 and compares it with the resolution of the projected image, and the resolution of the projected image is limited. If it is higher than the resolution (in the case of “YES” in step S45), the density estimator is stored in the method
画像処理部5は推定希望領域内の全画素についてステップS40〜S46の処理を繰り返し(ステップS47にて「NO」の場合)、全画素について完了すると(ステップS47にて「YES」の場合)、図8のステップS5に処理を進める。
When the
ステップS5では、通信部3が画像取得手段30として動作し、撮影部2からの撮影画像の受信待ち状態となる。撮影画像を取得した画像取得手段30は当該撮影画像を画像処理部5に出力する。
In step S5, the
撮影画像を入力された画像処理部5は密度推定手段50として動作し、撮影画像から密度分布を推定する(ステップS6)。具体的には、密度推定手段50は、撮影画像における推定希望領域内の各画素を注目位置として、注目位置の推定用特徴量を抽出するとともに記憶部4の密度推定器記憶手段40から密度推定器を読み出し、推定用特徴量を密度推定器に入力して注目位置における推定密度を取得する。
The
また、画像処理部5は単体識別手段51として動作し、撮影画像から物体有無を識別する(ステップS7)。具体的には、単体識別手段51は、撮影画像における推定希望領域内の各画素を注目位置として、注目位置の識別用特徴量を抽出するとともに、全身識別器100、上半身識別器101および頭部近傍識別器102のうち、ステップS6で得られた注目位置の推定密度に対応する単体識別器を単体識別器記憶手段41から読み出し、当該単体識別器に識別用特徴量を入力して物体有無を識別する。
Further, the
推定希望領域内の各画素について、ステップS6で得られた推定密度およびステップS7で得られた物体有無は分布推定手段52に入力される。 The estimated density obtained in step S6 and the presence or absence of an object obtained in step S7 are input to the distribution estimating means 52 for each pixel in the estimated desired area.
分布推定手段52は手法マップ記憶手段42に記憶された手法マップを読み出し(ステップS8)、当該手法マップと、入力された推定密度および物体有無とから分布画像を生成する(ステップS9)。 The distribution estimation means 52 reads out the method map stored in the method map storage means 42 (step S8), and generates a distribution image from the method map and the inputted estimated density and the presence or absence of an object (step S9).
図10は分布画像生成処理S9の概略のフロー図であり、図10を参照しつつ、分布画像生成処理S9を説明する。分布推定手段52は推定希望領域の各画素を遠方画素から順次、注目位置に設定する(ステップS90)。そして、ステップS8にて読み出した手法マップを参照し、注目位置について単体識別手段が精度保証されているかを調べる(ステップS91)。 FIG. 10 is a schematic flowchart of the distribution image generation processing S9, and the distribution image generation processing S9 will be described with reference to FIG. The distribution estimation means 52 sequentially sets each pixel of the estimation desired area from the distant pixel to the target position (step S90). Then, with reference to the method map read out in step S8, it is checked whether the accuracy of the single identification unit is ensured for the target position (step S91).
単体識別手段が精度保証認識手段である場合(ステップS91にて「YES」の場合)、分布推定手段52は、注目位置についてステップS7の識別結果が物体有りであるならば(ステップS92にて「YES」の場合)、注目位置における物体モデルの投影像を描画する(ステップS93)。ここで、図5を用いて説明した本実施形態の分布マップの例では、単体識別手段が精度保証認識手段である画素位置では、密度推定手段も精度保証認識手段である。そこで、ステップS93では描画する投影像を図6を用いて説明したように、ステップS6の推定密度に応じた色で描く。一方、ステップS7の識別結果が物体無しの場合は(ステップS92にて「NO」の場合)、ステップS93は省略される。 If the single identification unit is the accuracy assurance recognition unit (in the case of "YES" in step S91), distribution estimating unit 52 determines that the identification result in step S7 for the target position is an object ("in step S92" In the case of “YES”, the projection image of the object model at the target position is drawn (step S93). Here, in the example of the distribution map of the present embodiment described with reference to FIG. 5, the density estimation unit is also the accuracy assurance recognition unit at the pixel position where the single identification unit is the accuracy assurance recognition unit. Therefore, in step S93, as described with reference to FIG. 6, the projected image to be drawn is drawn in a color according to the estimated density in step S6. On the other hand, if the identification result in step S7 indicates no object ("NO" in step S92), step S93 is omitted.
単体識別手段が精度保証されていない場合は(ステップS91にて「NO」の場合)、分布推定手段52は手法マップを参照し、注目位置について密度推定手段が精度保証されているかを調べる(ステップS94)。 If the accuracy of the single identification unit is not guaranteed (in the case of "NO" in step S91), the distribution estimation unit 52 refers to the method map to check whether the accuracy of the density estimation unit is guaranteed for the target position (step S94).
密度推定手段が精度保証認識手段である場合(ステップS94にて「YES」の場合)、分布推定手段52は、分布画像における注目位置の画素にステップS6の推定密度に応じた色を付与する(ステップS95)。一方、密度推定手段が精度保証されていない場合は(ステップS94にて「NO」の場合)、ステップS95は省略される。 When the density estimation means is the accuracy assurance recognition means (in the case of “YES” in step S94), the distribution estimation means 52 adds a color according to the estimated density of step S6 to the pixels of the target position in the distribution image ( Step S95). On the other hand, when the accuracy of the density estimation means is not guaranteed ("NO" in step S94), step S95 is omitted.
分布推定手段52は推定希望領域内の全画素についてステップS90〜S95の処理を繰り返し(ステップS96にて「NO」の場合)、全画素について完了すると(ステップS96にて「YES」の場合)、図8のステップS10に処理を進める。 Distribution estimation means 52 repeats the processing of steps S90 to S95 for all pixels in the estimation desired region (in the case of “NO” in step S96), and when it is completed for all the pixels (in the case of “YES” in step S96), The process proceeds to step S10 in FIG.
なお、ステップS90にて注目位置を遠方画素から順に設定することで、分布画像における隠面消去が塗り重ね法で行われる。 In addition, hidden surface elimination in the distribution image is performed by the paint overlapping method by setting the attention position in order from the distant pixel in step S90.
ステップS10では、通信部3が分布情報出力手段31として動作し、分布推定手段52で生成された分布画像を表示制御部7へ出力し、表示制御部7は分布画像を表示部8に表示させる。
In step S10, the
[変形例]
(1)上記実施形態においては、物体の像を構成する画素数を当該物体像の解像度と定義したが、物体の像の外接矩形の大きさ(すなわち画素数あるいは面積)、物体の像の高さを基準とする一定のアスペクト比の矩形の大きさ、または、物体の像の幅を基準とする一定のアスペクト比の矩形の大きさを解像度と定義しても等価である。このように定義することでテスト画像の解像度の導出が容易となる。
[Modification]
(1) In the above embodiment, the number of pixels constituting the image of an object is defined as the resolution of the object image, but the size (that is, the number of pixels or the area) of the circumscribed rectangle of the image of the object, the height of the image of the object It is equivalent to define the size of a rectangle with a constant aspect ratio based on the width or the size of a rectangle with a constant aspect ratio based on the width of the image of the object as the resolution. This definition makes it easy to derive the resolution of the test image.
(2)上記実施形態およびその変形例においては、画素数または面積を物体像の解像度と定義したが、撮影部2およびその撮影倍率が決まっている場合は撮影部2から物体までの距離と解像度との関係が一意に定まるため、当該距離によって解像度を推定することができる。つまり、物体像の解像度を表す値として撮影部2から物体までの距離を用いることができる。 (2) In the above embodiment and its modification, the number of pixels or the area is defined as the resolution of the object image, but when the imaging unit 2 and its imaging magnification are determined, the distance from the imaging unit 2 to the object and the resolution Since the relationship with is uniquely determined, the resolution can be estimated by the distance. That is, the distance from the imaging unit 2 to the object can be used as a value representing the resolution of the object image.
この場合、限界値記憶手段45には限界解像度に対応する距離(限界距離)が記憶される。投影手段53は推定希望領域内の各画素位置と対応する3次元位置を導出して撮影部2から当該3次元位置までの距離を算出し、適用手法選択手段54は投影手段53が算出した距離と限界距離とを比較して精度保証認識手段を選択する。つまり、適用手法選択手段54は、撮影画像内の位置に対して、複数の認識手段のうち、当該位置に撮影される物体についての距離が限界距離以下となるものを精度保証認識手段として選択する。そして、手法マップ記憶手段42は撮影画像内の位置と精度保証認識手段とを関連付けて記憶する。
In this case, the limit
例えば、投影手段53は撮影画像における位置を対象空間における物体に応じた高さの水平面に逆投影して物体仮想位置を求め、適用手法選択手段54は、撮影画像内の位置に対して、当該位置に対応する物体仮想位置と撮影部2との距離と、複数の認識手段それぞれの限界距離とを比較して、当該位置に関連付ける精度保証認識手段を選出する。
For example, the projection unit 53 backprojects the position in the photographed image on a horizontal plane at a height according to the object in the target space to obtain the object virtual position, and the application
(3)上記実施形態およびその変形例においては、分布推定手段52は、分布情報として分布画像を生成したが、分布情報は画像表現に限らない。例えば、分布推定手段52は、分布マップにて単体識別手段51が精度保証認識手段として対応付けられている画素のうち、撮影画像にて単体識別手段51が物体の存在を認識した画素の位置を撮影部2のカメラパラメータにより対象空間に逆投影して、個々の物体が存在する3次元位置の情報を算出する。また、分布推定手段52は、分布マップにて密度推定手段50が精度保証認識手段として対応付けられている画素については、撮影画像の密度推定した画素を同一推定密度ごとの領域にまとめ、各領域を撮影部2のカメラパラメータにより対象空間に逆投影して各密度の3次元領域の情報を算出する。このようにして分布推定手段52は3次元の分布情報を生成してもよい。また、この場合、密度推定手段50および単体識別手段51の両方が対応付けられている位置に関しては、より詳細である単体識別手段51の情報のみから分布情報を生成してもよい。
(3) In the above-mentioned embodiment and its modification, distribution estimating means 52 generated a distribution image as distribution information, but distribution information is not limited to image representation. For example, the distribution estimation unit 52 sets the position of the pixel at which the
(4)上記実施形態およびその変形例においては、検出対象の物体を人とする例を示したが、これに限らず、検出対象の物体を車両、牛や羊等の動物等とすることもできる。 (4) In the above embodiment and its modification, an example in which the object to be detected is a human is shown, but the invention is not limited to this, and an object to be detected may be a vehicle or an animal such as a cow or sheep. it can.
(5)上記実施形態およびその各変形例においては、多クラスSVM法にて学習した密度推定器を例示したが、多クラスSVM法に代えて、決定木型のランダムフォレスト法、多クラスのアダブースト(AdaBoost)法または多クラスロジスティック回帰法などにて学習した密度推定器など種々の密度推定器とすることができる。 (5) In the above embodiment and each variation, the density estimator learned by the multiclass SVM method is exemplified, but instead of the multiclass SVM method, a decision tree type random forest method, multiclass Adaboost Various density estimators such as a density estimator learned by (AdaBoost) method or multiclass logistic regression method can be used.
或いは識別型のCNN(Convolutional Neural Network)を用いた密度推定器とすることもできる。 Alternatively, it may be a density estimator using a discrimination type CNN (Convolutional Neural Network).
(6)上記実施形態およびその各変形例においては、密度推定器が推定する背景以外の密度のクラスを3クラスとしたが、より細かくクラスを分けてもよい。 (6) In the above-described embodiment and the respective variations thereof, classes of density other than the background estimated by the density estimator are three classes, but the classes may be divided more finely.
(7)上記実施形態およびその各変形例においては、多クラスに分類する密度推定器を例示したがこれに代えて、特徴量から密度の値(推定密度)を回帰する回帰型の密度推定器とすることもできる。すなわち、リッジ回帰法、サポートベクターリグレッション法、回帰木型のランダムフォレスト法またはガウス過程回帰(Gaussian Process Regression)などによって、特徴量から推定密度を求めるための回帰関数のパラメータを学習した密度推定器とすることができる。 (7) In the above-described embodiment and each of the modifications thereof, a density estimator that classifies into multiple classes is exemplified, but instead, a regression-type density estimator that regresses the value of density (estimated density) from feature amounts It can also be done. That is, a density estimator which learns parameters of a regression function for obtaining an estimated density from feature amounts by ridge regression method, support vector regression method, regression tree type random forest method, Gaussian process regression, or the like can do.
或いは回帰型のCNNを用いた密度推定器とすることもできる。 Alternatively, it may be a density estimator using a regression type CNN.
(8)上記実施形態およびその各変形例においては、密度推定器が学習する特徴量および推定用特徴量としてGLCM特徴を例示したが、これらはGLCM特徴に代えて、局所二値パターン(Local Binary Pattern:LBP)特徴量、ハールライク(Haar-like)特徴量、HOG特徴量、輝度パターンなどの種々の特徴量とすることができ、またはGLCM特徴とこれらのうちの複数を組み合わせた特徴量とすることもできる。 (8) In the above-described embodiment and each of the modifications, the GLCM feature is exemplified as the feature value to be learned by the density estimator and the feature value for estimation, but these may be local binary patterns (Local Binary) instead of the GLCM features. Pattern (LBP) can be a variety of feature quantities such as feature quantity, Haar-like feature quantity, HOG feature quantity, luminance pattern, or a combination of a plurality of GLCM features and these It can also be done.
(9)上記実施形態およびその各変形例においては、密度推定手段50および単体識別手段51が1画素間隔で走査して処理を行う例を示したが、これらの走査を2画素以上の間隔を空けて行うことも可能である。
(9) In the above-described embodiment and each of the modifications, the
(10)上記実施形態およびその各変形例においては、線形SVM法により学習された単体識別器を例示したが、線形SVM法に代えてアダブースト(AdaBoost)法など、従来知られた各種の学習法を用いて学習した単体識別器とすることもできる。また、識別器の代わりにパターンマッチング器を用いることもでき、その場合の識別スコアは人の学習用画像から抽出した特徴量の平均パターンと入力画像の特徴量との内積などとなり、識別スコア算出関数は当該スコアを出力値とし入力画像の特徴量を入力値とする関数とすることができる。また単体識別器として識別型のCNNを用いても良い。 (10) In the above embodiment and each of the modifications, the single classifiers learned by the linear SVM method are exemplified, but various learning methods conventionally known such as the AdaBoost method instead of the linear SVM method are exemplified. It can also be a single discriminator learned using. In addition, a pattern matching unit can be used instead of the classifier, and the classification score in that case is the inner product of the average pattern of the feature quantities extracted from the human learning image and the feature quantity of the input image, etc. The function can be a function having the score as an output value and the feature amount of the input image as an input value. Alternatively, a discrimination type CNN may be used as a single discriminator.
(11)上記実施形態およびその各変形例においては、単体識別器が学習する特徴量としてHOG特徴量を例示したが、これらはHOG特徴量に代えて、局所二値パターン特徴量、ハールライク特徴量、輝度パターンなどの種々の特徴量とすることができ、またはHOG特徴量とこれらのうちの複数を組み合わせた特徴量とすることもできる。 (11) In the above embodiment and the respective variations thereof, the HOG feature has been exemplified as the feature to be learned by the single classifier. However, instead of the HOG feature, local binary pattern feature, Haar-like feature , And may be various feature amounts such as a luminance pattern, or may be a feature amount obtained by combining the HOG feature amount and a plurality of these.
1 物体分布推定装置、2 撮影部、3 通信部、4 記憶部、5 画像処理部、6 操作部、7 表示制御部、8 表示部、30 画像取得手段、31 分布情報出力手段、40 密度推定器記憶手段、41 単体識別器記憶手段、42 手法マップ記憶手段、43 物体モデル記憶手段、44 カメラパラメータ記憶手段、45 限界値記憶手段、50 密度推定手段、51 単体識別手段、52 分布推定手段、53 投影手段、54 適用手法選択手段、100 全身識別器、101 上半身識別器、102 頭部近傍識別器、200 撮影画像、250 手法マップ、300 推定希望領域。 Reference Signs List 1 object distribution estimation device, 2 imaging unit, 3 communication unit, 4 storage unit, 5 image processing unit, 6 operation unit, 7 display control unit, 8 display unit, 30 image acquisition unit, 31 distribution information output unit, 40 density estimation Storage means 41 single discriminator storage means 42 method map storage means 43 object model storage means 44 camera parameter storage means 45 limit value storage means 50 density estimation means 51 single identification means 52 distribution estimation means 53 projection means, 54 application method selection means, 100 whole body discriminator, 101 upper body discriminator, 102 near head part discriminator, 200 photographed image, 250 method map, 300 estimated desired area.
Claims (6)
それぞれが、撮影された前記物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、前記撮影画像内の任意の位置に撮影された前記物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の前記認識器を用いて前記物体数の当該範囲ごとに設けられた複数の認識手段と、
前記撮影画像内の位置と、前記複数の認識手段のうち当該位置にて前記物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、
前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した物体数から、前記空間における前記物体の分布情報を生成する分布推定手段と、
を備えたことを特徴とする物体分布推定装置。 An image acquisition unit that acquires a photographed image of a space in which a predetermined object photographed by the photographing unit may exist;
A recognition unit that recognizes the number of objects photographed at an arbitrary position in the photographed image, using a recognizer that has previously learned the features of each of a plurality of types of learning images in which the number of photographed objects differs A plurality of recognition means provided for each range of the number of objects using a plurality of the recognizers having different ranges of the number of recognizable objects.
Storage means for associating and storing the position in the photographed image and the accuracy assurance recognition means capable of recognizing the number of objects at the position among the plurality of recognition means with an accuracy equal to or more than a predetermined lower limit.
Distribution estimation means for generating distribution information of the objects in the space from the number of objects acquired in the photographed image by the accuracy assurance recognition means stored in the storage means;
An object distribution estimation apparatus characterized by comprising:
前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置での前記物体の像の前記解像度が前記限界解像度以上となるものを前記精度保証認識手段として関連付けて記憶していること、
を特徴とする請求項1に記載の物体分布推定装置。 The lower limit value of the resolution with respect to the image of the object which can be recognized with an accuracy equal to or higher than the lower limit value is determined as the limit resolution of the recognition means.
The storage means associates, as the accuracy assurance recognition means, one of the plurality of recognition means in which the resolution of the image of the object at the position is equal to or higher than the limit resolution with respect to the position in the photographed image. Remember that,
The object distribution estimation apparatus according to claim 1, characterized in that
前記空間内に存在する前記物体を模したモデルを前記撮影部の撮影面に投影して投影像を生成する投影手段と、
前記撮影画像内の位置に対して、当該位置に生成される前記投影像の画素数と前記複数の認識手段それぞれの前記限界画素数とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、
をさらに備えたことを特徴とする請求項2に記載の物体分布推定装置。 The resolution is represented by the number of pixels of the image of the object, and the number of pixels corresponding to the limit resolution is the limit number of pixels.
A projection unit configured to project a model imitating the object present in the space onto a photographing surface of the photographing unit to generate a projected image;
The accuracy assurance recognition means for comparing the number of pixels of the projected image generated at the position with the limit number of pixels of each of the plurality of recognition means for the position in the photographed image and associating the number with the position Selection means to select,
The object distribution estimation apparatus according to claim 2, further comprising:
前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置に撮影される前記物体についての前記距離が前記限界距離以下となるものを前記精度保証認識手段として関連付けて記憶していること、
を特徴とする請求項2に記載の物体分布推定装置。 The resolution is estimated by the distance from the imaging unit to the object in the space, and the distance corresponding to the limit resolution is set as a limit distance.
The storage means is, for the position within the photographed image, among the plurality of recognition means, one for which the distance for the object photographed at the position is equal to or less than the limit distance is the accuracy assurance recognition means Associate and memorize,
The object distribution estimation apparatus according to claim 2, characterized in that
前記撮影画像内の位置に対して、当該位置に対応する前記物体仮想位置と前記撮影部との距離と、前記複数の認識手段それぞれの前記限界距離とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、
をさらに備えたことを特徴とする請求項4に記載の物体分布推定装置。 Projection means for back-projecting the position in the photographed image on a horizontal plane at a height according to the object in the space to obtain an object virtual position;
The accuracy in which the distance between the virtual position of the object corresponding to the position and the photographing unit and the limit distance of each of the plurality of recognition means are compared with the position in the photographed image, and the accuracy is associated with the position Selection means for selecting assurance recognition means;
The object distribution estimation apparatus according to claim 4, further comprising:
所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を予め学習した密度推定器を用い、前記撮影画像内の任意の位置に撮影された前記物体の前記密度を認識する密度推定手段と、
単独の前記物体が撮影された単体画像の特徴を予め学習した単体識別器を用い、前記撮影画像内の任意の位置に撮影された前記物体の有無を認識する単体識別手段と、
前記撮影画像内の位置と、前記密度推定手段および前記単体識別手段のうち当該位置にて前記物体の密度または有無を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、
前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した前記物体の密度または有無から、前記空間における前記物体の分布情報を生成する分布推定手段と、
を備えたことを特徴とする物体分布推定装置。 An image acquisition unit that acquires a photographed image of a space in which a predetermined object photographed by the photographing unit may exist;
The density of the object photographed at an arbitrary position in the photographed image, using a density estimator which learns in advance features of respective density images obtained by photographing the space in which the object exists at the predetermined density for each predetermined density Density estimation means for recognizing
A single identification means for recognizing the presence or absence of the object photographed at an arbitrary position in the photographed image, using a single classifier which preliminarily learns features of a single image in which the single object is photographed;
The position in the photographed image is associated with the accuracy assurance recognition means capable of recognizing the density or presence / absence of the object at the position among the density estimation means and the single body identification means with an accuracy higher than a predetermined lower limit value. Storage means for storing
Distribution estimation means for generating distribution information of the object in the space from the density or presence of the object acquired in the photographed image by the accuracy assurance recognition means stored in the storage means;
An object distribution estimation apparatus characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017188324A JP6920949B2 (en) | 2017-09-28 | 2017-09-28 | Object distribution estimator |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017188324A JP6920949B2 (en) | 2017-09-28 | 2017-09-28 | Object distribution estimator |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019066909A true JP2019066909A (en) | 2019-04-25 |
| JP6920949B2 JP6920949B2 (en) | 2021-08-18 |
Family
ID=66340621
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017188324A Active JP6920949B2 (en) | 2017-09-28 | 2017-09-28 | Object distribution estimator |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6920949B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110287929A (en) * | 2019-07-01 | 2019-09-27 | 腾讯科技(深圳)有限公司 | The quantity of target determines method, apparatus, equipment and storage medium in group region |
| JP2021182298A (en) * | 2020-05-20 | 2021-11-25 | 株式会社デンソー | Pattern learning device, object recognition device, and driving assistance device for vehicle |
| JP2023501690A (en) * | 2019-11-20 | 2023-01-18 | オムロン株式会社 | Methods and systems for predicting crowd dynamics |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007109126A (en) * | 2005-10-17 | 2007-04-26 | Advanced Telecommunication Research Institute International | Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program |
| JP2009211274A (en) * | 2008-03-03 | 2009-09-17 | Canon Inc | Image processing apparatus, image processing method, program and storage medium |
| JP2015148895A (en) * | 2014-02-05 | 2015-08-20 | 日本電信電話株式会社 | object number distribution estimation method |
-
2017
- 2017-09-28 JP JP2017188324A patent/JP6920949B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007109126A (en) * | 2005-10-17 | 2007-04-26 | Advanced Telecommunication Research Institute International | Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program |
| JP2009211274A (en) * | 2008-03-03 | 2009-09-17 | Canon Inc | Image processing apparatus, image processing method, program and storage medium |
| JP2015148895A (en) * | 2014-02-05 | 2015-08-20 | 日本電信電話株式会社 | object number distribution estimation method |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110287929A (en) * | 2019-07-01 | 2019-09-27 | 腾讯科技(深圳)有限公司 | The quantity of target determines method, apparatus, equipment and storage medium in group region |
| CN110287929B (en) * | 2019-07-01 | 2023-09-05 | 腾讯科技(深圳)有限公司 | Method, device, equipment and storage medium for determining number of targets in group area |
| JP2023501690A (en) * | 2019-11-20 | 2023-01-18 | オムロン株式会社 | Methods and systems for predicting crowd dynamics |
| JP7276607B2 (en) | 2019-11-20 | 2023-05-18 | オムロン株式会社 | Methods and systems for predicting crowd dynamics |
| JP2021182298A (en) * | 2020-05-20 | 2021-11-25 | 株式会社デンソー | Pattern learning device, object recognition device, and driving assistance device for vehicle |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6920949B2 (en) | 2021-08-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7831087B2 (en) | Method for visual-based recognition of an object | |
| JP5594672B2 (en) | Object recognition apparatus and object recognition method | |
| JP4743823B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| JP5629803B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| JP7292492B2 (en) | Object tracking method and device, storage medium and computer program | |
| JP7099809B2 (en) | Image monitoring system | |
| CN109299658B (en) | Face detection method, face image rendering device and storage medium | |
| KR20150136225A (en) | Method and Apparatus for Learning Region of Interest for Detecting Object of Interest | |
| JP6773825B2 (en) | Learning device, learning method, learning program, and object recognition device | |
| JP6920949B2 (en) | Object distribution estimator | |
| Loutas et al. | Probabilistic multiple face detection and tracking using entropy measures | |
| CN114758384A (en) | Face detection method, device, equipment and storage medium | |
| JP2002366958A (en) | Image recognition method and image recognition device | |
| WO2012153868A1 (en) | Information processing device, information processing method and information processing program | |
| JP2021149687A (en) | Device, method and program for object recognition | |
| JP6920944B2 (en) | Object detector | |
| JP2021033374A (en) | Object recognition device, object recognition method, and object recognition program | |
| JP6893812B2 (en) | Object detector | |
| JP6851246B2 (en) | Object detector | |
| JPH11306348A (en) | Object detection apparatus and object detection method | |
| CN104778468B (en) | Image processing device, image processing method, and monitoring device | |
| CN115661903B (en) | Picture identification method and device based on space mapping collaborative target filtering | |
| JPH09305743A (en) | Human face motion detection method | |
| CN111860261B (en) | Passenger flow value statistical method, device, equipment and medium | |
| JP7349288B2 (en) | Object recognition device, object recognition method, and object recognition program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200622 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210727 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6920949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |