[go: up one dir, main page]

JP2019066909A - Object distribution estimation device - Google Patents

Object distribution estimation device Download PDF

Info

Publication number
JP2019066909A
JP2019066909A JP2017188324A JP2017188324A JP2019066909A JP 2019066909 A JP2019066909 A JP 2019066909A JP 2017188324 A JP2017188324 A JP 2017188324A JP 2017188324 A JP2017188324 A JP 2017188324A JP 2019066909 A JP2019066909 A JP 2019066909A
Authority
JP
Japan
Prior art keywords
image
density
unit
photographed
recognition means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017188324A
Other languages
Japanese (ja)
Other versions
JP6920949B2 (en
Inventor
知行 永橋
Tomoyuki Nagahashi
知行 永橋
龍佑 野坂
Ryusuke Nosaka
龍佑 野坂
秀紀 氏家
Hidenori Ujiie
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017188324A priority Critical patent/JP6920949B2/en
Publication of JP2019066909A publication Critical patent/JP2019066909A/en
Application granted granted Critical
Publication of JP6920949B2 publication Critical patent/JP6920949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定する。【解決手段】画像取得手段30は撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する。密度推定手段50および単体識別手段51はそれぞれが、撮影画像内の任意の位置に撮影された物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の認識器を用いて物体数の当該範囲ごとに設けられた複数の認識手段である。手法マップ記憶手段42は、撮影画像内の位置と、複数の認識手段のうち当該位置にて物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する。分布推定手段52は手法マップ記憶手段42に記憶される精度保証認識手段により撮影画像内にて取得した物体数から、空間における物体の分布情報を生成する。【選択図】図2PROBLEM TO BE SOLVED: To estimate highly accurate information on the distribution of an object in a wide range from a photographed image of a space where congestion may occur in a wide field of view. An image acquisition means 30 acquires a photographed image of a space in which a predetermined object photographed by a photographing unit may exist. The density estimation means 50 and the single identification means 51 are recognition means for recognizing the number of objects photographed at arbitrary positions in the captured image, and a plurality of recognizers having different ranges of the number of recognizable objects can be recognized. It is a plurality of recognition means provided for each corresponding range of the number of objects used. The method map storage means 42 stores the position in the captured image in association with the accuracy guarantee recognition means capable of recognizing the number of objects at the position with an accuracy equal to or higher than a predetermined lower limit value among the plurality of recognition means. .. The distribution estimation means 52 generates distribution information of objects in space from the number of objects acquired in the captured image by the accuracy guarantee recognition means stored in the method map storage means 42. [Selection diagram] Fig. 2

Description

本発明は、人等の所定の物体が存在し得る空間が撮影された撮影画像から物体の分布を推定する物体分布推定装置に関し、特に、混雑が生じ得る空間が撮影された撮影画像から物体の分布を推定する物体分布推定装置に関する。   The present invention relates to an object distribution estimation apparatus for estimating the distribution of an object from a photographed image in which a space in which a predetermined object such as a person can exist is photographed, and in particular, a photographed image in which a space where congestion may occur is photographed. The present invention relates to an object distribution estimation apparatus that estimates a distribution.

マラソンやパレード等のイベントが開催される会場のように混雑が発生し得る空間においては事故防止等のために、混雑が発生している区域に警備員を多く配置するなどの対応が求められる。そこで、会場の各所に監視カメラを配置して撮影画像から人の分布状況を推定し、分布状況を表示することによって監視効率向上が期待できる。   In places where congestions may occur, such as marathons and events where parades and other events are held, it is required to provide a large number of security guards in areas where congestion occurs, for the purpose of preventing accidents and the like. Therefore, surveillance efficiency can be expected to be improved by arranging surveillance cameras at various places in the hall, estimating the distribution of persons from the photographed image, and displaying the distribution.

撮影画像からイベント会場に存在している人を検出する方法の1つとして、予め人の画像の特徴を学習した認識器によって撮影画像を探索する方法がある。   One of the methods for detecting a person present in the event hall from the photographed image is a method of searching for the photographed image by a recognizer that has learned the features of the human image in advance.

例えば、下記特許文献1に記載の物体検出装置においては、認識器として、多数の「人」の画像データおよび「人以外」の画像データを用いて予め学習させた識別器を用いて入力画像から人を検出することが記載されている。   For example, in the object detection device described in Patent Document 1 below, an input image is generated using a classifier that has been learned in advance using multiple “person” image data and “non-person” image data as a recognizer. Detecting a person is described.

また、下記特許文献2に記載の群衆解析装置においては、予め密度下限値を超えた人物密度の群衆が撮影された学習画像を用いて人物密度ごとに機械学習した識別器を用い人物密度を推定することによって、群衆の発生を判定することが記載されている。   Further, in the crowd analysis device described in Patent Document 2 below, the person density is estimated using a classifier that has been machine-learned for each person density using a learning image in which a crowd of people density exceeding the density lower limit is photographed in advance. By doing, it is described to determine the occurrence of the crowd.

以下、一人ひとりの人を認識する認識器を単体識別器、人物密度を推定する認識器を密度推定器と称する。   Hereinafter, a recognizer that recognizes each person is referred to as a single identifier, and a recognizer that estimates human density is referred to as a density estimator.

特開2011−186633号公報JP, 2011-186633, A 特開2017−068598号公報Unexamined-Japanese-Patent No. 2017-068598

ところで、イベント会場は一般に広大であるため設置・運用コストの観点から、各監視カメラの視野を広くして設置台数を減ずることが要請される。   By the way, since the event hall is generally large, it is required to widen the field of view of each monitoring camera and reduce the number of installed cameras from the viewpoint of installation and operation costs.

しかしながら、単体識別器と密度推定器とは、それぞれの学習画像の特性によって確度の高い認識が可能な解像度のレンジが異なる。一方、広い視野で撮影した撮影画像においては、カメラから人までの距離に応じた人の像の解像度低下が顕著に生じる。   However, the single classifier and the density estimator have different resolution ranges that can be recognized with high accuracy depending on the characteristics of the respective learning images. On the other hand, in the photographed image photographed in a wide field of view, the resolution of the image of the person according to the distance from the camera to the person is remarkably reduced.

そのため、広い視野で撮影した撮影画像に対し、認識器をその特性を考慮せずに用いると確度の高い情報を提供することが困難となる問題があった。   Therefore, there is a problem that it is difficult to provide highly accurate information if a recognizer is used without taking into consideration the characteristics of a photographed image photographed in a wide field of view.

すなわち、単体識別器は一人ひとりの人の位置を認識可能であるのに対して、密度推定器は一人ひとりの人の位置までは認識できない。また、一般には認識対象となる画像(撮影画像の一部)の解像度が学習画像よりも低くなると認識精度は低下すること、および単体識別器の学習は単独の人の像が占める学習画像を用いて行われるのに対して密度推定器の学習は複数の人の像が写り得る視野の学習画像を用いて行われることから、カメラから人までの距離に応じた認識精度低下は密度推定器よりも単体識別器の方が生じやすい。   That is, while the single classifier can recognize the position of each person, the density estimator can not recognize the positions of each person. Also, in general, when the resolution of the image to be recognized (part of the photographed image) becomes lower than that of the learning image, the recognition accuracy decreases, and the learning of the single classifier uses the learning image occupied by the image of a single person. Since the learning of the density estimator is performed using the learning image of the field of view in which the images of a plurality of people can be taken while the recognition accuracy is reduced according to the distance from the camera to the person It is more likely that a single discriminator will occur.

よって、撮影画像におけるカメラ近傍の領域の人の分布は単体識別器により認識した方が詳細な情報を提供できるが、遠方の領域の人の分布までも単体識別器により認識しようとすれば確度の低い情報を提供してしまうことになる。他方、遠方の領域の人の分布は密度推定器により認識した方が確度の高い情報を提供できるが、カメラ近傍の領域の人の分布までも密度推定器により認識しようとすれば詳細な情報を提供し損ねてしまうことになる。   Therefore, the person distribution in the area near the camera in the captured image can provide more detailed information if it is recognized by the single-body discriminator, but if even the distribution of the person in the distant area is to be recognized by the single-body discriminator It will provide low information. On the other hand, although the distribution of people in the distant area can provide more accurate information if it is recognized by the density estimator, it is possible to recognize even the distribution of people in the area near the camera by the density estimator. It will fail to provide.

本発明は、上記問題を鑑みてなされたものであり、混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定できる物体分布推定装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an object distribution estimation apparatus capable of estimating, in a wide range, information with high accuracy regarding the distribution of objects from a photographed image obtained by photographing a space where congestion may occur with a wide view. The purpose is

(1)本発明に係る物体分布推定装置は、撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、それぞれが、撮影された前記物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、前記撮影画像内の任意の位置に撮影された前記物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の前記認識器を用いて前記物体数の当該範囲ごとに設けられた複数の認識手段と、前記撮影画像内の位置と、前記複数の認識手段のうち当該位置にて前記物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した物体数から、前記空間における前記物体の分布情報を生成する分布推定手段と、を備える。   (1) The object distribution estimation apparatus according to the present invention is different from the image acquisition means for acquiring a photographed image of a space where a predetermined object photographed by the photographing unit may exist, and the number of photographed objects is different. A recognition unit that recognizes the number of objects photographed at an arbitrary position in the photographed image using a recognizer that learns in advance the features of each of a plurality of types of learning images, and the number of objects that can be recognized is mutually different The plurality of recognition means provided for each relevant range of the number of objects using a plurality of different recognition devices, the position in the photographed image, and the number of objects in advance at the position among the plurality of recognition means A storage unit that associates and stores an accuracy guarantee recognition unit that can be recognized with an accuracy equal to or higher than a defined lower limit, and the number of objects acquired in the photographed image by the accuracy guarantee recognition unit stored in the storage unit , And a distribution estimating means for generating distribution information of the object in the serial space.

(2)上記(1)に記載の物体分布推定装置において、前記認識手段が前記下限値以上の精度で認識可能である前記物体の像に関しての解像度の下限値を当該認識手段の限界解像度と定め、前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置での前記物体の像の前記解像度が前記限界解像度以上となるものを前記精度保証認識手段として関連付けて記憶している構成とすることができる。   (2) In the object distribution estimation device according to (1), the lower limit value of the resolution of the image of the object which can be recognized with accuracy higher than the lower limit value by the recognition means is determined as the limit resolution of the recognition means. The storage means is one of the plurality of recognition means with respect to a position in the photographed image, one in which the resolution of the image of the object at the position is equal to or more than the limit resolution. It is possible to associate and store the configuration.

(3)上記(2)に記載の物体分布推定装置において、前記物体の像の画素数によって前記解像度を表し、前記限界解像度に対応する前記画素数を限界画素数として、前記空間内に存在する前記物体を模したモデルを前記撮影部の撮影面に投影して投影像を生成する投影手段と、前記撮影画像内の位置に対して、当該位置に生成される前記投影像の画素数と前記複数の認識手段それぞれの前記限界画素数とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、をさらに備えた構成とすることができる。   (3) In the object distribution estimation device according to (2), the resolution is represented by the number of pixels of the image of the object, and the number of pixels corresponding to the limit resolution is present in the space as the limit number of pixels. A projection unit configured to project a model imitating the object on a shooting surface of the shooting unit to generate a projected image; and for a position in the shot image, the number of pixels of the projection image generated at the position and the number The image processing apparatus may further include selection means for comparing the limit pixel number of each of the plurality of recognition means and selecting the accuracy assurance recognition means to be associated with the position.

(4)上記(2)に記載の物体分布推定装置において、前記空間における前記撮影部から前記物体までの距離によって前記解像度を推定し、前記限界解像度に対応する前記距離を限界距離として、前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置に撮影される前記物体についての前記距離が前記限界距離以下となるものを前記精度保証認識手段として関連付けて記憶している構成とすることができる。   (4) In the object distribution estimation device according to (2), the resolution is estimated based on a distance from the imaging unit to the object in the space, and the storage corresponding to the limit resolution is used as a limit distance. The means associates the position in the photographed image with one of the plurality of recognition means in which the distance for the object photographed at the position is equal to or less than the limit distance as the accuracy assurance recognition means. The configuration can be stored.

(5)上記(4)に記載の物体分布推定装置において、前記撮影画像における位置を前記空間における前記物体に応じた高さの水平面に逆投影して物体仮想位置を求める投影手段と、前記撮影画像内の位置に対して、当該位置に対応する前記物体仮想位置と前記撮影部との距離と、前記複数の認識手段それぞれの前記限界距離とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、をさらに備えた構成とすることができる。   (5) In the object distribution estimation apparatus according to (4), projection means for backprojecting a position in the photographed image on a horizontal plane at a height corresponding to the object in the space to obtain an object virtual position; The accuracy assurance recognition in which the distance between the virtual position of the object corresponding to the position and the photographing unit and the limit distance of each of the plurality of recognition means are compared with the position in the image and associated with the position. And a selection means for selecting a means.

(6)他の本発明に係る物体分布推定装置は、撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を予め学習した密度推定器を用い、前記撮影画像内の任意の位置に撮影された前記物体の前記密度を認識する密度推定手段と、単独の前記物体が撮影された単体画像の特徴を予め学習した単体識別器を用い、前記撮影画像内の任意の位置に撮影された前記物体の有無を認識する単体識別手段と、前記撮影画像内の位置と、前記密度推定手段および前記単体識別手段のうち当該位置にて前記物体の密度または有無を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した前記物体の密度または有無から、前記空間における前記物体の分布情報を生成する分布推定手段と、を備える。   (6) Another object distribution estimation apparatus according to the present invention is an image acquisition unit for acquiring a photographed image of a space in which a predetermined object photographed by the photographing unit may exist, and the above-mentioned density at each predetermined density. A density estimation unit that recognizes the density of the object captured at an arbitrary position in the captured image using a density estimator that learns in advance features of density images obtained by capturing a space in which the object exists; A single identification means for recognizing the presence or absence of the object photographed at an arbitrary position in the photographed image using a single classifier which previously learned the features of the single image in which the object is photographed; a position in the photographed image And storage means for associating and storing the density estimation means and the single identification means among the accuracy assurance recognition means capable of recognizing the density or presence of the object at the position with an accuracy equal to or higher than a predetermined lower limit at a predetermined position. , From the density or the presence or absence of the object acquired in the captured image by the accuracy assurance recognizer stored in the storage unit, and a distribution estimating means for generating distribution information of the object in the space.

本発明によれば、混雑が生じ得る空間を広い視野で撮影した撮影画像から物体の分布に関する確度の高い情報を広い範囲で推定できる。   According to the present invention, it is possible to estimate, in a wide range, highly accurate information on the distribution of an object from a photographed image obtained by photographing a space where congestion may occur with a wide view.

本発明の実施形態に係る物体分布推定装置の概略の構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an object distribution estimation device according to an embodiment of the present invention. 本発明の実施形態に係る物体分布推定装置が撮影画像を基にした分布推定処理を行うときの機能ブロック図である。It is a functional block diagram when the object distribution estimation apparatus which concerns on embodiment of this invention performs the distribution estimation process based on a picked-up image. 本発明の実施形態に係る物体分布推定装置が手法マップ作成処理を行うときの機能ブロック図である。It is a functional block diagram when the object distribution estimation apparatus which concerns on embodiment of this invention performs a method map creation process. 単体識別器記憶手段が記憶している単体識別器の情報を模式的に表した図である。It is the figure which represented typically the information of the single-piece | unit discriminator which the single-piece | unit discriminator storage means has memorize | stored. 撮影画像およびこれに対応する手法マップの一例を示す模式図である。It is a schematic diagram which shows an example of a picked-up image and the method map corresponding to this. 図5の撮影画像に対応する分布画像の一例を示す模式図である。It is a schematic diagram which shows an example of the distribution image corresponding to the picked-up image of FIG. 図5の撮影画像に対応する手法マップの一例を示す模式図である。It is a schematic diagram which shows an example of the method map corresponding to the picked-up image of FIG. 本発明の実施形態に係る物体分布推定装置の動作の概略のフロー図である。It is a schematic flowchart of operation | movement of the object distribution estimation apparatus based on embodiment of this invention. 手法マップ作成処理の概略のフロー図である。It is a flowchart of the outline of a method map creation process. 分布画像生成処理の概略のフロー図である。It is a flowchart of the outline of distribution image generation processing.

以下、本発明の実施の形態(以下実施形態という)に係る物体分布推定装置1について、図面に基づいて説明する。   Hereinafter, an object distribution estimation apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described based on the drawings.

[物体分布推定装置1の構成]
図1は物体分布推定装置1の概略の構成を示すブロック図である。物体分布推定装置1は、撮影部2、通信部3、記憶部4、画像処理部5、操作部6、表示制御部7および表示部8からなる。
[Configuration of Object Distribution Estimation Device 1]
FIG. 1 is a block diagram showing a schematic configuration of the object distribution estimation apparatus 1. As shown in FIG. The object distribution estimation device 1 includes a photographing unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, an operation unit 6, a display control unit 7 and a display unit 8.

撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、所定の物体が混雑し得る所定の空間を所定の時間間隔で撮影して撮影画像を出力する撮影手段である。以下、撮影部2が撮影する部分を対象空間と称する。   The photographing unit 2 is a monitoring camera, and is connected to the image processing unit 5 via the communication unit 3, and photographing means for photographing a predetermined space where a predetermined object may be crowded at predetermined time intervals and outputting a photographed image It is. Hereinafter, the part which the imaging | photography part 2 image | photographs is called object space.

例えば、撮影部2は、イベント会場に設置されたポールに対象空間を俯瞰する視野を有して設置される。その視野は固定されていてもよいし、通信部3を介した外部からの指示に従って変更されてもよい。また、例えば、撮影部2は対象空間をフレーム周期1/5秒で撮影してカラー画像を生成する。カラー画像の代わりにモノクロ画像を生成してもよい。   For example, the photographing unit 2 is installed on a pole installed at the event hall with a view that overlooks the target space. The field of view may be fixed or may be changed in accordance with an external instruction via the communication unit 3. Also, for example, the photographing unit 2 photographs the target space at a frame period of 1⁄5 second to generate a color image. Instead of a color image, a monochrome image may be generated.

通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示制御部7と接続される。通信部3は、撮影部2から撮影画像を取得して画像処理部5に入力し、画像処理部5から入力された情報を表示制御部7に出力する。   The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5 and the other end of which is the photographing unit 2 and the display control unit 7 via a communication cable such as a coaxial cable or LAN (Local Area Network) or the Internet. Connected with The communication unit 3 acquires a captured image from the imaging unit 2 and inputs the image to the image processing unit 5, and outputs the information input from the image processing unit 5 to the display control unit 7.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。   The storage unit 4 is a memory device such as a read only memory (ROM) or a random access memory (RAM), and stores various programs and various data. The storage unit 4 is connected to the image processing unit 5 to input and output such information with the image processing unit 5.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、また記憶部4から読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示制御部7とも接続され、通信部3経由で撮影部2から取得した撮影画像を解析することにより、撮影されている人の分布を推定し、推定結果を記した分布画像等の分布情報を通信部3経由で表示制御部7に出力する。   The image processing unit 5 is configured by an arithmetic device such as a central processing unit (CPU), a digital signal processor (DSP), and a micro control unit (MCU). The image processing unit 5 is connected to the storage unit 4 and operates as various processing means and control means by reading and executing a program from the storage unit 4 to store various data in the storage unit 4. read out. The image processing unit 5 is also connected to the imaging unit 2 and the display control unit 7 via the communication unit 3, and the person being imaged by analyzing the captured image acquired from the imaging unit 2 via the communication unit 3. And the distribution information such as the distribution image on which the estimation result is described is output to the display control unit 7 via the communication unit 3.

操作部6は表示制御部7に対する入力機器であり、キーボード及びマウス等で構成される。操作部6は表示制御部7に接続され、監視員による指示操作を受け付け、当該指示操作を表示制御部7に出力する。   The operation unit 6 is an input device for the display control unit 7 and includes a keyboard, a mouse, and the like. The operation unit 6 is connected to the display control unit 7, receives an instruction operation by the supervisor, and outputs the instruction operation to the display control unit 7.

表示制御部7はPC(Personal Computer)等で構成され、ROM、RAM等のメモリ装置等で構成される記憶部(不図示)、通信部3が接続されている通信網とのインターフェース回路である通信部(不図示)、および、CPU、MCU、IC等の演算装置等で構成される制御部(不図示)を備える。表示制御部7は通信網を介して通信部3に接続されるとともに、操作部6および表示部8と接続される。表示制御部7は画像処理部5からの情報を通信部3から受信して記憶するとともに、監視員による操作指示を操作部6から入力され、記憶した情報のうち操作指示に応じた情報を表示部8に出力する。   The display control unit 7 is configured by a PC (Personal Computer) or the like, and is a storage unit (not shown) configured by a memory device such as a ROM or a RAM, and an interface circuit with a communication network to which the communication unit 3 is connected. A control unit (not shown) including a communication unit (not shown) and an arithmetic device such as a CPU, an MCU, and an IC is provided. The display control unit 7 is connected to the communication unit 3 via the communication network, and is connected to the operation unit 6 and the display unit 8. The display control unit 7 receives information from the image processing unit 5 from the communication unit 3 and stores it, and receives an operation instruction from a monitoring person from the operation unit 6 and displays information corresponding to the operation instruction among the stored information Output to section 8.

表示部8は、液晶ディスプレイまたはCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3および表示制御部7を介して画像処理部5と接続され、画像処理部5により生成された情報を表示する表示手段である。監視員は表示された情報を視認して混雑の発生等を判断し、必要に応じて人員配置の変更等の対処を行う。   The display unit 8 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and is connected to the image processing unit 5 via the communication unit 3 and the display control unit 7, and information generated by the image processing unit 5 Is a display means for displaying The supervisor visually recognizes the displayed information to determine the occurrence of congestion, etc., and takes measures such as changing the staffing if necessary.

なお、本実施形態においては、撮影部2と画像処理部5の個数が1対1である物体分布推定装置1を例示するが、別の実施形態においては、撮影部2と画像処理部5の個数を多対1或いは多対多とすることもできる。   In the present embodiment, the object distribution estimation apparatus 1 in which the number of the imaging unit 2 and the number of the image processing units 5 is one to one is exemplified. However, in another embodiment, the object distribution estimation device 1 of the imaging unit 2 and the image processing unit 5 The number may be many to one or many to many.

[物体分布推定装置1の機能]
図2および図3は物体分布推定装置1の機能を示す機能ブロック図である。そのうち、図2は撮影画像を基にした分布推定処理を行うときの機能ブロック図である。また、図3は分布推定処理に先立って手法マップ作成処理を行うときの機能ブロック図である。
[Function of Object Distribution Estimation Device 1]
2 and 3 are functional block diagrams showing functions of the object distribution estimation apparatus 1. Among them, FIG. 2 is a functional block diagram when performing distribution estimation processing based on a photographed image. Further, FIG. 3 is a functional block diagram when the method map creation processing is performed prior to the distribution estimation processing.

(分布推定処理)
物体分布推定装置1の機能のうち、まず、分布推定処理に関して説明する。分布推定処理を行うとき(図2)、通信部3は画像取得手段30および分布情報出力手段31等として機能し、記憶部4は密度推定器記憶手段40、単体識別器記憶手段41、手法マップ記憶手段42、物体モデル記憶手段43(図2においては不図示)およびカメラパラメータ記憶手段44(図2においては不図示)等として機能し、画像処理部5は密度推定手段50、単体識別手段51、分布推定手段52等として機能する。
(Distribution estimation process)
Among the functions of the object distribution estimation apparatus 1, the distribution estimation process will be described first. When the distribution estimation process is performed (FIG. 2), the communication unit 3 functions as the image acquisition unit 30 and the distribution information output unit 31 etc., and the storage unit 4 is the density estimator storage unit 40, the single identifier storage unit 41, the method map The image processing unit 5 functions as a storage unit 42, an object model storage unit 43 (not shown in FIG. 2), a camera parameter storage unit 44 (not shown in FIG. 2), etc. , Functions as distribution estimation means 52 and the like.

これらのうちの密度推定手段50および単体識別手段51のそれぞれは、撮影されている物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、撮影画像内の任意の位置に撮影された物体の数を認識する認識手段であり、密度推定手段50と単体識別手段51とは、認識可能な物体の数の範囲が互いに異なる複数の認識器を用いて物体数の当該範囲ごとに設けられた複数の認識手段をなす。例えば、密度推定手段50は、0人/mの密度、0人/mより高く2人/m以下の密度、2人/mより高く4人/m以下の密度および4人/mより高い密度の学習画像を用いて学習した認識器を用い、撮影画像内の任意の位置に設定される領域を窓として、窓内が0人/mの密度、0人/mより高く2人/m以下の密度、2人/mより高く4人/m以下の密度および4人/mより高い密度のいずれであるかを認識する。また例えば、単体識別手段51は0人および1人の学習画像を用いて学習した認識器を用い、窓内が0人および1人のいずれであるかを認識する。つまり、密度推定手段50は物体の数として窓内の物体の密度を認識し、またその範囲の下限は0人/mである一方、上は4人/mを超える値にまで及ぶ。これに対し、単体識別手段51が窓内にて認識可能な物体の数の範囲は0および1である。 Among these, each of the density estimation means 50 and the simple identification means 51 uses a recognizer which has previously learned the features of each of a plurality of types of learning images different in the number of objects being photographed, and any position within the photographed image The density estimation means 50 and the simple identification means 51 are the recognition means for recognizing the number of objects that can be recognized using a plurality of recognizers that are different from each other in the range of the number of recognizable objects. Provide a plurality of recognition means provided for each. For example, the density estimation unit 50 may have a density of 0 person / m 2, a density of more than 0 person / m 2 and not more than 2 people / m 2, a density of more than 2 people / m 2 and not more than 4 people / m 2 and 4 people Using a recognizer learned using a learning image with a density higher than 1 / m 2 and using an area set at an arbitrary position in the captured image as a window, the density in the window is 0 people / m 2 , 0 person / m 2 two / m 2 or less of a density higher than 2, recognizes which of higher than two / m higher than 2 Quadruple / m 2 or less of the density and four / m 2 density. Also, for example, the single identification unit 51 uses a recognizer learned using 0 and 1 learning images to recognize whether the inside of the window is 0 or 1 person. That is, the density estimation means 50 recognizes the density of the objects in the window as the number of objects, and the lower limit of the range is 0 person / m 2 while the upper range extends to a value exceeding 4 people / m 2 . On the other hand, the range of the number of objects that can be recognized by the single identification unit 51 in the window is 0 and 1.

画像取得手段30は、撮影手段である撮影部2から撮影画像を順次取得して、取得した撮影画像を密度推定手段50および単体識別手段51に順次出力する。   The image acquisition unit 30 sequentially acquires captured images from the imaging unit 2 which is an imaging unit, and sequentially outputs the acquired captured images to the density estimation unit 50 and the single identification unit 51.

密度推定器記憶手段40は、所定の密度ごとに当該密度にて物体(人)が存在する空間を撮影した密度画像それぞれの画像特徴を学習した推定密度算出関数であって、画像の特徴量を入力されると当該画像に撮影されている物体の密度の推定値(推定密度)を算出し、算出した推定密度を出力する推定器(密度推定器)の情報を予め記憶している。つまり上記推定密度算出関数の係数等のパラメータを密度推定器の情報として予め記憶している。   The density estimator storage means 40 is an estimated density calculation function which learns image features of each density image obtained by photographing a space in which an object (person) exists at the density for each predetermined density, and the feature amount of the image is calculated When input, an estimated value (estimated density) of the density of an object captured in the image is calculated, and information of an estimator (density estimator) which outputs the calculated estimated density is stored in advance. That is, parameters such as coefficients of the estimated density calculation function are stored in advance as information of the density estimator.

密度推定手段50は、画像取得手段30から入力された撮影画像の各所から密度推定用の特徴量(推定用特徴量)を抽出するとともに密度推定器記憶手段40から密度推定器を読み出して、抽出した推定用特徴量のそれぞれを密度推定器に入力することによって推定密度の分布(密度分布)を推定し、推定した密度分布を分布推定手段52に出力する。好適には密度推定手段50はさらに密度分布を単体識別手段51にも出力する。   The density estimation unit 50 extracts feature quantities (feature quantities for estimation) for density estimation from various places of the photographed image input from the image acquisition unit 30 and reads out the density estimator from the density estimator storage unit 40 and extracts The distribution (density distribution) of estimated density is estimated by inputting each of the estimated feature quantities to the density estimator, and the estimated density distribution is output to the distribution estimation means 52. Preferably, the density estimation means 50 further outputs the density distribution to the single identification means 51.

密度推定の処理と密度推定器について具体的に説明する。   The process of density estimation and the density estimator will be specifically described.

密度推定手段50は、撮影画像の各画素の位置に窓(推定用抽出窓)を設定し、各推定用抽出窓における撮影画像から推定用特徴量を抽出する。推定用特徴量はGLCM(Gray Level Co-occurrence Matrix)特徴である。   The density estimation unit 50 sets a window (extraction window for estimation) at the position of each pixel of the captured image, and extracts the feature amount for estimation from the captured image in each extraction window for estimation. The feature amount for estimation is a feature of Gray Level Co-occurrence Matrix (GLCM).

各推定用抽出窓に撮影されている対象空間内の領域は同一サイズであることが望ましい。そこで、好適には密度推定手段50はこの点に配慮した処理を行う。当該処理に際し、密度推定手段50はカメラパラメータ記憶手段44(図2においては不図示)を利用する。   It is desirable that the regions in the target space captured by the estimation extraction windows have the same size. Therefore, preferably, the density estimation unit 50 performs processing in consideration of this point. In the process, the density estimation unit 50 uses a camera parameter storage unit 44 (not shown in FIG. 2).

カメラパラメータ記憶手段44は、撮影部2のカメラパラメータを記憶している。カメラパラメータは、実空間における撮影部2の設置位置および撮影方向といった外部パラメータ、撮影部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む情報である。   The camera parameter storage unit 44 stores camera parameters of the photographing unit 2. The camera parameters are information including external parameters such as the installation position and imaging direction of the imaging unit 2 in real space, focal length of the imaging unit 2, angle of view, lens distortion and other lens characteristics, and internal parameters such as the number of pixels of the imaging device. is there.

密度推定手段50はカメラパラメータ記憶手段44から撮影部2のカメラパラメータを読み出し、カメラパラメータを用いたホモグラフィ変換により撮影画像の任意の画素に撮影されている対象空間内の領域が同一サイズとなるように撮影画像を変形してから推定用特徴量を抽出する。   The density estimation unit 50 reads the camera parameters of the imaging unit 2 from the camera parameter storage unit 44, and the area in the target space captured at an arbitrary pixel of the captured image becomes the same size by homography conversion using the camera parameters. As described above, the feature amount for estimation is extracted after the captured image is deformed.

密度推定器は多クラスの画像を識別する識別器で実現することができ、多クラスSVM(Support Vector Machine)法で学習した識別関数とすることができる。   The density estimator can be realized by a classifier that identifies multiple classes of images, and can be a classification function learned by the multiclass Support Vector Machine (SVM) method.

密度は、例えば、人が存在しない「背景」クラス、0人/mより高く2人/m以下である「低密度」クラス、2人/mより高く4人/m以下である「中密度」クラス、4人/mより高い「高密度」クラスの4クラスと定義することができる。 The density is, for example, a "background" class in which there are no people, a "low density" class which is higher than 0 person / m 2 and not more than 2 people / m 2, and not less than 2 people / m 2 and not more than 4 people / m 2 It can be defined as four classes of "medium density" class and "high density" class higher than 4 persons / m 2 .

推定密度は各クラスに予め付与された値であり、分布推定の結果として出力される値である。本実施形態では各クラスに対応する値を「背景」、「低密度」、「中密度」、「高密度」と表記する。   The estimated density is a value given in advance to each class, and is a value output as a result of distribution estimation. In the present embodiment, values corresponding to each class are described as “background”, “low density”, “medium density”, and “high density”.

すなわち、密度推定器は「背景」クラス、「低密度」クラス、「中密度」クラス、「高密度」クラスのそれぞれに帰属する多数の密度画像の特徴量に多クラスSVM法を適用して学習した、各クラスの画像を他のクラスと識別するための識別関数である。この学習により導出された識別関数のパラメータが密度推定器として記憶されている。なお、密度画像の特徴量は、推定用特徴量と同種であり、GLCM特徴である。   That is, the density estimator learns by applying the multiclass SVM method to the feature quantities of many density images belonging to each of the "background" class, the "low density" class, the "medium density" class, and the "high density" class. It is an identification function for identifying each class image from other classes. The parameters of the discriminant function derived by this learning are stored as a density estimator. The feature amount of the density image is the same as the feature amount for estimation, and is a GLCM feature.

密度推定手段50は、各画素に対応して抽出した推定用特徴量のそれぞれを密度推定器に入力することによってその出力値である推定密度を取得する。なお、撮影画像を変形させて推定用特徴量を抽出した場合、密度推定手段50は、カメラパラメータを用いたホモグラフィ変換により密度分布を元の撮影画像の形状に変形させる。   The density estimation means 50 acquires estimated density which is the output value by inputting each of the feature quantities for estimation extracted corresponding to each pixel to the density estimator. When the photographed image is deformed and the estimation feature amount is extracted, the density estimating unit 50 deforms the density distribution into the shape of the original photographed image by homography conversion using camera parameters.

こうして得られた、撮影画像の画素ごとの推定密度の集まりが密度分布である。   A group of estimated densities for each pixel of the captured image obtained in this manner is a density distribution.

密度推定手段50が出力する密度分布から撮影画像の各所における人の粗密状況が分かるが、密度分布から個々の人の位置までは分からない。これに対し、単体識別手段51は、撮影画像の各位置における人の有無を識別することでより詳細な情報(人の位置)を得る手段である。   The density distribution outputted by the density estimating means 50 indicates the density of people in each part of the photographed image, but the density distribution does not indicate the position of each person. On the other hand, the single identification unit 51 is a unit that obtains more detailed information (the position of a person) by identifying the presence or absence of a person at each position of the captured image.

単体識別器記憶手段41は、単独の人(物体)の画像特徴を学習した識別器(単体識別器)の情報を記憶している。   The single identifier storage means 41 stores information of a identifier (single identifier) that has learned the image features of a single person (object).

図4は、予め単体識別器記憶手段41が記憶している単体識別器の情報を模式的に表した図である。   FIG. 4 is a diagram schematically representing the information of the single-piece discriminator stored in advance by the single-piece discriminator storage means 41. As shown in FIG.

単体識別器は、画像の特徴量を入力されると当該画像が単独の人が撮影されている画像(単体画像)であることの尤もらしさを表す評価値(識別スコア)を算出して出力する評価値算出関数の係数、および識別スコアに対して適用する閾値等のパラメータで表される。   The single-body discriminator calculates and outputs an evaluation value (identification score) representing the likelihood that the image is a single person image (single-body image) when the image feature amount is input. It is represented by parameters such as a coefficient of the evaluation value calculation function and a threshold applied to the identification score.

単体識別器は多数の単体画像とそれぞれが人以外しか写っていない多数の無人画像とからなる学習用画像の特徴量に線形SVM法を適用して学習した識別器とすることができる。   The single-piece discriminator can be a discriminator learned by applying the linear SVM method to the feature amount of a learning image consisting of a large number of single-piece images and a large number of unmanned images in which each person is only a person.

学習アルゴリズムとして線形SVMを用いた場合、評価値算出関数の係数は重みベクトルである。この重みベクトルは、特徴量の各要素に対する重みであり、入力された画像の特徴量と重みベクトルとの内積の値が識別スコアを表す。学習において、当該重みベクトルと特徴量との内積が0より大きい場合は人、0以下の場合は人以外と識別されるように調整される。よって、入力された画像が単体画像であるか否かを識別する閾値は原理上は0であり、通常、閾値は0に設定することができる。ただし、単体画像を単体画像でないと識別する誤りを減じるために、閾値を0よりも小さな値に設定してもよい。   When a linear SVM is used as a learning algorithm, the coefficient of the evaluation value calculation function is a weight vector. The weight vector is a weight for each element of the feature amount, and the value of the inner product of the feature amount of the input image and the weight vector represents the identification score. In learning, when the inner product of the weight vector and the feature amount is larger than 0, it is adjusted so as to be identified as a person, and when less than 0, it is identified as other than a person. Therefore, the threshold for identifying whether or not the input image is a single image is in principle 0, and the threshold can generally be set to 0. However, the threshold may be set to a value smaller than 0 in order to reduce an error in identifying a single image as not being a single image.

なお、学習用画像の特徴量はHOG(Histograms of Oriented Gradients)特徴量である。   Note that the feature amounts of the learning image are HOG (Histograms of Oriented Gradients) feature amounts.

単体識別器記憶手段41が記憶している単体識別器は、密度が高いほど単独の物体を構成する部分のうちの少ない部分の画像特徴を学習した識別器となっている。単体識別器記憶手段41は、低密度クラスを表す値と対応付けて単独の人の全身の画像特徴を学習した単体識別器である全身識別器100、中密度クラスを表す値と対応付けて単独の人の上部2/3の画像特徴を学習した単体識別器である上半身識別器101、高密度クラスを表す値と対応付けて単独の人の上部1/3の画像特徴を学習した単体識別器である頭部近傍識別器102を記憶している。   The single-piece classifier stored in the single-piece classifier storage unit 41 is a classifier that has learned image features of a small part of parts constituting a single object as the density is higher. The single discriminator storage means 41 is a single discriminator that is a single discriminator that has learned the image feature of a single person's whole body in association with a value representing a low density class, and is associated with a value representing a medium density class Upper-body discriminator 101, which is a simplex discriminator that has learned the image features of the upper 2/3 of a person, and a simplex discriminator that has learned the image characteristics of the upper 1/3 of a single person in association with a value representing a high density class The near-head identifier 102 is stored.

全身識別器100は単独の人の全身が撮影された単体画像を用いて学習した単体識別器であり、上半身識別器101は単独の人の上部2/3が撮影された単体画像(人の全身が撮影された単体画像の上部2/3を切り出した画像など)を用いて学習した単体識別器であり、頭部近傍識別器102は単独の人の上部1/3が撮影された単体画像(人の全身が撮影された単体画像の上部1/3を切り出した画像など)を用いて学習した単体識別器である。   The whole-body discriminator 100 is a single-piece discriminator learned using a single-body image of the whole body of a single person, and the upper-body discriminator 101 is a single-piece image of the upper two-thirds of a single person Is a single-body discriminator learned using an image obtained by cutting out the upper 2/3 of a single-body image taken, etc., and the near-head part discriminator 102 is a single-piece image in which the upper third of a single person is photographed ( It is a single-piece discriminator learned using an image etc. which cut out the upper 1/3 of the single-piece picture by which the whole human body was photoed.

単体識別手段51は、画像取得手段30から入力された撮影画像の各位置から単体識別用の特徴量(識別用特徴量)を抽出するとともに単体識別器記憶手段41から単体識別器を読み出して、抽出した識別用特徴量のそれぞれを単体識別器に入力することによって物体の有無を識別し、各位置における物体の有無を分布推定手段52に出力する。   The single identification unit 51 extracts a single identification feature (identification feature) from each position of the captured image input from the image acquisition unit 30 and reads a single identification from the single identification storage unit 41. The presence or absence of an object is identified by inputting each of the extracted feature amounts for identification into a single identifier, and the presence or absence of an object at each position is output to the distribution estimation means 52.

具体的には単体識別手段51は、まず、撮影画像内に所定間隔にて複数の候補位置を設定する。所定間隔は1画素であり、単体識別手段51は撮影画像の各画素の位置を順次候補位置に設定する。なお候補位置は人の頭部重心を表すものとする。   Specifically, the single identification unit 51 first sets a plurality of candidate positions at predetermined intervals in the captured image. The predetermined interval is one pixel, and the single identification unit 51 sequentially sets the position of each pixel of the captured image as a candidate position. The candidate position represents the center of gravity of a person's head.

また、単体識別手段51は、各候補位置に単独の人の上部1/3の形状に定められた窓を設定するとともに密度推定手段50から入力された密度分布を参照し、当該窓内の推定密度を集計する。そして、単体識別手段51は、各候補位置における最多の推定密度を当該候補位置の密度と決定する。   In addition, the single-piece identification means 51 sets a window defined in the shape of the upper third of a single person at each candidate position and refers to the density distribution input from the density estimation means 50 to estimate the inside of the window Aggregate the density. Then, the single identification unit 51 determines the largest estimated density at each candidate position as the density of the candidate position.

また、単体識別手段51は、各候補位置に当該候補位置の密度に応じた識別用抽出窓を設定し、識別用抽出窓内の撮影画像から識別用特徴量を抽出する。識別用抽出窓は、各密度に応じた単体識別器の学習に用いた単体画像の形状を有し、予め定めた複数の倍率で拡大・縮小した大きさの窓である。すなわち、識別用抽出窓は、候補位置の密度が低密度であれば単独の人の全身の形状に定められた窓であり、中密度であれば単独の人の上部2/3の形状に定められた窓であり、高密度であれば単独の人の上部1/3の形状に定められた窓である。   Further, the single identification unit 51 sets an identification extraction window corresponding to the density of the candidate position at each candidate position, and extracts an identification feature amount from the photographed image in the identification extraction window. The extraction window for identification has a shape of a single image used for learning of a single classifier according to each density, and is a window having a size enlarged or reduced by a plurality of predetermined magnifications. That is, the extraction window for identification is a window defined in the shape of the whole body of a single person if the density of the candidate position is low, and if it is medium density, it is set in the shape of the upper 2/3 of the single person It is a window that is defined in the shape of the upper third of a single person if it is dense.

また、単体識別手段51は、候補位置ごとに当該候補位置の密度に応じた単体識別器を単体識別器記憶手段41から読み出す。すなわち、単体識別手段51は、候補位置の密度が低密度であれば全身識別器を読み出し、中密度であれば上半身識別器を読み出し、高密度であれば頭部近傍識別器を読み出す。そして、単体識別手段51は、各候補位置について、読み出した単体識別器に当該候補位置から抽出した識別用特徴量を入力し、その出力値である識別スコアを当該候補位置の評価値として取得する。   In addition, the single identification unit 51 reads out from the single identification storage unit 41 a single identification corresponding to the density of the candidate position for each candidate position. That is, the simple identification unit 51 reads the whole-body identifier if the density of the candidate position is low, reads the upper-body identifier if the density is medium, and reads the near-head identifier if the density is high. Then, for each candidate position, the single identification unit 51 inputs the feature amount for identification extracted from the candidate position into the read single identifier, and acquires the identification score, which is the output value thereof, as the evaluation value of the candidate position. .

そして、単体識別手段51は、候補位置ごとの密度、評価値を参照し、予め定めた基準を満たす評価値が算出された候補位置を物体が存在する位置、それ以外の候補位置を物体が存在しない位置と決定する。   Then, the single-piece identification unit 51 refers to the density for each candidate position and the evaluation value, and the candidate position for which the evaluation value satisfying the predetermined criteria is calculated is the position where the object is present, and the other candidate position is the object Decide that it is not a position.

具体的には、単体識別手段51は、識別スコアがそれに対応する閾値以上である候補位置を抽出し、抽出した候補位置のうち対応する密度が同一であり且つ互いに近接する複数の候補位置を一つにまとめ、まとめた候補位置を人が存在する位置と決定する。   Specifically, the single identification unit 51 extracts a candidate position whose identification score is equal to or higher than the threshold corresponding thereto, and among the extracted candidate positions, one or more candidate positions having the same density and which are close to each other are selected. It is decided that the candidate positions summarized in one place are positions where people exist.

この候補位置をまとめる処理は、実際に人が撮影されている位置に加えてその近傍においても同一人物に対して高い識別スコアが算出されることに対処するために行う。具体的には、例えば、単体識別手段51は、密度ごとに、閾値以上の識別スコアが算出された候補位置を識別スコアが高い順に順次、注目位置に設定するとともに注目位置より識別スコアが低い候補位置を比較位置に設定する。そして、単体識別手段51は、比較位置のうち当該比較位置に設定された識別用抽出窓と注目位置に設定された識別用抽出窓との重なりが予め定めた割合より大きい比較位置の情報を削除することで複数の候補位置を一つにまとめる。   The process of putting together the candidate positions is performed to cope with the fact that a high identification score is calculated for the same person in the vicinity as well as the position where the person is actually photographed. Specifically, for example, for each density, the single-piece identification unit 51 sequentially sets candidate positions for which identification scores higher than the threshold are calculated in the order of high identification score as a target position and a candidate whose identification score is lower than the target position. Set the position to the comparison position. Then, the single identification unit 51 deletes the information of the comparison position where the overlap between the identification extraction window set at the comparison position and the identification extraction window set at the target position among the comparison positions is larger than a predetermined ratio. A plurality of candidate positions are put together into one by doing.

そして、単体識別手段51は、候補位置ごとの物体有無の情報を分布推定手段52に出力する。   Then, the single identification unit 51 outputs information on the presence or absence of an object for each candidate position to the distribution estimation unit 52.

手法マップ記憶手段42は、撮影画像内の位置と、複数の認識手段のうちの、当該位置に窓が設定された場合に当該窓内に撮影されている物体の数を予め定めた下限値以上の精度で認識可能な精度保証認識手段とを関連付けた手法マップを記憶する。   The method map storage unit 42 sets the position in the photographed image and the number of objects photographed in the window when the window is set to the position among the plurality of recognition units to a predetermined lower limit value or more A technique map is stored that is associated with the accuracy assurance recognition means that can be recognized with the accuracy of.

図5は、撮影画像およびこれに対応する手法マップの一例を示す模式図であり、図5(a)が撮影画像200を示し、図5(b)が撮影画像200に対応する手法マップ250を表形式で示している。密度推定手段50および単体識別手段51のそれぞれについては、様々な解像度のテスト画像を用いた事前の実験によって、下限値以上の精度で認識できる人の像の解像度の限界(限界解像度)が判明している。また、密度推定手段50および単体識別手段51には、それぞれを識別する符号(認識手段ID)として“A”および“B”が予め付与されている。   FIG. 5 is a schematic view showing an example of a photographed image and a method map corresponding thereto, and FIG. 5 (a) shows the photographed image 200, and FIG. 5 (b) shows a method map 250 corresponding to the photographed image 200. It is shown in tabular form. For each of the density estimation means 50 and the simple identification means 51, the limit (limit resolution) of the resolution of the human image that can be recognized with an accuracy higher than the lower limit was found by preliminary experiments using test images of various resolutions. ing. Further, “A” and “B” are given to the density estimation means 50 and the single identification means 51 in advance as codes (recognition means ID) for identifying them.

図5の例において、撮影画像200中の領域201は、撮影部2から遠方に存在する人が撮影され得る領域である。領域201内の任意の位置に推定用抽出窓を設定した場合、推定用抽出窓内の人の像の解像度は密度推定手段50の限界解像度を下回らないため、密度推定手段50による密度推定結果が下限値以上の精度で得られる。また、領域201内の任意の位置に識別用抽出窓を設定した場合、識別用抽出窓内の人の像の解像度は単体識別手段51の限界解像度を下回り、単体識別手段51による識別結果が下限値以上の精度で得られない。   In the example of FIG. 5, an area 201 in the photographed image 200 is an area where a person present far from the photographing unit 2 can be photographed. When the extraction window for estimation is set at an arbitrary position in the region 201, the resolution of the human image in the extraction window for estimation does not fall below the limit resolution of the density estimation unit 50, and therefore the density estimation result by the density estimation unit 50 is It can be obtained with an accuracy above the lower limit. When the extraction window for identification is set at an arbitrary position in the area 201, the resolution of the image of the person in the extraction window for identification falls below the limit resolution of the single identification means 51, and the identification result by the single identification means 51 is lower limit It can not be obtained with an accuracy higher than the value.

以上のことに対応して、手法マップ250には、領域201内の画素群の座標[…,(X,Y),…]と対応付けて密度推定手段50に付与された符号Aが記憶されている。 Corresponding to the above, in the method map 250, the code A given to the density estimation means 50 in association with the coordinates [..., (X 2 , Y 2 ), ...] of the pixel group in the area 201 is It is memorized.

また、図5の例において、撮影画像200中の領域202は、撮影部2の近傍に存在する人が撮影され得る領域である。領域202内の任意の位置に推定用抽出窓を設定した場合、推定用抽出窓内の人の像の解像度は密度推定手段50の限界解像度を下回らないため、密度推定手段50による密度推定結果が下限値以上の精度で得られる。また、領域202内の任意の位置に識別用抽出窓を設定した場合、識別用抽出窓内の人の像の解像度は単体識別手段51の限界解像度を下回らないため、単体識別手段51による識別結果が下限値以上の精度で得られる。   Further, in the example of FIG. 5, an area 202 in the photographed image 200 is an area where a person present in the vicinity of the photographing unit 2 can be photographed. When the extraction window for estimation is set at an arbitrary position in the region 202, the resolution of the human image in the extraction window for estimation does not fall below the limit resolution of the density estimation means 50, and therefore the density estimation result by the density estimation means 50 is It can be obtained with an accuracy above the lower limit. Further, when the extraction window for identification is set at an arbitrary position in the area 202, the resolution of the image of the person in the extraction window for identification does not fall below the limit resolution of the single identification unit 51. Is obtained with an accuracy equal to or higher than the lower limit value.

以上のことに対応して、手法マップ250には、領域202内の画素群の座標[…,(X,Y),…]と対応付けて密度推定手段50に付与された符号Aと単体識別手段51に付与された符号Bとが記憶されている。 Corresponding to the above, in the method map 250, the code A given to the density estimation means 50 in association with the coordinates [..., (X 3 , Y 3 ), ...] of the pixel group in the region 202 The code B given to the single identification unit 51 is stored.

分布推定手段52は、複数の認識手段が認識した位置ごとの物体の数のうち、手法マップ記憶手段42に当該位置と関連付けて記憶されている精度保証認識手段が認識した数から対象空間における物体の分布情報を生成し、生成した分布情報を分布情報出力手段31に出力する。   The distribution estimation means 52 is an object in the target space from the number recognized by the accuracy assurance recognition means stored in association with the position in the method map storage means 42 among the number of objects at each position recognized by the plurality of recognition means. Distribution information is generated, and the generated distribution information is output to the distribution information output means 31.

具体的には、分布推定手段52は、密度推定手段50から入力された位置ごとの物体の密度の情報、単体識別手段51から入力された位置ごとの物体の有無の情報、および手法マップ記憶手段42に記憶されている手法マップを参照し、精度保証認識手段が認識した数に基づいて分布画像を生成する。   Specifically, the distribution estimation means 52 includes information on the density of the object at each position input from the density estimation means 50, information on the presence / absence of an object at each position input from the simplex identification means 51, and a method map storage means The distribution map is generated based on the number recognized by the accuracy assurance recognition means with reference to the method map stored in S.42.

例えば、分布推定手段52は、手法マップにおいて符号Aおよび符号Bと対応付けられており且つ物体が存在すると認識された画素位置に、当該位置の推定密度に応じた色で着色した物体モデルを投影し、また、手法マップにおいて密度推定手段50を表す符号Aのみと対応付けられている位置の画素の値に、推定密度と対応する色をセットして分布画像を生成する。色は、例えば、推定密度が高密度であれば赤、中密度であれば黄、低密度であれば緑などとすることができる。   For example, the distribution estimation unit 52 projects an object model colored with a color according to the estimated density of the position to a pixel position that is associated with the code A and the code B in the method map and that an object is recognized to exist. Also, a color corresponding to the estimated density is set to the value of the pixel at the position associated with only the code A representing the density estimation means 50 in the method map to generate a distribution image. The color may be, for example, red if the estimated density is high, yellow if it is medium density, or green if it is low.

この分布画像の生成に際し、分布推定手段52は物体モデル記憶手段43に記憶されている物体モデルを利用する。物体モデル記憶手段43は、予め物体の形状を近似した物体モデルを記憶している。物体モデルは、立位の人の頭部、胴部、脚部に対応する3つの回転楕円体から構成される立体モデルである。ちなみに、頭部重心を人の代表位置とする。なお、立体モデルはより単純化して人全体を1つの回転楕円体で表すものとすることもできるし、より詳細に例えば、人の頭部、胴部、両腕、両脚を別々の回転楕円体で表すものとすることもできる。   In generating the distribution image, the distribution estimation means 52 uses the object model stored in the object model storage means 43. The object model storage means 43 stores an object model which approximates the shape of the object in advance. The object model is a three-dimensional model composed of three spheroids corresponding to the head, torso and legs of a standing person. By the way, let the center of gravity of the head be the representative position of a person. Note that the three-dimensional model can be simplified to represent the whole person as one spheroid, or more specifically, for example, a person's head, torso, both arms, and both legs may be separate spheroids. It can also be represented by

物体モデルの投影は、物体モデル記憶手段43から読み出した物体モデルと、カメラパラメータ記憶手段44から読み出したカメラパラメータとを用いて、後述する手法マップ生成処理の投影手段53と基本的に同様にして行われる。   The projection of the object model is basically the same as the projection means 53 of the method map generation process described later, using the object model read out from the object model storage means 43 and the camera parameters read out from the camera parameter storage means 44. To be done.

図6は図5の撮影画像200に対応する分布画像の一例を示す模式図である。図5の領域202は上述したように符号Aおよび符号Bが対応付けられており、当該領域に対応して図6には、物体が存在すると認識された画素位置に頭部重心を置いた物体モデルの投影像210〜212が当該画素位置の推定密度に応じた色で描かれる。ここで、各投影像のハッチングは推定密度に応じた色を表しており、投影像210の網掛けは推定密度が高密度であることに対応する色(上述の例では赤色)を表しており、同様に、投影像211の横線ハッチングおよび投影像212の斜線ハッチングは中密度、低密度に対応する色(上述の例ではそれぞれ黄色、緑色)を表している。   FIG. 6 is a schematic view showing an example of a distribution image corresponding to the photographed image 200 of FIG. As described above, the area 202 in FIG. 5 is associated with the code A and the code B. In FIG. 6 corresponding to the area, an object whose head center of gravity is located at the pixel position where the object is recognized to exist The projected images 210 to 212 of the model are drawn in colors according to the estimated density of the pixel positions. Here, the hatching of each projection image represents a color according to the estimated density, and the hatching of the projection image 210 represents a color (red in the above example) corresponding to the high density of the estimated density. Similarly, the horizontal hatching of the projected image 211 and the hatching of the projected image 212 represent colors corresponding to the medium density and low density (yellow and green in the above example, respectively).

図5の領域201は上述したように符号Aのみが対応付けられており、当該領域に対応する図6の領域220の各画素は推定密度に応じた色で表示される。具体的には、領域220内の部分領域221〜223のハッチングは上述の投影像210〜212と共通の色を表しており、部分領域221は高密度、部分領域222は中密度、部分領域223は低密度と推定された領域である。   As described above, the area 201 in FIG. 5 is associated with only the symbol A, and each pixel of the area 220 in FIG. 6 corresponding to the area is displayed in a color according to the estimated density. Specifically, the hatching of partial areas 221 to 223 in area 220 represents the color common to the above-described projected images 210 to 212, partial area 221 is high density, partial area 222 is medium density, partial area 223 Is an area estimated to be low density.

なお、分布推定手段52は、撮影画像に上記分布画像を透過合成することによって分布画像を生成してもよい。或いは、分布推定手段52は、対象空間の地形や建造物を模した立体モデルの投影像に上記分布画像を透過合成することによって分布画像を生成してもよい。   The distribution estimation unit 52 may generate a distribution image by transparently combining the distribution image with the captured image. Alternatively, the distribution estimation unit 52 may generate a distribution image by transparently combining the distribution image with a projection image of a three-dimensional model that simulates the topography of a target space or a building.

分布情報出力手段31は、分布推定手段52から入力された分布情報を、表示制御部7経由で表示部8に伝送し、表示させる。   The distribution information output unit 31 transmits the distribution information input from the distribution estimation unit 52 to the display unit 8 via the display control unit 7 and causes the display unit 8 to display the distribution information.

(手法マップ作成処理)
続いて、物体分布推定装置1の機能のうち手法マップ作成処理に関して説明する。手法マップ作成処理を行うとき(図3)、記憶部4は手法マップ記憶手段42、物体モデル記憶手段43、カメラパラメータ記憶手段44、および限界値記憶手段45等として機能し、画像処理部5は投影手段53および適用手法選択手段54等として機能する。なお、手法マップを作成するタイミングは、手法マップが未だ記憶されていないとき、視野変更が行われたとき、または推定希望領域が変更されたときである。推定希望領域は、撮影画像内において監視員が物体分布推定装置1に物体の分布を推定させたいと希望する領域である。監視員が操作部6を用いて推定希望領域を入力すると、当該領域の情報が表示制御部7および通信部3を介して画像処理部5に入力される。
(Method map creation process)
Subsequently, among the functions of the object distribution estimation apparatus 1, a method map creation process will be described. When performing a method map creation process (FIG. 3), the storage unit 4 functions as a method map storage unit 42, an object model storage unit 43, a camera parameter storage unit 44, a limit value storage unit 45, etc. It functions as the projection means 53 and the application method selection means 54 etc. The timing of creating the method map is when the method map is not stored yet, when the field of view is changed, or when the estimated desired area is changed. The estimated desired area is an area that the observer wants to cause the object distribution estimation device 1 to estimate the distribution of the object in the captured image. When the supervisor inputs the estimated desired area using the operation unit 6, the information on the area is input to the image processing unit 5 via the display control unit 7 and the communication unit 3.

投影手段53は、操作部6を用いて入力された推定希望領域を参照するとともに、物体モデル記憶手段43から物体モデル、カメラパラメータ記憶手段44からカメラパラメータをそれぞれ読み出し、推定希望領域内の各画素位置に物体モデルを投影して投影像を生成し、生成した画素位置ごとの投影像を適用手法選択手段54に出力する。   The projection means 53 refers to the estimated desired area input using the operation unit 6 and reads out the object model from the object model storage means 43 and the camera parameters from the camera parameter storage means 44, and each pixel in the estimated desired area The object model is projected to the position to generate a projection image, and the generated projection image for each pixel position is output to the application method selection unit.

例えば、投影手段53は、カメラパラメータを用いて、対象空間を模した仮想空間の高さ160cmの水平面において推定希望領域内の各画素位置と対応する3次元位置を導出する。上記の高さ160cmは、上述したように頭部重心を人の代表位置としていることに対応して、対象空間において平均的な人の頭部の高さとして予め定めた数値である。そして、投影手段53は、導出した3次元位置を基準にして仮想空間に物体モデルを配置し、カメラパラメータを用いて、配置した物体モデルを撮影部2の撮影面に投影する。   For example, the projection unit 53 derives a three-dimensional position corresponding to each pixel position in the estimated desired area in the horizontal plane 160 cm high in the virtual space simulating the target space, using the camera parameter. The height 160 cm is a numerical value predetermined as the average height of the head of a person in the target space, corresponding to the center of gravity at the representative position of the person as described above. Then, the projection unit 53 arranges the object model in the virtual space on the basis of the derived three-dimensional position, and projects the arranged object model on the imaging plane of the imaging unit 2 using the camera parameters.

適用手法選択手段54は、推定希望領域内の各画素位置について、当該画素位置における物体の像の解像度を各認識手段の限界解像度と比較し、物体像の解像度が限界解像度以上である認識手段を精度保証認識手段として選択する。つまり、適用手法選択手段54は、投影手段53から入力された画素位置ごとの投影像の解像度と、限界値記憶手段45に記憶されている複数の認識手段それぞれの限界解像度とを参照して、推定希望領域内の各画素位置における精度保証認識手段を選択して、画素位置と精度保証認識手段との対応関係を手法マップ記憶手段42に記憶させる。   The application method selection means 54 compares the resolution of the image of the object at the pixel position with the limit resolution of each recognition means for each pixel position in the estimation desired area, and recognizes the recognition means whose resolution of the object image is at least the limit resolution. Select as accuracy assurance recognition means. That is, the application method selection unit 54 refers to the resolution of the projection image for each pixel position input from the projection unit 53 and the limit resolution of each of the plurality of recognition units stored in the limit value storage unit 45. The accuracy assurance recognition means at each pixel position in the estimation desired area is selected, and the correspondence between the pixel position and the accuracy assurance recognition means is stored in the method map storage means 42.

具体的には、解像度は物体の像の画素数によって表すことができる。つまり、物体の像に対応する画素数が多いほど、その像は高解像度である。   Specifically, the resolution can be represented by the number of pixels of the image of the object. That is, the larger the number of pixels corresponding to the image of the object, the higher the resolution of the image.

この場合、限界解像度に対応する画素数を限界画素数として定義し、限界値記憶手段45には、限界解像度として当該限界画素数を記憶させることができる。また、適用手法選択手段54は、推定希望領域内の各画素位置について、当該画素位置の投影像の画素数を計数する。画素数の計数値が当該画素位置における物体の像の解像度となり、適用手法選択手段54は、当該計数値を各認識手段の限界画素数と比較し、計数値が限界画素数以上である認識手段を精度保証認識手段として選択する。   In this case, the number of pixels corresponding to the limit resolution can be defined as the limit pixel number, and the limit value storage unit 45 can store the limit pixel number as the limit resolution. In addition, the application method selection unit 54 counts the number of pixels of the projected image of the pixel position for each pixel position in the estimation desired area. The count value of the number of pixels is the resolution of the image of the object at the pixel position, and the application method selection means 54 compares the count value with the limit pixel number of each recognition means Is selected as the accuracy assurance recognition means.

図7は図5の撮影画像200に対応する手法マップの一例を示す模式図である。この例では、一点鎖線で囲む推定希望領域300に対して手法マップが作成される。投影手段53は、推定希望領域300内の画素群の位置[…,(x,y),…,(x,y),…,(x,y),…]に物体モデルを投影して投影像群[…,投影像310,…,投影像320,…,投影像330,…]を生成する。これら各投影像に対応して適用手法選択手段54は、各投影像の解像度[…,r,…,r,…,r,…]を導出する。限界値記憶手段45には、密度推定手段50に付与された符号Aと対応付けてその限界解像度R、単体識別手段51に付与された符号Bと対応付けてその限界解像度Rが記憶されている。本例では、画素位置(x,y)の投影像310の解像度rについてr<R、r<Rであり、画素位置(x,y)の投影像320の解像度rについてr>R、r<Rであり、画素位置(x,y)の投影像330の解像度rについてr>R、r>Rであるとする。適用手法選択手段54は、解像度[…,r,…,r,…,r,…]をRおよびRのそれぞれと比較し、[…,(x,y)の精度保証認識手段は無し,…,(x,y)の精度保証認識手段は密度推定手段50,…,(x,y)の精度保証認識手段は密度推定手段50および単体識別手段51,…]と判定する。つまり、適用手法選択手段54は、推定希望領域300において画素位置(x,y)を含む領域311内の各画素位置については精度保証認識手段は無いと判定する一方、画素位置(x,y)を含む領域321内の各画素位置については符合Aとの関連付けを手法マップ記憶手段42に記憶させ、また、画素位置(x,y)を含む領域331内の各画素位置については符合Aおよび符号Bとの関連付けを手法マップ記憶手段42に記憶させる。 FIG. 7 is a schematic view showing an example of a method map corresponding to the photographed image 200 of FIG. In this example, a method map is created for the estimated desired area 300 surrounded by an alternate long and short dash line. The projection means 53 sets the position of the pixel group in the estimated desired area 300 [..., (x 1 , y 1 ), ..., (x 2 , y 2 ), ..., (x 3 , y 3 ), ...] The model is projected to generate projected image groups [..., projected images 310, ..., projected images 320, ..., projected images 330, ...]. The application method selection means 54 derives resolution [..., r 1 ,..., R 2 ,..., R 3 ,. The limit value storing unit 45, the resolution limit R A, its resolution limit R B in association with granted code B to a single identification means 51 is stored in association with the code A given to the density estimating means 50 ing. In this example, r 1 <R A and r 1 <R B for the resolution r 1 of the projected image 310 at the pixel position (x 1 , y 1 ), and the projected image 320 at the pixel position (x 2 , y 2 ) Assuming that r 2 > R A and r 2 <R B for resolution r 2 and r 3 > R A and r 2 > R B for resolution r 3 of the projected image 330 at the pixel position (x 3 , y 3 ) Do. The application method selection means 54 compares the resolution [..., r 1 , ..., r 2 , ..., r 3 , ...] with each of R A and R B and determines the accuracy of [..., (x 1 , y 1 ) There is no guarantee recognition means, ..., (x 2 , y 2 ) accuracy guarantee recognition means are the density estimation means 50, ..., (x 3 , y 3 ) accuracy guarantee recognition means are the density estimation means 50 and the simplex identification means 51 , ...] is determined. That is, while the application method selecting unit 54 determines that there is no accuracy assurance recognizing unit for each pixel position in the area 311 including the pixel position (x 1 , y 1 ) in the estimation desired area 300, the pixel position (x 2 , Y 2 ) is stored in the method map storage unit 42 for each pixel position in the area 321 including the pixel position (x 2 , y 2 ), and each pixel position in the area 331 including the pixel position (x 3 , y 3 ) The association with the code A and the code B is stored in the method map storage means 42.

[物体分布推定装置1の動作]
図8、図9および図10のフロー図を参照して物体分布推定装置1の動作を説明する。
[Operation of Object Distribution Estimation Device 1]
The operation of the object distribution estimation apparatus 1 will be described with reference to the flowcharts of FIGS. 8, 9 and 10.

図8は物体分布推定装置1の動作の概略のフロー図である。物体分布推定装置1が動作を開始すると、イベント会場に設置されている撮影部2は所定時間おきに監視空間を撮影して撮影画像を画像処理部5が設置されている画像解析センター宛に順次送信する。そして、画像処理部5は基本的に撮影画像を受信するたびに図8のフロー図に従い、ステップS5〜S10の分布推定処理に関する動作を繰り返す。但し、手法マップを作成する必要がある場合は、ステップS5〜S10の分布推定処理に先行してステップS1〜S4の手法マップ作成処理を行う。   FIG. 8 is a schematic flow chart of the operation of the object distribution estimation device 1. When the object distribution estimation apparatus 1 starts operation, the imaging unit 2 installed at the event hall captures images of the monitoring space at predetermined time intervals and sequentially transfers the captured image to the image analysis center where the image processing unit 5 is installed. Send. The image processing unit 5 basically repeats the operation relating to the distribution estimation process of steps S5 to S10 in accordance with the flowchart of FIG. 8 each time a captured image is received. However, when it is necessary to create a method map, the method map creation process of steps S1 to S4 is performed prior to the distribution estimation process of steps S5 to S10.

すなわち、操作部6から画像処理部5に推定希望領域の変更指示が入力された場合(ステップS1にて「YES」の場合)、画像処理部5は手法マップ作成処理(ステップS4)を行う。また、物体分布推定装置1の動作開始時のように手法マップがない場合、または撮影部2の視野が変更された場合は(ステップS2にて「YES」の場合)、画像処理部5は例えば、表示部8に推定希望領域の入力を求める表示を行って、操作部6からの推定希望領域の入力を待ち(ステップS3にて「NO」の場合)、推定希望領域が入力されると(ステップS3にて「YES」の場合)、手法マップ作成処理S4を行う。そして、これらの場合、画像処理部5は、手法マップ作成処理S4の後に、ステップS5〜S10の分布推定処理を行う。   That is, when an instruction to change the estimation desired area is input from the operation unit 6 to the image processing unit 5 (in the case of “YES” in step S1), the image processing unit 5 performs method map generation processing (step S4). Further, when there is no method map as when the operation of the object distribution estimation device 1 starts, or when the field of view of the imaging unit 2 is changed (“YES” in step S2), the image processing unit 5 Then, the display unit 8 displays a request for the input of the estimation desired region, waits for the input of the estimation desired region from the operation unit 6 (in the case of “NO” in step S3), and the estimation desired region is input ( In the case of “YES” in step S3), method map creation processing S4 is performed. Then, in these cases, the image processing unit 5 performs the distribution estimation process of steps S5 to S10 after the method map creation process S4.

一方、推定希望領域の変更がなく、且つ手法マップが既に存在し、且つ視野変更が生じていない場合は(ステップS1およびS2にて「NO」の場合)、画像処理部5は手法マップ作成処理S4を省略してステップS5〜S10の分布推定処理を行う。   On the other hand, if there is no change in the estimated desired area, and a method map already exists, and no change in the visual field occurs (“NO” in steps S1 and S2), the image processing unit 5 creates the method map The distribution estimation process of steps S5 to S10 is performed by omitting S4.

図9は手法マップ作成処理S4の概略のフロー図であり、図9を参照しつつ、手法マップ作成処理S4を説明する。   FIG. 9 is a schematic flow chart of the method map creating process S4, and the method map creating process S4 will be described with reference to FIG.

画像処理部5はステップS1またはS3にて推定希望領域が指定されると、投影手段53として動作し、推定希望領域内の各画素を順次、注目位置に設定し(ステップS40)、物体モデル記憶手段43から読み出した物体モデルを、カメラパラメータ記憶手段44から読み出したカメラパラメータに基づいて撮影部2の撮影面に投影する(ステップS41)。次に画像処理部5は適用手法選択手段54として動作し、適用手法選択手段54は、投影手段53により生成された物体の投影像の解像度を算出する(ステップS42)。   When the area desired for estimation is designated in step S1 or S3, the image processing unit 5 operates as the projection means 53, and sequentially sets each pixel in the area for estimation desired to the target position (step S40). The object model read out from the means 43 is projected on the photographing surface of the photographing unit 2 based on the camera parameters read out from the camera parameter storage means 44 (step S41). Next, the image processing unit 5 operates as the application method selection unit 54, and the application method selection unit 54 calculates the resolution of the projection image of the object generated by the projection unit 53 (step S42).

適用手法選択手段54は、注目位置における物体数を認識する複数の認識手段それぞれについて、当該位置における物体の投影像の解像度と、当該認識手段の限界解像度とを比較して精度保証認識手段か否かを判断し、精度保証認識手段であれば手法マップに記憶させる。具体的には、本実施形態では認識手段は密度推定器および単体識別器それぞれを用いた2種類であり、それぞれを上述した認識手段IDである符号AおよびBで識別する。   The application method selection unit 54 compares the resolution of the projected image of the object at the position with the limit resolution of the recognition unit for each of the plurality of recognition units that recognize the number of objects at the target position. If it is a means for recognition of quality assurance, it is stored in the method map. Specifically, in the present embodiment, the recognition means is of two types using the density estimator and the single classifier respectively, and each of them is identified by the above-described recognition means ID and the symbols A and B.

適用手法選択手段54は、限界値記憶手段45から、符号Aと対応付けて記憶されている単体識別器の限界解像度を読み出し、投影像の解像度と当該限界解像度とを比較する。そして、投影像の解像度が限界解像度以上であれば(ステップS43にて「YES」の場合)、単体識別器を注目位置の精度保証認識手段として手法マップ記憶手段42に記憶させる(ステップS44)。一方、投影像の解像度が限界解像度未満であれば(ステップS43にて「NO」の場合)、単体識別器は注目位置の精度保証認識手段とはされずステップS44は省略される。   The application method selection unit 54 reads the limit resolution of the single unit discriminator stored in association with the code A from the limit value storage unit 45, and compares the resolution of the projection image with the limit resolution. Then, if the resolution of the projection image is equal to or higher than the limit resolution (in the case of "YES" in step S43), the single identifier is stored in the method map storage unit 42 as the accuracy assurance recognition unit of the target position (step S44). On the other hand, if the resolution of the projection image is less than the limit resolution (in the case of "NO" in step S43), the single identifier is not used as the accuracy assurance recognition means of the attention position, and step S44 is omitted.

ステップS43,S44での単体識別器についての精度保証認識手段の判定に続いて、ステップS45,S46にて密度推定器についての精度保証認識手段の判定を同様に行う。つまり、適用手法選択手段54は、限界値記憶手段45から、符号Bと対応付けて記憶されている密度推定器の限界解像度を読み出して、投影像の解像度と比較し、投影像の解像度が限界解像度以上であれば(ステップS45にて「YES」の場合)、密度推定器を注目位置の精度保証認識手段として手法マップ記憶手段42に記憶させ(ステップS46)、一方、投影像の解像度が限界解像度未満であれば(ステップS45にて「NO」の場合)、密度推定器は注目位置の精度保証認識手段とはされずステップS46は省略される。   Subsequent to the determination of the accuracy assurance recognition means for the single unit discriminator in steps S43 and S44, the determination of the accuracy assurance recognition means for the density estimator is similarly performed in steps S45 and S46. That is, the application method selection means 54 reads the limit resolution of the density estimator stored in association with the code B from the limit value storage means 45 and compares it with the resolution of the projected image, and the resolution of the projected image is limited. If it is higher than the resolution (in the case of “YES” in step S45), the density estimator is stored in the method map storage unit 42 as the accuracy assurance recognition unit of the target position (step S46). If it is less than the resolution (in the case of "NO" in step S45), the density estimator is not used as the accuracy assurance recognition means of the position of interest, and step S46 is omitted.

画像処理部5は推定希望領域内の全画素についてステップS40〜S46の処理を繰り返し(ステップS47にて「NO」の場合)、全画素について完了すると(ステップS47にて「YES」の場合)、図8のステップS5に処理を進める。   When the image processing unit 5 repeats the processing of steps S40 to S46 for all pixels in the estimation desired region (in the case of “NO” in step S47) and completes for all pixels (in the case of “YES” in step S47), The process proceeds to step S5 in FIG.

ステップS5では、通信部3が画像取得手段30として動作し、撮影部2からの撮影画像の受信待ち状態となる。撮影画像を取得した画像取得手段30は当該撮影画像を画像処理部5に出力する。   In step S5, the communication unit 3 operates as the image acquisition unit 30, and waits for reception of a photographed image from the photographing unit 2. The image acquisition unit 30 that has acquired the photographed image outputs the photographed image to the image processing unit 5.

撮影画像を入力された画像処理部5は密度推定手段50として動作し、撮影画像から密度分布を推定する(ステップS6)。具体的には、密度推定手段50は、撮影画像における推定希望領域内の各画素を注目位置として、注目位置の推定用特徴量を抽出するとともに記憶部4の密度推定器記憶手段40から密度推定器を読み出し、推定用特徴量を密度推定器に入力して注目位置における推定密度を取得する。   The image processing unit 5 into which the photographed image is input operates as the density estimation unit 50, and estimates the density distribution from the photographed image (step S6). Specifically, the density estimation unit 50 extracts feature quantities for estimation of the target position with each pixel in the estimated desired area in the photographed image as the target position, and performs density estimation from the density estimator storage unit 40 of the storage unit 4 And the feature amount for estimation is input to the density estimator to obtain the estimated density at the position of interest.

また、画像処理部5は単体識別手段51として動作し、撮影画像から物体有無を識別する(ステップS7)。具体的には、単体識別手段51は、撮影画像における推定希望領域内の各画素を注目位置として、注目位置の識別用特徴量を抽出するとともに、全身識別器100、上半身識別器101および頭部近傍識別器102のうち、ステップS6で得られた注目位置の推定密度に対応する単体識別器を単体識別器記憶手段41から読み出し、当該単体識別器に識別用特徴量を入力して物体有無を識別する。   Further, the image processing unit 5 operates as the single identification unit 51, and identifies the presence or absence of an object from the photographed image (step S7). Specifically, the single-piece identification unit 51 extracts feature quantities for identification of the attention position with each pixel in the estimated desired area in the photographed image as the attention position, and the whole-body discriminator 100, the upper body discriminator 101, and the head Among the neighboring classifiers 102, the single classifiers corresponding to the estimated density of the target position obtained in step S6 are read out from the single classifier storage unit 41, and the classification features are input to the single classifiers to detect the presence or absence of an object. Identify

推定希望領域内の各画素について、ステップS6で得られた推定密度およびステップS7で得られた物体有無は分布推定手段52に入力される。   The estimated density obtained in step S6 and the presence or absence of an object obtained in step S7 are input to the distribution estimating means 52 for each pixel in the estimated desired area.

分布推定手段52は手法マップ記憶手段42に記憶された手法マップを読み出し(ステップS8)、当該手法マップと、入力された推定密度および物体有無とから分布画像を生成する(ステップS9)。   The distribution estimation means 52 reads out the method map stored in the method map storage means 42 (step S8), and generates a distribution image from the method map and the inputted estimated density and the presence or absence of an object (step S9).

図10は分布画像生成処理S9の概略のフロー図であり、図10を参照しつつ、分布画像生成処理S9を説明する。分布推定手段52は推定希望領域の各画素を遠方画素から順次、注目位置に設定する(ステップS90)。そして、ステップS8にて読み出した手法マップを参照し、注目位置について単体識別手段が精度保証されているかを調べる(ステップS91)。   FIG. 10 is a schematic flowchart of the distribution image generation processing S9, and the distribution image generation processing S9 will be described with reference to FIG. The distribution estimation means 52 sequentially sets each pixel of the estimation desired area from the distant pixel to the target position (step S90). Then, with reference to the method map read out in step S8, it is checked whether the accuracy of the single identification unit is ensured for the target position (step S91).

単体識別手段が精度保証認識手段である場合(ステップS91にて「YES」の場合)、分布推定手段52は、注目位置についてステップS7の識別結果が物体有りであるならば(ステップS92にて「YES」の場合)、注目位置における物体モデルの投影像を描画する(ステップS93)。ここで、図5を用いて説明した本実施形態の分布マップの例では、単体識別手段が精度保証認識手段である画素位置では、密度推定手段も精度保証認識手段である。そこで、ステップS93では描画する投影像を図6を用いて説明したように、ステップS6の推定密度に応じた色で描く。一方、ステップS7の識別結果が物体無しの場合は(ステップS92にて「NO」の場合)、ステップS93は省略される。   If the single identification unit is the accuracy assurance recognition unit (in the case of "YES" in step S91), distribution estimating unit 52 determines that the identification result in step S7 for the target position is an object ("in step S92" In the case of “YES”, the projection image of the object model at the target position is drawn (step S93). Here, in the example of the distribution map of the present embodiment described with reference to FIG. 5, the density estimation unit is also the accuracy assurance recognition unit at the pixel position where the single identification unit is the accuracy assurance recognition unit. Therefore, in step S93, as described with reference to FIG. 6, the projected image to be drawn is drawn in a color according to the estimated density in step S6. On the other hand, if the identification result in step S7 indicates no object ("NO" in step S92), step S93 is omitted.

単体識別手段が精度保証されていない場合は(ステップS91にて「NO」の場合)、分布推定手段52は手法マップを参照し、注目位置について密度推定手段が精度保証されているかを調べる(ステップS94)。   If the accuracy of the single identification unit is not guaranteed (in the case of "NO" in step S91), the distribution estimation unit 52 refers to the method map to check whether the accuracy of the density estimation unit is guaranteed for the target position (step S94).

密度推定手段が精度保証認識手段である場合(ステップS94にて「YES」の場合)、分布推定手段52は、分布画像における注目位置の画素にステップS6の推定密度に応じた色を付与する(ステップS95)。一方、密度推定手段が精度保証されていない場合は(ステップS94にて「NO」の場合)、ステップS95は省略される。   When the density estimation means is the accuracy assurance recognition means (in the case of “YES” in step S94), the distribution estimation means 52 adds a color according to the estimated density of step S6 to the pixels of the target position in the distribution image ( Step S95). On the other hand, when the accuracy of the density estimation means is not guaranteed ("NO" in step S94), step S95 is omitted.

分布推定手段52は推定希望領域内の全画素についてステップS90〜S95の処理を繰り返し(ステップS96にて「NO」の場合)、全画素について完了すると(ステップS96にて「YES」の場合)、図8のステップS10に処理を進める。   Distribution estimation means 52 repeats the processing of steps S90 to S95 for all pixels in the estimation desired region (in the case of “NO” in step S96), and when it is completed for all the pixels (in the case of “YES” in step S96), The process proceeds to step S10 in FIG.

なお、ステップS90にて注目位置を遠方画素から順に設定することで、分布画像における隠面消去が塗り重ね法で行われる。   In addition, hidden surface elimination in the distribution image is performed by the paint overlapping method by setting the attention position in order from the distant pixel in step S90.

ステップS10では、通信部3が分布情報出力手段31として動作し、分布推定手段52で生成された分布画像を表示制御部7へ出力し、表示制御部7は分布画像を表示部8に表示させる。   In step S10, the communication unit 3 operates as the distribution information output unit 31, and outputs the distribution image generated by the distribution estimation unit 52 to the display control unit 7, and the display control unit 7 causes the display unit 8 to display the distribution image. .

[変形例]
(1)上記実施形態においては、物体の像を構成する画素数を当該物体像の解像度と定義したが、物体の像の外接矩形の大きさ(すなわち画素数あるいは面積)、物体の像の高さを基準とする一定のアスペクト比の矩形の大きさ、または、物体の像の幅を基準とする一定のアスペクト比の矩形の大きさを解像度と定義しても等価である。このように定義することでテスト画像の解像度の導出が容易となる。
[Modification]
(1) In the above embodiment, the number of pixels constituting the image of an object is defined as the resolution of the object image, but the size (that is, the number of pixels or the area) of the circumscribed rectangle of the image of the object, the height of the image of the object It is equivalent to define the size of a rectangle with a constant aspect ratio based on the width or the size of a rectangle with a constant aspect ratio based on the width of the image of the object as the resolution. This definition makes it easy to derive the resolution of the test image.

(2)上記実施形態およびその変形例においては、画素数または面積を物体像の解像度と定義したが、撮影部2およびその撮影倍率が決まっている場合は撮影部2から物体までの距離と解像度との関係が一意に定まるため、当該距離によって解像度を推定することができる。つまり、物体像の解像度を表す値として撮影部2から物体までの距離を用いることができる。   (2) In the above embodiment and its modification, the number of pixels or the area is defined as the resolution of the object image, but when the imaging unit 2 and its imaging magnification are determined, the distance from the imaging unit 2 to the object and the resolution Since the relationship with is uniquely determined, the resolution can be estimated by the distance. That is, the distance from the imaging unit 2 to the object can be used as a value representing the resolution of the object image.

この場合、限界値記憶手段45には限界解像度に対応する距離(限界距離)が記憶される。投影手段53は推定希望領域内の各画素位置と対応する3次元位置を導出して撮影部2から当該3次元位置までの距離を算出し、適用手法選択手段54は投影手段53が算出した距離と限界距離とを比較して精度保証認識手段を選択する。つまり、適用手法選択手段54は、撮影画像内の位置に対して、複数の認識手段のうち、当該位置に撮影される物体についての距離が限界距離以下となるものを精度保証認識手段として選択する。そして、手法マップ記憶手段42は撮影画像内の位置と精度保証認識手段とを関連付けて記憶する。   In this case, the limit value storage unit 45 stores the distance (limit distance) corresponding to the limit resolution. The projection unit 53 derives a three-dimensional position corresponding to each pixel position in the estimated desired area, calculates the distance from the photographing unit 2 to the three-dimensional position, and the application method selection unit 54 calculates the distance calculated by the projection unit 53 And the limit distance are selected to select the accuracy assurance recognition means. That is, the application method selection unit 54 selects, as the accuracy assurance recognition unit, one of a plurality of recognition units for which the distance with respect to the object imaged at the position is equal to or less than the limit distance with respect to the position in the photographed image. . Then, the method map storage means 42 associates and stores the position in the photographed image and the accuracy assurance recognition means.

例えば、投影手段53は撮影画像における位置を対象空間における物体に応じた高さの水平面に逆投影して物体仮想位置を求め、適用手法選択手段54は、撮影画像内の位置に対して、当該位置に対応する物体仮想位置と撮影部2との距離と、複数の認識手段それぞれの限界距離とを比較して、当該位置に関連付ける精度保証認識手段を選出する。   For example, the projection unit 53 backprojects the position in the photographed image on a horizontal plane at a height according to the object in the target space to obtain the object virtual position, and the application method selecting unit 54 calculates the position in the photographed image. The distance between the virtual position of the object corresponding to the position and the photographing unit 2 is compared with the limit distance of each of the plurality of recognition means, and the accuracy assurance recognition means to be associated with the position is selected.

(3)上記実施形態およびその変形例においては、分布推定手段52は、分布情報として分布画像を生成したが、分布情報は画像表現に限らない。例えば、分布推定手段52は、分布マップにて単体識別手段51が精度保証認識手段として対応付けられている画素のうち、撮影画像にて単体識別手段51が物体の存在を認識した画素の位置を撮影部2のカメラパラメータにより対象空間に逆投影して、個々の物体が存在する3次元位置の情報を算出する。また、分布推定手段52は、分布マップにて密度推定手段50が精度保証認識手段として対応付けられている画素については、撮影画像の密度推定した画素を同一推定密度ごとの領域にまとめ、各領域を撮影部2のカメラパラメータにより対象空間に逆投影して各密度の3次元領域の情報を算出する。このようにして分布推定手段52は3次元の分布情報を生成してもよい。また、この場合、密度推定手段50および単体識別手段51の両方が対応付けられている位置に関しては、より詳細である単体識別手段51の情報のみから分布情報を生成してもよい。   (3) In the above-mentioned embodiment and its modification, distribution estimating means 52 generated a distribution image as distribution information, but distribution information is not limited to image representation. For example, the distribution estimation unit 52 sets the position of the pixel at which the single identification unit 51 recognizes the presence of the object in the photographed image among the pixels associated with the single identification unit 51 as the accuracy assurance recognition unit in the distribution map. Back projection onto the target space based on the camera parameters of the imaging unit 2 is used to calculate information on the three-dimensional position where each object exists. In addition, the distribution estimation unit 52 arranges the pixels for which the density estimation unit 50 estimates the density estimation unit 50 in the distribution map as the accuracy assurance recognition unit, into the areas for each same estimated density, Is backprojected onto the target space according to the camera parameters of the imaging unit 2 to calculate information of a three-dimensional area of each density. Thus, the distribution estimation means 52 may generate three-dimensional distribution information. In this case, distribution information may be generated only from the information of the single-body identification means 51 which is more detailed, with respect to the position where both the density estimation means 50 and the single-body identification means 51 are associated.

(4)上記実施形態およびその変形例においては、検出対象の物体を人とする例を示したが、これに限らず、検出対象の物体を車両、牛や羊等の動物等とすることもできる。   (4) In the above embodiment and its modification, an example in which the object to be detected is a human is shown, but the invention is not limited to this, and an object to be detected may be a vehicle or an animal such as a cow or sheep. it can.

(5)上記実施形態およびその各変形例においては、多クラスSVM法にて学習した密度推定器を例示したが、多クラスSVM法に代えて、決定木型のランダムフォレスト法、多クラスのアダブースト(AdaBoost)法または多クラスロジスティック回帰法などにて学習した密度推定器など種々の密度推定器とすることができる。   (5) In the above embodiment and each variation, the density estimator learned by the multiclass SVM method is exemplified, but instead of the multiclass SVM method, a decision tree type random forest method, multiclass Adaboost Various density estimators such as a density estimator learned by (AdaBoost) method or multiclass logistic regression method can be used.

或いは識別型のCNN(Convolutional Neural Network)を用いた密度推定器とすることもできる。   Alternatively, it may be a density estimator using a discrimination type CNN (Convolutional Neural Network).

(6)上記実施形態およびその各変形例においては、密度推定器が推定する背景以外の密度のクラスを3クラスとしたが、より細かくクラスを分けてもよい。   (6) In the above-described embodiment and the respective variations thereof, classes of density other than the background estimated by the density estimator are three classes, but the classes may be divided more finely.

(7)上記実施形態およびその各変形例においては、多クラスに分類する密度推定器を例示したがこれに代えて、特徴量から密度の値(推定密度)を回帰する回帰型の密度推定器とすることもできる。すなわち、リッジ回帰法、サポートベクターリグレッション法、回帰木型のランダムフォレスト法またはガウス過程回帰(Gaussian Process Regression)などによって、特徴量から推定密度を求めるための回帰関数のパラメータを学習した密度推定器とすることができる。   (7) In the above-described embodiment and each of the modifications thereof, a density estimator that classifies into multiple classes is exemplified, but instead, a regression-type density estimator that regresses the value of density (estimated density) from feature amounts It can also be done. That is, a density estimator which learns parameters of a regression function for obtaining an estimated density from feature amounts by ridge regression method, support vector regression method, regression tree type random forest method, Gaussian process regression, or the like can do.

或いは回帰型のCNNを用いた密度推定器とすることもできる。   Alternatively, it may be a density estimator using a regression type CNN.

(8)上記実施形態およびその各変形例においては、密度推定器が学習する特徴量および推定用特徴量としてGLCM特徴を例示したが、これらはGLCM特徴に代えて、局所二値パターン(Local Binary Pattern:LBP)特徴量、ハールライク(Haar-like)特徴量、HOG特徴量、輝度パターンなどの種々の特徴量とすることができ、またはGLCM特徴とこれらのうちの複数を組み合わせた特徴量とすることもできる。   (8) In the above-described embodiment and each of the modifications, the GLCM feature is exemplified as the feature value to be learned by the density estimator and the feature value for estimation, but these may be local binary patterns (Local Binary) instead of the GLCM features. Pattern (LBP) can be a variety of feature quantities such as feature quantity, Haar-like feature quantity, HOG feature quantity, luminance pattern, or a combination of a plurality of GLCM features and these It can also be done.

(9)上記実施形態およびその各変形例においては、密度推定手段50および単体識別手段51が1画素間隔で走査して処理を行う例を示したが、これらの走査を2画素以上の間隔を空けて行うことも可能である。   (9) In the above-described embodiment and each of the modifications, the density estimation unit 50 and the single identification unit 51 scan at intervals of one pixel. It is also possible to do it empty.

(10)上記実施形態およびその各変形例においては、線形SVM法により学習された単体識別器を例示したが、線形SVM法に代えてアダブースト(AdaBoost)法など、従来知られた各種の学習法を用いて学習した単体識別器とすることもできる。また、識別器の代わりにパターンマッチング器を用いることもでき、その場合の識別スコアは人の学習用画像から抽出した特徴量の平均パターンと入力画像の特徴量との内積などとなり、識別スコア算出関数は当該スコアを出力値とし入力画像の特徴量を入力値とする関数とすることができる。また単体識別器として識別型のCNNを用いても良い。   (10) In the above embodiment and each of the modifications, the single classifiers learned by the linear SVM method are exemplified, but various learning methods conventionally known such as the AdaBoost method instead of the linear SVM method are exemplified. It can also be a single discriminator learned using. In addition, a pattern matching unit can be used instead of the classifier, and the classification score in that case is the inner product of the average pattern of the feature quantities extracted from the human learning image and the feature quantity of the input image, etc. The function can be a function having the score as an output value and the feature amount of the input image as an input value. Alternatively, a discrimination type CNN may be used as a single discriminator.

(11)上記実施形態およびその各変形例においては、単体識別器が学習する特徴量としてHOG特徴量を例示したが、これらはHOG特徴量に代えて、局所二値パターン特徴量、ハールライク特徴量、輝度パターンなどの種々の特徴量とすることができ、またはHOG特徴量とこれらのうちの複数を組み合わせた特徴量とすることもできる。   (11) In the above embodiment and the respective variations thereof, the HOG feature has been exemplified as the feature to be learned by the single classifier. However, instead of the HOG feature, local binary pattern feature, Haar-like feature , And may be various feature amounts such as a luminance pattern, or may be a feature amount obtained by combining the HOG feature amount and a plurality of these.

1 物体分布推定装置、2 撮影部、3 通信部、4 記憶部、5 画像処理部、6 操作部、7 表示制御部、8 表示部、30 画像取得手段、31 分布情報出力手段、40 密度推定器記憶手段、41 単体識別器記憶手段、42 手法マップ記憶手段、43 物体モデル記憶手段、44 カメラパラメータ記憶手段、45 限界値記憶手段、50 密度推定手段、51 単体識別手段、52 分布推定手段、53 投影手段、54 適用手法選択手段、100 全身識別器、101 上半身識別器、102 頭部近傍識別器、200 撮影画像、250 手法マップ、300 推定希望領域。   Reference Signs List 1 object distribution estimation device, 2 imaging unit, 3 communication unit, 4 storage unit, 5 image processing unit, 6 operation unit, 7 display control unit, 8 display unit, 30 image acquisition unit, 31 distribution information output unit, 40 density estimation Storage means 41 single discriminator storage means 42 method map storage means 43 object model storage means 44 camera parameter storage means 45 limit value storage means 50 density estimation means 51 single identification means 52 distribution estimation means 53 projection means, 54 application method selection means, 100 whole body discriminator, 101 upper body discriminator, 102 near head part discriminator, 200 photographed image, 250 method map, 300 estimated desired area.

Claims (6)

撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、
それぞれが、撮影された前記物体の数が異なる複数種類の学習画像それぞれの特徴を予め学習した認識器を用い、前記撮影画像内の任意の位置に撮影された前記物体の数を認識する認識手段であり、認識可能な物体数の範囲が互いに異なる複数の前記認識器を用いて前記物体数の当該範囲ごとに設けられた複数の認識手段と、
前記撮影画像内の位置と、前記複数の認識手段のうち当該位置にて前記物体数を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、
前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した物体数から、前記空間における前記物体の分布情報を生成する分布推定手段と、
を備えたことを特徴とする物体分布推定装置。
An image acquisition unit that acquires a photographed image of a space in which a predetermined object photographed by the photographing unit may exist;
A recognition unit that recognizes the number of objects photographed at an arbitrary position in the photographed image, using a recognizer that has previously learned the features of each of a plurality of types of learning images in which the number of photographed objects differs A plurality of recognition means provided for each range of the number of objects using a plurality of the recognizers having different ranges of the number of recognizable objects.
Storage means for associating and storing the position in the photographed image and the accuracy assurance recognition means capable of recognizing the number of objects at the position among the plurality of recognition means with an accuracy equal to or more than a predetermined lower limit.
Distribution estimation means for generating distribution information of the objects in the space from the number of objects acquired in the photographed image by the accuracy assurance recognition means stored in the storage means;
An object distribution estimation apparatus characterized by comprising:
前記認識手段が前記下限値以上の精度で認識可能である前記物体の像に関しての解像度の下限値を当該認識手段の限界解像度と定め、
前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置での前記物体の像の前記解像度が前記限界解像度以上となるものを前記精度保証認識手段として関連付けて記憶していること、
を特徴とする請求項1に記載の物体分布推定装置。
The lower limit value of the resolution with respect to the image of the object which can be recognized with an accuracy equal to or higher than the lower limit value is determined as the limit resolution of the recognition means.
The storage means associates, as the accuracy assurance recognition means, one of the plurality of recognition means in which the resolution of the image of the object at the position is equal to or higher than the limit resolution with respect to the position in the photographed image. Remember that,
The object distribution estimation apparatus according to claim 1, characterized in that
前記物体の像の画素数によって前記解像度を表し、前記限界解像度に対応する前記画素数を限界画素数として、
前記空間内に存在する前記物体を模したモデルを前記撮影部の撮影面に投影して投影像を生成する投影手段と、
前記撮影画像内の位置に対して、当該位置に生成される前記投影像の画素数と前記複数の認識手段それぞれの前記限界画素数とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、
をさらに備えたことを特徴とする請求項2に記載の物体分布推定装置。
The resolution is represented by the number of pixels of the image of the object, and the number of pixels corresponding to the limit resolution is the limit number of pixels.
A projection unit configured to project a model imitating the object present in the space onto a photographing surface of the photographing unit to generate a projected image;
The accuracy assurance recognition means for comparing the number of pixels of the projected image generated at the position with the limit number of pixels of each of the plurality of recognition means for the position in the photographed image and associating the number with the position Selection means to select,
The object distribution estimation apparatus according to claim 2, further comprising:
前記空間における前記撮影部から前記物体までの距離によって前記解像度を推定し、前記限界解像度に対応する前記距離を限界距離として、
前記記憶手段は、前記撮影画像内の位置に対して、前記複数の認識手段のうち、当該位置に撮影される前記物体についての前記距離が前記限界距離以下となるものを前記精度保証認識手段として関連付けて記憶していること、
を特徴とする請求項2に記載の物体分布推定装置。
The resolution is estimated by the distance from the imaging unit to the object in the space, and the distance corresponding to the limit resolution is set as a limit distance.
The storage means is, for the position within the photographed image, among the plurality of recognition means, one for which the distance for the object photographed at the position is equal to or less than the limit distance is the accuracy assurance recognition means Associate and memorize,
The object distribution estimation apparatus according to claim 2, characterized in that
前記撮影画像における位置を前記空間における前記物体に応じた高さの水平面に逆投影して物体仮想位置を求める投影手段と、
前記撮影画像内の位置に対して、当該位置に対応する前記物体仮想位置と前記撮影部との距離と、前記複数の認識手段それぞれの前記限界距離とを比較して、当該位置に関連付ける前記精度保証認識手段を選出する選出手段と、
をさらに備えたことを特徴とする請求項4に記載の物体分布推定装置。
Projection means for back-projecting the position in the photographed image on a horizontal plane at a height according to the object in the space to obtain an object virtual position;
The accuracy in which the distance between the virtual position of the object corresponding to the position and the photographing unit and the limit distance of each of the plurality of recognition means are compared with the position in the photographed image, and the accuracy is associated with the position Selection means for selecting assurance recognition means;
The object distribution estimation apparatus according to claim 4, further comprising:
撮影部により撮影された所定の物体が存在し得る空間の撮影画像を取得する画像取得手段と、
所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を予め学習した密度推定器を用い、前記撮影画像内の任意の位置に撮影された前記物体の前記密度を認識する密度推定手段と、
単独の前記物体が撮影された単体画像の特徴を予め学習した単体識別器を用い、前記撮影画像内の任意の位置に撮影された前記物体の有無を認識する単体識別手段と、
前記撮影画像内の位置と、前記密度推定手段および前記単体識別手段のうち当該位置にて前記物体の密度または有無を予め定めた下限値以上の精度で認識可能である精度保証認識手段とを関連付けて記憶する記憶手段と、
前記記憶手段に記憶される前記精度保証認識手段により前記撮影画像内にて取得した前記物体の密度または有無から、前記空間における前記物体の分布情報を生成する分布推定手段と、
を備えたことを特徴とする物体分布推定装置。
An image acquisition unit that acquires a photographed image of a space in which a predetermined object photographed by the photographing unit may exist;
The density of the object photographed at an arbitrary position in the photographed image, using a density estimator which learns in advance features of respective density images obtained by photographing the space in which the object exists at the predetermined density for each predetermined density Density estimation means for recognizing
A single identification means for recognizing the presence or absence of the object photographed at an arbitrary position in the photographed image, using a single classifier which preliminarily learns features of a single image in which the single object is photographed;
The position in the photographed image is associated with the accuracy assurance recognition means capable of recognizing the density or presence / absence of the object at the position among the density estimation means and the single body identification means with an accuracy higher than a predetermined lower limit value. Storage means for storing
Distribution estimation means for generating distribution information of the object in the space from the density or presence of the object acquired in the photographed image by the accuracy assurance recognition means stored in the storage means;
An object distribution estimation apparatus characterized by comprising:
JP2017188324A 2017-09-28 2017-09-28 Object distribution estimator Active JP6920949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017188324A JP6920949B2 (en) 2017-09-28 2017-09-28 Object distribution estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017188324A JP6920949B2 (en) 2017-09-28 2017-09-28 Object distribution estimator

Publications (2)

Publication Number Publication Date
JP2019066909A true JP2019066909A (en) 2019-04-25
JP6920949B2 JP6920949B2 (en) 2021-08-18

Family

ID=66340621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017188324A Active JP6920949B2 (en) 2017-09-28 2017-09-28 Object distribution estimator

Country Status (1)

Country Link
JP (1) JP6920949B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287929A (en) * 2019-07-01 2019-09-27 腾讯科技(深圳)有限公司 The quantity of target determines method, apparatus, equipment and storage medium in group region
JP2021182298A (en) * 2020-05-20 2021-11-25 株式会社デンソー Pattern learning device, object recognition device, and driving assistance device for vehicle
JP2023501690A (en) * 2019-11-20 2023-01-18 オムロン株式会社 Methods and systems for predicting crowd dynamics

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109126A (en) * 2005-10-17 2007-04-26 Advanced Telecommunication Research Institute International Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
JP2009211274A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2015148895A (en) * 2014-02-05 2015-08-20 日本電信電話株式会社 object number distribution estimation method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109126A (en) * 2005-10-17 2007-04-26 Advanced Telecommunication Research Institute International Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
JP2009211274A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2015148895A (en) * 2014-02-05 2015-08-20 日本電信電話株式会社 object number distribution estimation method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287929A (en) * 2019-07-01 2019-09-27 腾讯科技(深圳)有限公司 The quantity of target determines method, apparatus, equipment and storage medium in group region
CN110287929B (en) * 2019-07-01 2023-09-05 腾讯科技(深圳)有限公司 Method, device, equipment and storage medium for determining number of targets in group area
JP2023501690A (en) * 2019-11-20 2023-01-18 オムロン株式会社 Methods and systems for predicting crowd dynamics
JP7276607B2 (en) 2019-11-20 2023-05-18 オムロン株式会社 Methods and systems for predicting crowd dynamics
JP2021182298A (en) * 2020-05-20 2021-11-25 株式会社デンソー Pattern learning device, object recognition device, and driving assistance device for vehicle

Also Published As

Publication number Publication date
JP6920949B2 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US7831087B2 (en) Method for visual-based recognition of an object
JP5594672B2 (en) Object recognition apparatus and object recognition method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP7292492B2 (en) Object tracking method and device, storage medium and computer program
JP7099809B2 (en) Image monitoring system
CN109299658B (en) Face detection method, face image rendering device and storage medium
KR20150136225A (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JP6773825B2 (en) Learning device, learning method, learning program, and object recognition device
JP6920949B2 (en) Object distribution estimator
Loutas et al. Probabilistic multiple face detection and tracking using entropy measures
CN114758384A (en) Face detection method, device, equipment and storage medium
JP2002366958A (en) Image recognition method and image recognition device
WO2012153868A1 (en) Information processing device, information processing method and information processing program
JP2021149687A (en) Device, method and program for object recognition
JP6920944B2 (en) Object detector
JP2021033374A (en) Object recognition device, object recognition method, and object recognition program
JP6893812B2 (en) Object detector
JP6851246B2 (en) Object detector
JPH11306348A (en) Object detection apparatus and object detection method
CN104778468B (en) Image processing device, image processing method, and monitoring device
CN115661903B (en) Picture identification method and device based on space mapping collaborative target filtering
JPH09305743A (en) Human face motion detection method
CN111860261B (en) Passenger flow value statistical method, device, equipment and medium
JP7349288B2 (en) Object recognition device, object recognition method, and object recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210727

R150 Certificate of patent or registration of utility model

Ref document number: 6920949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250