[go: up one dir, main page]

JP2013246490A - Estimation device, estimation method and computer program - Google Patents

Estimation device, estimation method and computer program Download PDF

Info

Publication number
JP2013246490A
JP2013246490A JP2012117724A JP2012117724A JP2013246490A JP 2013246490 A JP2013246490 A JP 2013246490A JP 2012117724 A JP2012117724 A JP 2012117724A JP 2012117724 A JP2012117724 A JP 2012117724A JP 2013246490 A JP2013246490 A JP 2013246490A
Authority
JP
Japan
Prior art keywords
movement amount
real space
image
unit
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012117724A
Other languages
Japanese (ja)
Inventor
Hiroyuki Arai
啓之 新井
Isamu Igarashi
勇 五十嵐
Naoki Ito
直己 伊藤
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012117724A priority Critical patent/JP2013246490A/en
Publication of JP2013246490A publication Critical patent/JP2013246490A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】オクル−ジョンにより発生する実空間移動量の誤差を減少させること。
【解決手段】推定装置であって、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測部と、撮影された画像から人物の画像上移動量を算出する画像上移動量算出部と、画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得部と、を備え、補正推定値取得部は、画像上移動量から実空間移動量を推定する実空間移動量推定部と、実空間移動量推定部が推定した実空間移動量の誤差を補正する補正係数を算出する補正係数算出部と、実空間移動量推定部が推定した実空間移動量を、前記補正係数を用いて補正する実空間移動量補正部と、を備える。
【選択図】図2
An object of the present invention is to reduce errors in the amount of real space movement caused by occlusion.
An estimation apparatus that uses a captured image to calculate the number of persons in the area where the number of persons in the area where the subject is observed is measured, and the amount of movement of the person on the image from the captured image And a corrected estimated value acquiring unit that acquires a value smaller than the actual space moving amount estimated from the moving amount on the image as an estimation result of the actual space moving amount. The acquisition unit calculates a real space movement amount estimation unit that estimates the real space movement amount from the movement amount on the image, and calculates a correction coefficient that corrects an error of the real space movement amount estimated by the real space movement amount estimation unit. And a real space movement amount correction unit that corrects the real space movement amount estimated by the real space movement amount estimation unit using the correction coefficient.
[Selection] Figure 2

Description

本発明は、通過人数を推定する技術に関する。   The present invention relates to a technique for estimating the number of people passing by.

カメラ画像を利用して通過人数を計測するためには、画像上に人物が現れたこと及び人物が通り過ぎたことを検知する必要がある。これらの検知を実現する様々な画像処理技術が提案されており、大きく2つのアプローチに分けることができる。
1つ目のアプローチは画像上に存在する個々の人物を検出しながらその位置を捕捉・追跡していく人物追跡技術(トラッキング技術)に基づくものである(非特許文献1参照)。しかし、人物追跡技術では、オクルージョンが発生することにより個々の人物の検出、追跡が困難になるという問題がある。このような問題は、例えば、大きな駅のコンコースのように人が多く混雑する場所に適用しようとした場合に、人と人とが画像上で重なり合ってしまうことにより生じる。
In order to measure the number of passing people using a camera image, it is necessary to detect that a person has appeared on the image and that a person has passed. Various image processing techniques for realizing these detections have been proposed, and can be roughly divided into two approaches.
The first approach is based on a person tracking technique (tracking technique) in which an individual person existing on an image is detected and its position is captured and tracked (see Non-Patent Document 1). However, the person tracking technology has a problem that it becomes difficult to detect and track individual persons due to occurrence of occlusion. Such a problem occurs, for example, when a person tries to be applied to a place where a lot of people are crowded, such as a concourse of a large station, and people overlap each other on an image.

2つ目のアプローチは、個々の人物の検出を行わず、人物の集団全体をあたかも流体のようにひとまとまりのものとして捉える手法である(非特許文献2参照)。この手法では瞬間瞬間の領域内の人数と、一定時間内での集団全体の移動量(移動速度)とを算出することで通過人数を推定する。このような個々の人物の検出を必要としないアプローチは混雑時であっても安定に動作することが期待できる。   The second approach is a method in which individual persons are not detected but the whole group of persons is regarded as a group like a fluid (see Non-Patent Document 2). In this method, the number of passing people is estimated by calculating the number of people in the region at the moment and the movement amount (movement speed) of the entire group within a certain time. Such an approach that does not require the detection of individual persons can be expected to operate stably even when it is congested.

非特許文献2に記載されている既存手法の具体的なアルゴリズムの概要を簡単に説明する。この手法では、較正された固定カメラ(カメラの各画素が実空間のどこを撮影しているかが指定できるような所謂キャリブレーションが実施されているカメラ)を用い画像を時系列的に取得しながら、以下の値を算出する。
1.瞬間瞬間の画像内の所定領域内の人数(領域内人数)
2.時間的に隣接するフレーム画像間(もしくは0.1秒などの短い時間間隔にある2つのフレーム画像間)における集団の実空間での移動量(実空間移動量)
An outline of a specific algorithm of the existing method described in Non-Patent Document 2 will be briefly described. In this method, while acquiring images in a time series using a calibrated fixed camera (a camera in which so-called calibration is performed so that it can be specified where each pixel of the camera is shooting in real space). The following values are calculated.
1. Number of people in a given area in the instantaneous image (number of people in the area)
2. Amount of movement of a group in real space between real time adjacent frame images (or between two frame images in a short time interval such as 0.1 second) (real space movement amount)

なお、カメラの較正(キャリブレーション)は、カメラの光学系の特性(焦点距離、アスペクト比、歪パラメータなど)を記述する内部パラメータと、カメラの実空間における位置や角度を指定する外部パラメータとを取得することである。
キャリブレーションは、ドットパターンやチェス盤用パターン等の被写体、特定の3次元構造物など、幾何的な性質(形状やサイズ)が既知である被写体を撮影し、所定の幾何学計算を行うことにより実現することができる。キャリブレーションの具体的な実現方法については、既に様々な方法が提案されており、OpenCVなどのオープンソフトの形態でも公開されるなど一般化している。
Note that camera calibration consists of internal parameters that describe the characteristics of the optical system of the camera (focal length, aspect ratio, distortion parameters, etc.) and external parameters that specify the position and angle of the camera in real space. Is to get.
Calibration is performed by photographing a subject whose geometric properties (shape or size) are known, such as a subject such as a dot pattern or chessboard pattern, or a specific three-dimensional structure, and performing a predetermined geometric calculation. Can be realized. Various specific methods for realizing calibration have already been proposed, and they are generalized such as being released in the form of open software such as OpenCV.

領域内人数の算出には、既に提案されている様々な手法の適用が可能である。例えば、非特許文献3に記載されている技術を用いて領域内の人数を算出しても良い。
実空間移動量の算出には、既に提案されている様々な手法の適用が可能である。例えば、非特許文献2に記載されている技術を用いて実空間移動量を算出しても良い。
そして、領域内の人数及び実空間移動量を用いて、通過人数を推定する。この手法は、ある密度を持つ流体がある速度で既知の流路(断面積が既知のパイプ等)を流れる場合に、密度、速度および流路の幾何的な情報があれば流量を算出できることと同じ原理を用いている。
Various methods already proposed can be applied to calculate the number of people in the area. For example, the number of people in the area may be calculated using the technique described in Non-Patent Document 3.
Various methods that have already been proposed can be applied to the calculation of the real space movement amount. For example, the real space movement amount may be calculated using the technique described in Non-Patent Document 2.
Then, the number of passing people is estimated using the number of people in the area and the real space movement amount. In this method, when a fluid with a certain density flows through a known flow path (such as a pipe with a known cross-sectional area) at a certain speed, the flow rate can be calculated if there is density, speed, and geometric information of the flow path. The same principle is used.

大澤達哉、外5名、「MCMC法に基づく対象と環境に三次元モデルを用いた人物追跡」、電子情報通信学会論文誌.D、情報・システム、社団法人電子情報通信学会、2008年8月1日、J91-D、第8号 p.2137−2147Tatsuya Osawa, 5 others, “Person Tracking Using 3D Model for Object and Environment Based on MCMC Method”, IEICE Transactions. D, Information and Systems, The Institute of Electronics, Information and Communication Engineers, August 2008 1st, J91-D, No.8 p.2137-2147 五十嵐勇、外3名、「局所移動量に関する投票に基づく集団移動量を用いた映像からの通過人数測定」、IS3-03、2011年画像センシングシンポジウム、2011年Isamu Igarashi, 3 others, “Measurement of the number of people passing from video using collective movement based on voting regarding local movement”, IS3-03, 2011 Image Sensing Symposium, 2011 新井啓之、外3名、「幾何モデルに基づく映像からの人数推定」、社団法人映像情報メディア学会技術報告、2008年6月24日、第32巻、第26号、p.33−36Hiroyuki Arai and three others, “Estimating the number of people from images based on geometric models”, The Institute of Image Information and Television Engineers Technical Report, June 24, 2008, 32, 26, p.33-36

上述した非特許文献2の方法では、人物の集団全体を流体としてとらえて、瞬間瞬間の領域内の人数と、集団全体の実空間移動量を算出することで通過人数を推定していた。しかしながら、オクル−ジョンにより人物の足などの下半身の特徴点が検出されず人物の頭など上半身の特徴点ばかりが検出されてしまうことで実空間移動量を推定する際に誤差が発生してしまうことがあった。   In the method of Non-Patent Document 2 described above, the entire group of persons is regarded as a fluid, and the number of people passing through is estimated by calculating the number of people in the area at the moment and the real space movement amount of the entire group. However, since the feature point of the lower body such as a person's foot is not detected by the occlusion, only the feature point of the upper body such as the person's head is detected, which causes an error in estimating the real space movement amount. There was a thing.

上記事情に鑑み、本発明は、オクル−ジョンによる発生する実空間移動量推定の誤差を減少させる技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique for reducing an error in estimating a real space movement amount caused by occlusion.

本発明の一態様は、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測部と、前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出部と、前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得部と、を備える推定装置である。   According to an aspect of the present invention, an area number measurement unit that measures the number of persons in an area where a subject is observed using a captured image, and an image that calculates a movement amount of the person on the image from the captured image An estimation apparatus comprising: an upper movement amount calculation unit; and a corrected estimated value acquisition unit that acquires a value smaller than the actual space movement amount estimated from the upper image movement amount as an estimation result of the actual space movement amount.

本発明の一態様は、上記の推定装置であって、前記補正推定値取得部は、前記画像上移動量から実空間移動量を推定する実空間移動量推定部と、前記実空間移動量推定部が推定した実空間移動量の誤差を補正する補正係数を算出する補正係数算出部と、前記実空間移動量推定部が推定した実空間移動量を、前記補正係数を用いて補正する実空間移動量補正部と、を備える。   One aspect of the present invention is the above estimation apparatus, wherein the correction estimated value acquisition unit estimates a real space movement amount from the movement amount on the image, and the real space movement amount estimation. A correction coefficient calculation unit that calculates a correction coefficient that corrects an error in the real space movement amount estimated by the unit, and a real space that corrects the real space movement amount estimated by the real space movement amount estimation unit using the correction coefficient A movement amount correction unit.

本発明の一態様は、上記の推定装置であって、前記補正推定値取得部は、前記領域内の人数と、撮影された画像とを用いて、高さ毎投票係数を算出する高さ毎投票係数算出部と、前記高さ毎投票係数を用いて前記画像上移動量を、実空間移動量に重みづけ投票をする重みづけ投票部と、前記重みづけ投票により実空間移動量を推定する実空間移動量投票推定部と、を備える。   One aspect of the present invention is the above-described estimation device, wherein the correction estimated value acquisition unit calculates a voting coefficient for each height using the number of people in the region and the captured image. A voting coefficient calculation unit, a weighting voting unit that weights the movement amount on the image using the voting coefficient for each height and weights the real space movement amount, and the real space movement amount is estimated by the weighted voting. A real space movement amount voting estimation unit.

本発明の一態様は、上記の推定装置であって、前記補正推定値取得部によって取得された実空間移動量と、前記撮影された画像の前記領域内の人数と、を用いて撮影領域を通過した人数を推定する通過人数推定部をさらに備える。   One aspect of the present invention is the above-described estimation device, in which an imaging region is determined using the real space movement amount acquired by the correction estimated value acquisition unit and the number of people in the region of the captured image. A passing number estimating unit for estimating the number of passing persons is further provided.

本発明の一態様は、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測ステップと、前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、を有する推定方法である。   According to one aspect of the present invention, an area number measurement step for measuring the number of persons in an area where a subject is observed using a captured image, and an image for calculating a movement amount of the person on the image from the captured image. The estimation method includes an upper movement amount calculation step and a corrected estimated value acquisition step of acquiring a value smaller than the actual space movement amount estimated from the upper image movement amount as an estimation result of the actual space movement amount.

本発明の一態様は、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測ステップと、前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、をコンピュータに実行させるためのコンピュータプログラムである。   According to one aspect of the present invention, an area number measurement step for measuring the number of persons in an area where a subject is observed using a captured image, and an image for calculating a movement amount of the person on the image from the captured image. An upper moving amount calculating step, and a corrected estimated value acquiring step for acquiring a value smaller than the actual space moving amount estimated from the moving amount on the image as an estimation result of the actual space moving amount; It is a computer program.

本発明により、オクル−ジョンにより発生する実空間移動量推定の誤差を減少させることが可能となる。   According to the present invention, it is possible to reduce the error of the real space movement amount estimation caused by occlusion.

本発明における通過人数推定システムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of the passage number estimation system in this invention. 通過人数推定装置100の第一実施形態(通過人数推定装置100a)の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the functional composition of a first embodiment (passage number estimating device 100a) of passing number estimating device 100. 画像上移動量の具体例を示す図である。It is a figure which shows the specific example of the moving amount on an image. 画像上移動量に基づいて実空間移動量を推定する処理の具体例を示す図である。It is a figure which shows the specific example of the process which estimates the real space movement amount based on the movement amount on an image. 実空間移動量を推定する処理の具体例を示す図である。It is a figure which shows the specific example of the process which estimates the real space movement amount. 投票の得票数に応じて実空間移動量を推定する具体例を表した図である。It is the figure showing the specific example which estimates the real space movement amount according to the number of votes obtained. 矩形範囲の具体例を表す図である。It is a figure showing the specific example of a rectangular range. 人物の身体の高さの期待値の概念を表す図である。It is a figure showing the concept of the expected value of the height of a person's body. 矩形範囲306内にR人の人物が存在する場合の身体の高さの期待値H1(R)を表す図である。It is a figure showing expected value H1 (R) of the height of a body when R persons exist in rectangular range 306. 本発明の第一実施形態における通過人数推定方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the passage number estimation method in 1st embodiment of this invention. 閑散時に撮影されたフレーム画像を用いて実空間移動量を推定する処理の具体例を示した図である。It is the figure which showed the specific example of the process which estimates real space movement amount using the frame image image | photographed at the time of a quiet time. 混雑時に撮影されたフレーム画像を用いて実空間移動量を推定する処理の具体例を示した図である。It is the figure which showed the specific example of the process which estimates real space movement amount using the frame image image | photographed at the time of congestion. 通過人数推定装置100の第二実施形態(通過人数推定装置100b)の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the functional composition of a second embodiment (passage number estimating device 100b) of passing number estimating device 100. 高さ毎投票係数P(h)の具体例を表す図である。It is a figure showing the specific example of the voting coefficient P (h) for every height. 実空間移動量投票推定部207の処理の具体例を示す図である。It is a figure which shows the specific example of a process of the real space movement amount vote estimation part. 本発明の第二実施形態における通過人数推定方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the passage number estimation method in 2nd embodiment of this invention.

以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における通過人数推定システムのシステム構成を示す図である。本発明の通過人数推定システムは、固定カメラ10及び通過人数推定装置100を備える。
固定カメラ10は、例えばセキュリティカメラのように斜め下向きに設置されており、撮影領域20を撮影する。固定カメラ10が撮影する撮影領域20は、事前のカメラキャリブレーションによって決定される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of a passing person estimation system according to the present invention. The passing person estimation system of the present invention includes a fixed camera 10 and a passing person estimation device 100.
The fixed camera 10 is installed obliquely downward like a security camera, for example, and images the imaging region 20. The imaging region 20 that the fixed camera 10 captures is determined by prior camera calibration.

通過人数推定装置100は、情報処理装置を用いて構成される。通過人数推定装置100は、固定カメラ10が撮影したフレーム画像に基づいて画像処理を行うことによって、撮影領域20を通過した人数を推定する。
撮影領域20は、固定カメラ10によって撮影される領域である。
以下、通過人数推定装置100の具体的な構成例(第一実施形態及び第二実施形態)について説明する。
The passing person estimation device 100 is configured using an information processing device. The passing number estimating device 100 estimates the number of people who have passed through the shooting area 20 by performing image processing based on the frame image shot by the fixed camera 10.
The shooting area 20 is an area shot by the fixed camera 10.
Hereinafter, a specific configuration example (first embodiment and second embodiment) of the passing person estimation device 100 will be described.

[第一実施形態]
図2は、通過人数推定装置100の第一実施形態(通過人数推定装置100a)の機能構成を表す概略ブロック図である。通過人数推定装置100aは、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、通過人数推定プログラムを実行する。通過人数推定プログラムの実行によって、通過人数推定装置100aは、フレーム画像入力部101、領域内人数計測部102、画像上移動量算出部103、カメラパラメータ記憶部104、通過人数推定部108、補正推定値取得部109を備える装置として機能する。また、補正推定値取得部109は、実空間移動量推定部105、補正係数算出部106及び実空間移動量補正部107として機能する。なお、通過人数推定装置100aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。また、通過人数推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、通過人数推定プログラムは、電気通信回線を介して送受信されても良い。
[First embodiment]
FIG. 2 is a schematic block diagram showing the functional configuration of the first embodiment (passage number estimating device 100a) of the passing number estimating device 100. The passing person estimation device 100a includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a passing person estimation program. By executing the passing number estimating program, the passing number estimating device 100a is configured to include the frame image input unit 101, the in-region number measuring unit 102, the on-image movement amount calculating unit 103, the camera parameter storage unit 104, the passing number estimating unit 108, and the correction estimation. It functions as an apparatus including the value acquisition unit 109. The correction estimated value acquisition unit 109 functions as a real space movement amount estimation unit 105, a correction coefficient calculation unit 106, and a real space movement amount correction unit 107. Note that all or part of the functions of the passing person estimation device 100a may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). good. The passing number estimation program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the passing number estimation program may be transmitted / received via a telecommunication line.

フレーム画像入力部101は、固定カメラ10が撮影したフレーム画像を時系列順に入力する。
領域内人数計測部102は、フレーム画像入力部101が入力したフレーム画像内の所定領域内の人数を計測する。所定領域とは、フレーム画像内で人物が観測された領域である。
The frame image input unit 101 inputs frame images taken by the fixed camera 10 in chronological order.
The in-area number counting unit 102 measures the number of persons in a predetermined area in the frame image input by the frame image input unit 101. The predetermined area is an area where a person is observed in the frame image.

画像上移動量算出部103は、フレーム画像入力部101が時系列順に入力したフレーム画像内の人物の画像上移動量を算出する。画像上移動量は、時間的に近接する2枚のフレーム画像間において、画像上での人物の移動量を表す。
カメラパラメータ記憶部104は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。カメラパラメータ記憶部104は、固定カメラ10のキャリブレーションにより設定されたカメラパラメータ(例えば、内部パラメータ及び外部パラメータ)を記憶している。内部パラメータは、カメラの構成に関するパラメータである。例えば、内部パラメータは、焦点距離、アスペクト比、歪みパラメータなどを表す。外部パラメータは、実空間上における固定カメラ10の位置(高さを含む)や向きに関するパラメータである。
The on-image movement amount calculation unit 103 calculates the on-image movement amount of a person in the frame image input by the frame image input unit 101 in chronological order. The amount of movement on the image represents the amount of movement of the person on the image between two frame images that are close in time.
The camera parameter storage unit 104 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The camera parameter storage unit 104 stores camera parameters (for example, internal parameters and external parameters) set by calibration of the fixed camera 10. The internal parameter is a parameter related to the configuration of the camera. For example, the internal parameter represents a focal length, an aspect ratio, a distortion parameter, and the like. External parameters are parameters relating to the position (including height) and orientation of the fixed camera 10 in real space.

補正推定値取得部109は、画像上移動量に基づいて従来の方法で推定される実空間移動量よりも小さな値を、実空間移動量の推定結果として取得する。以下、補正推定値取得部109の具体的な構成例について説明する。
実空間移動量推定部105は、カメラパラメータ記憶部104が記憶しているカメラパラメータと、画像上移動量算出部103が算出した画像上移動量とを用いて、実空間移動量を推定する。実空間移動量は、時間的に近接する2枚のフレーム画像間において、実空間上での人物の移動量を表す。実空間移動量推定方法について、図3〜5を用いて説明する。
The corrected estimated value acquisition unit 109 acquires a value smaller than the actual space movement amount estimated by the conventional method based on the on-image movement amount as an estimation result of the actual space movement amount. Hereinafter, a specific configuration example of the corrected estimated value acquisition unit 109 will be described.
The real space movement amount estimation unit 105 estimates the real space movement amount using the camera parameters stored in the camera parameter storage unit 104 and the image movement amount calculated by the image movement amount calculation unit 103. The real space movement amount represents the movement amount of the person in the real space between two frame images that are close in time. The real space movement amount estimation method will be described with reference to FIGS.

図3は、画像上移動量の具体例を示す図である。フレーム画像300−1は、人物の集団が実空間上を同じ速度で移動しているときに撮像された画像である。フレーム画像300−2は、フレーム画像300−1から一定時間(例えば、5秒、10秒など)経過後に撮像された画像である。画像300−3は、フレーム画像300−1及びフレーム画像300−2の各フレーム画像で検出された人物の集団の特徴点を対応付けることによって、人物の集団の画像上での移動をオプティカルフローとして表した画像である。画像300−3において、一つ一つの矢印(オプティカルフロー)の長さが画像上移動量を表し、矢印の向きが移動方向を表す。   FIG. 3 is a diagram illustrating a specific example of the movement amount on the image. The frame image 300-1 is an image captured when a group of people is moving in real space at the same speed. The frame image 300-2 is an image captured after a certain time (for example, 5 seconds, 10 seconds, etc.) has elapsed from the frame image 300-1. The image 300-3 represents the movement of the group of persons on the image as an optical flow by associating the feature points of the group of persons detected in the frame images 300-1 and 300-2. It is an image. In the image 300-3, the length of each arrow (optical flow) represents the amount of movement on the image, and the direction of the arrow represents the movement direction.

画像300−3から明らかなように、画像上移動量は、実空間上で人物のいる場所によって異なる。実空間上で固定カメラ10に近い位置にいる人物について観測される画像上移動量は、固定カメラ10から遠い位置にいる人物について観測される画像上移動量に比べて大きい。このように、実空間上での移動量が同じであっても、実空間上で人物のいる場所に応じて画像上移動量が異なる。   As is apparent from the image 300-3, the amount of movement on the image differs depending on the location of the person in the real space. The amount of movement on the image observed for a person who is close to the fixed camera 10 in real space is larger than the amount of movement on the image observed for a person far from the fixed camera 10. Thus, even if the movement amount in the real space is the same, the movement amount on the image differs depending on the place where the person is in the real space.

図4は、画像上移動量に基づいて実空間移動量を推定する処理の具体例を示す図である。図4(A)のフレーム画像301−1は、二つのフレーム間画像において検出されたオプティカルフローの具体例である。この時点では、フレーム画像301−1のオプティカルフローが表す実空間上の移動量は不明である。さらに、フレーム画像301−1のオプティカルフローが人物のどの特徴点におけるオプティカルフローであるかも不明である。そのため、フレーム画像301−1のオプティカルフローは、人物の頭の部分におけるオプティカルフローであるかもしれないし、人物の足の部分におけるオプティカルフローであるかもしれない。   FIG. 4 is a diagram illustrating a specific example of processing for estimating the real space movement amount based on the movement amount on the image. A frame image 301-1 in FIG. 4A is a specific example of an optical flow detected in two inter-frame images. At this time, the movement amount in the real space represented by the optical flow of the frame image 301-1 is unknown. Furthermore, it is also unknown which optical point of the person the characteristic flow of the frame image 301-1 is. For this reason, the optical flow of the frame image 301-1 may be an optical flow in the head portion of the person or an optical flow in the foot portion of the person.

しかし、上述したように、オプティカルフローの長さ(画像上移動量)が表す実空間上での移動量は、実空間上でその特徴点が固定カメラ10から離れている距離に応じて異なる。また、一般的に人物の頭の部分は人物の足の部分に比べて固定カメラ10に近い。そのため、オプティカルフローから推定される実空間上での移動量は、そのオプティカルフローが人物の頭の部分のオプティカルフローであると仮定した場合と、人物の足の部分のオプティカルフローであると仮定した場合とで異なる。
図4(B)のフレーム画像301−2は、フレーム画像301−1のオプティカルフローが表している特徴点を、人物の頭と仮定した場合の状態を表す画像である。図4(C)のフレーム画像301−3は、フレーム画像301−1のオプティカルフローが表している特徴点を、人物の足と仮定した場合の状態を表す画像である。同じオプティカルフローであっても、人物の足と仮定した場合に推定される実空間上での移動量は、人物の頭と仮定した場合に推定される実空間上での移動量よりも大きい。
However, as described above, the amount of movement in the real space represented by the length of the optical flow (the amount of movement on the image) varies depending on the distance that the feature point is away from the fixed camera 10 in the real space. In general, the head portion of a person is closer to the fixed camera 10 than the foot portion of the person. Therefore, the amount of movement in real space estimated from the optical flow is assumed to be the optical flow of the person's head and the optical flow of the person's foot. It depends on the case.
A frame image 301-2 in FIG. 4B is an image representing a state when the feature point represented by the optical flow of the frame image 301-1 is assumed to be the head of a person. A frame image 301-3 in FIG. 4C is an image representing a state when the feature point represented by the optical flow of the frame image 301-1 is assumed to be a human foot. Even for the same optical flow, the movement amount in the real space estimated when the human foot is assumed is larger than the movement amount in the real space estimated when the human head is assumed.

図4(D)は、画像上移動量から推定される実空間移動量の具体例を表す図である。横軸は、実空間における人物の移動方向の座標を表す。矢印313は、図4(A)におけるオプティカルフローが人物の頭におけるオプティカルフローであると仮定した場合の、オプティカルフローが表す人物の移動を示す。すなわち、矢印313は、図4(B)に示される移動の状態を表す。矢印314は、図4(A)におけるオプティカルフローが人物の足におけるオプティカルフローであると仮定した場合の、オプティカルフローが表す人物の移動を示す。すなわち、矢印314は、図4(C)に示される移動の状態を表す。このように、画像上では一つのオプティカルフローであっても、そのオプティカルフローが対応する特徴部分が異なると、そのオプティカルフローが表す実空間における移動も異なる。   FIG. 4D is a diagram illustrating a specific example of the real space movement amount estimated from the movement amount on the image. The horizontal axis represents the coordinates of the movement direction of the person in real space. An arrow 313 indicates the movement of the person represented by the optical flow when it is assumed that the optical flow in FIG. 4A is an optical flow at the person's head. That is, the arrow 313 represents the state of movement shown in FIG. An arrow 314 indicates the movement of the person represented by the optical flow when it is assumed that the optical flow in FIG. That is, the arrow 314 represents the movement state shown in FIG. As described above, even in the case of one optical flow on the image, if the feature portion corresponding to the optical flow is different, the movement in the real space represented by the optical flow is also different.

図5は、実空間移動量を推定する処理の具体例を示す図である。図5(A)は、一つのオプティカルフローから推定される実空間移動量の具体例を表す図である。Hは、人物の身体の高さを表す。rHは、人物の頭を特徴点とした場合に推定される実空間移動量を表す。r0は、人物の足を特徴点とした場合に推定される実空間移動量を表す。   FIG. 5 is a diagram illustrating a specific example of processing for estimating the real space movement amount. FIG. 5A is a diagram illustrating a specific example of the real space movement amount estimated from one optical flow. H represents the height of a person's body. rH represents a real space movement amount estimated when a person's head is used as a feature point. r0 represents a real space movement amount estimated when a person's foot is a feature point.

図5(B)は、実空間移動量を推定する際に行われる投票の概念を表す図である。図5(A)から明らかなように、実空間上で固定カメラ10が撮影する人物の部位の中でカメラに一番近い部位は人物の頭である。そのため、人物の頭を特徴点と仮定した場合のrHが実空間移動量の最低値と仮定できる。また、実空間上で固定カメラ10から一番遠い部位は人物の足(足先)である。そのため、人物の足を特徴点と仮定した場合のr0を実空間移動量の最大値と仮定できる。Vは、固定カメラ10が観測する人物の実空間移動量の推定範囲を表す。実空間移動量推定部105は、実空間移動量の推定範囲で投票を行い、実空間移動量を推定する。投票は、各オプティカルフローから推定される実空間移動量の推定範囲において、所定の幅毎に一票ずつ票を追加していく処理である。   FIG. 5B is a diagram illustrating the concept of voting performed when the real space movement amount is estimated. As is clear from FIG. 5A, the part closest to the camera among the parts of the person photographed by the fixed camera 10 in the real space is the head of the person. Therefore, it can be assumed that rH when the person's head is assumed as the feature point is the minimum value of the real space movement amount. Further, the part farthest from the fixed camera 10 in the real space is a person's foot (toe). Therefore, it is possible to assume that r0 when a person's foot is assumed to be a feature point is the maximum value of the real space movement amount. V represents the estimated range of the real space movement amount of the person observed by the fixed camera 10. The real space movement amount estimation unit 105 performs voting in the real space movement amount estimation range, and estimates the real space movement amount. Voting is a process of adding one vote for each predetermined width in the estimated range of the real space movement amount estimated from each optical flow.

図5(C)は、人物の3つの特徴点について得られたオプティカルフローの具体例を表す図である。破線で表されるオプティカルフロー400−3は、人物の頭を特徴点として得られたオプティカルフローである。一点鎖線で表されるオプティカルフロー400−2は、人物の高さ方向の中心部分(腕のあたり)を特徴点として得られたオプティカルフローである。二点鎖線で表されるオプティカルフロー400−1は、人物の足先を特徴点として得られたオプティカルフローである。なお、実際の処理では、3つのオプティカルフローがそれぞれ人物のどの部分を特徴として得られたオプティカルフローであるかは不明である。理解の容易のために、本説明では各オプティカルフローが人物のどの部分を特徴点として得られたかを明らかにしている。   FIG. 5C is a diagram illustrating a specific example of the optical flow obtained for the three feature points of the person. An optical flow 400-3 represented by a broken line is an optical flow obtained using a person's head as a feature point. An optical flow 400-2 represented by an alternate long and short dash line is an optical flow obtained using a central portion (around the arm) in the height direction of a person as a feature point. An optical flow 400-1 represented by a two-dot chain line is an optical flow obtained using a person's foot as a feature point. In actual processing, it is unclear which part of the person each of the three optical flows is an optical flow obtained as a characteristic. For ease of understanding, this description clarifies which part of the person each optical flow is obtained as a feature point.

図5(D)は、図5(C)に示される3つのオプティカルフローに基づいて行われる投票の結果を表す図である。図5(D)において、縦軸はオプティカルフローの並びを表し、横軸は実空間移動量Mを表す。401−1は、オプティカルフロー400−1に基づいて行われた投票の結果を表す。401−2は、オプティカルフロー400−2に基づいて行われた投票の結果を表す。401−3は、オプティカルフロー400−3に基づいて行われた投票の結果を表す。   FIG. 5D is a diagram illustrating a result of voting performed based on the three optical flows illustrated in FIG. In FIG. 5D, the vertical axis represents the arrangement of optical flows, and the horizontal axis represents the real space movement amount M. 401-1 represents the result of voting performed based on the optical flow 400-1. 401-2 represents the result of voting performed based on the optical flow 400-2. 401-3 represents the result of the voting performed based on the optical flow 400-3.

図6は、投票の得票数に応じて実空間移動量を推定する具体例を表した図である。縦軸は、得票数Tを表す。横軸は実空間移動量Mを表す。実空間移動量推定部105は、フレーム画像から得られたオプティカルフロー毎に、実空間移動量の推定範囲を取得する。その後、実空間移動量推定部105は、オプティカルフロー毎に推定範囲に対して均等に投票を行う。実空間移動量推定部105は、得票数が最も高い実空間移動量Mmaxを推定結果として取得する。   FIG. 6 is a diagram showing a specific example in which the real space movement amount is estimated according to the number of votes obtained. The vertical axis represents the number of votes T. The horizontal axis represents the real space movement amount M. The real space movement amount estimation unit 105 acquires an estimation range of the real space movement amount for each optical flow obtained from the frame image. Thereafter, the real space movement amount estimation unit 105 votes equally for the estimation range for each optical flow. The real space movement amount estimation unit 105 acquires the real space movement amount Mmax having the highest number of votes as an estimation result.

補正係数算出部106は、カメラパラメータ記憶部104が記憶しているカメラパラメータと、領域内人数計測部102が計測した所定領域内の人数と、を用いて補正係数Cを算出する。補正係数Cの具体的な算出方法について、図7〜9を用いて説明する。   The correction coefficient calculation unit 106 calculates the correction coefficient C using the camera parameters stored in the camera parameter storage unit 104 and the number of people in the predetermined area measured by the in-area number measurement unit 102. A specific method for calculating the correction coefficient C will be described with reference to FIGS.

図7は、矩形範囲の具体例を表す図である。以下、図7を用いて矩形範囲について説明する。Tzは、床面から固定カメラ10までの高さを表す。Gは、固定カメラ10が撮影している撮影領域20の画像の枠を表す。G1は、画像Gの注目画素を表す。注目画素G1は、固定カメラ10のキャリブレーションによって、どの領域を撮影しているか具体的に計算できる。   FIG. 7 is a diagram illustrating a specific example of a rectangular range. Hereinafter, the rectangular range will be described with reference to FIG. Tz represents the height from the floor surface to the fixed camera 10. G represents a frame of an image of the imaging region 20 that is captured by the fixed camera 10. G1 represents the target pixel of the image G. The target pixel G <b> 1 can specifically calculate which region is being imaged by calibration of the fixed camera 10.

図7のPは、注目画素G1に撮影される空間を直線で表している。直線Pは、厳密には遠くに行くほど広がる錐状となるが、簡単化のために直線で表す。305−1〜4は、人物を標準的な大きさ(幅をW、身体の高さをHとする)の矩形で近似して表している。矩形305−1〜4は、固定カメラ10から矩形305−1〜4を見た場合に、固定カメラ10に正対する幅W、身体の高さHの矩形として見えるように近似して表している。   P in FIG. 7 represents a space captured by the target pixel G1 with a straight line. Strictly speaking, the straight line P has a conical shape that spreads farther away, but is represented by a straight line for simplification. Reference numerals 305-1 to 305-4 represent a person approximated by a rectangle having a standard size (W is a width and H is a body height). The rectangles 305-1 to 305-4 are approximated so that the rectangles 305-1 to 305-4 are viewed from the fixed camera 10 so as to be viewed as a rectangle having a width W and a body height H facing the fixed camera 10. .

床面上の矩形範囲306は、人物が床面上に立った際の注目画素G1に人物(矩形)の身体の一部が写る範囲を表している。矩形範囲306は、幅W、長さLの領域である。長さLは、Pの床面上に対する傾きと矩形305−1〜4の高さHから算出される。   A rectangular area 306 on the floor surface represents a range in which a part of the body of the person (rectangle) appears in the target pixel G1 when the person stands on the floor surface. A rectangular area 306 is an area having a width W and a length L. The length L is calculated from the inclination of P with respect to the floor surface and the height H of the rectangles 305-1 to 305-4.

注目画素G1において被写体が観測された場合の矩形範囲306内の人数と、カメラパラメータ記憶部104が記憶しているカメラパラメータと、に基づいて、撮影領域20の人物密度(1平方メートルあたりσ人)を算出することができる。矩形範囲306の面積は、W・Lであるから、矩形範囲306内にいる人数の期待値はR=σ・W・Lとなる。   Based on the number of people in the rectangular range 306 when a subject is observed at the target pixel G1, and the camera parameters stored in the camera parameter storage unit 104, the person density in the shooting region 20 (σ people per square meter) Can be calculated. Since the area of the rectangular range 306 is W · L, the expected value of the number of people in the rectangular range 306 is R = σ · W · L.

図8は、人物の身体の高さの期待値の概念を表す図である。身体の高さの期待値とは、固定カメラ10の最も近くに位置する人物の身体部分のうち、注目画素G1に写る身体部分の床面からの高さを表す。身体の高さの期待値は、矩形範囲306内に存在する人物の数Rに応じて変化する。そこで、身体の高さの期待値をH1(R)と表す。
図8では、縦軸が高さを表し、横軸が矩形範囲306の長さ方向(L)の座標を表す。図8は、矩形範囲306に人物が1人観測されている様子を表す。Hは、人物の身体の高さを表す。直線P1及びP2は、固定カメラ10の視点と注目画素G1とを結ぶ直線である。人物がXの位置に存在する場合に注目画素G1に写る人物の部位は、床面から高さH1に位置する部位である。
FIG. 8 is a diagram illustrating a concept of an expected value of the height of a person's body. The expected value of the height of the body represents the height from the floor surface of the body part of the person located closest to the fixed camera 10 that appears in the target pixel G1. The expected value of the height of the body changes according to the number R of persons existing in the rectangular range 306. Therefore, the expected value of the height of the body is expressed as H1 (R).
In FIG. 8, the vertical axis represents the height, and the horizontal axis represents the coordinate in the length direction (L) of the rectangular range 306. FIG. 8 shows a situation where one person is observed in the rectangular area 306. H represents the height of a person's body. The straight lines P1 and P2 are straight lines connecting the viewpoint of the fixed camera 10 and the target pixel G1. When the person is present at the position X, the part of the person shown in the target pixel G1 is a part located at the height H1 from the floor.

L1は、矩形範囲306内で固定カメラ10に最も近い位置である。人物がL1に位置する場合、注目画素G1には人物の頭が写る。L2は、矩形範囲306内で固定カメラ10に最も遠い位置である。人物がL2に位置する場合、注目画素G1には人物の足先が写る。固定カメラ10が観測する人数が1人の場合、カメラの最も近くに位置する人物が存在する確率は、L1からL2までの範囲で均等である。そのため、身体の高さの期待値H1(1)=H/2となる。   L1 is the position closest to the fixed camera 10 within the rectangular range 306. When the person is located at L1, the head of the person is shown in the target pixel G1. L2 is a position farthest from the fixed camera 10 within the rectangular range 306. When the person is positioned at L2, the foot of the person appears in the target pixel G1. When the number of people observed by the fixed camera 10 is one, the probability that there is a person located closest to the camera is even in the range from L1 to L2. Therefore, the expected value H1 (1) = H / 2 of the height of the body.

図9は、矩形範囲306内にR人の人物が存在する場合の身体の高さの期待値H1(R)を表す図である。矩形範囲306のXに位置する人物が固定カメラ10に最も近くに位置している確率は、Xに位置する人物が他の(R−1)人全てよりも固定カメラ10側に位置する確率P(X)と同じ値であり、式(1)のように表される。   FIG. 9 is a diagram illustrating the expected value H1 (R) of the body height when there are R persons within the rectangular range 306. In FIG. The probability that the person located at X in the rectangular area 306 is located closest to the fixed camera 10 is the probability P that the person located at X is located closer to the fixed camera 10 than all the other (R-1) people. It is the same value as (X) and is expressed as in equation (1).

Figure 2013246490
Figure 2013246490

R人が矩形範囲にいる場合に、固定カメラ10に最も近い人物の位置を表す期待値X1は、式1に基づいて式(2)のように表される。   When the R person is in the rectangular range, the expected value X1 representing the position of the person closest to the fixed camera 10 is expressed as in Expression (2) based on Expression 1.

Figure 2013246490
Figure 2013246490

式(2)を変形することによって、期待値X1=L/(R+1)となる。   By transforming Equation (2), the expected value X1 = L / (R + 1).

期待値X1に位置する人物の身体部分のうち、注目画素G1に写る部分の高さが、矩形範囲内306内にR人の人物が存在する場合の身体の高さの期待値H1(R)に相当する。H1(R)は、底辺をL、高さをHとする直角三角形と相似な直角三角形であって、(L−X1)を底辺とする直角三角形の高さに相当する。そのため、H1(R)は式(3)のように表される。   Of the human body part located at the expected value X1, the height of the part shown in the target pixel G1 is the expected value H1 (R) of the body height when there are R persons within the rectangular range 306. It corresponds to. H1 (R) is a right triangle similar to a right triangle whose base is L and height is H, and corresponds to the height of a right triangle whose base is (L-X1). Therefore, H1 (R) is expressed as in Equation (3).

Figure 2013246490
Figure 2013246490

上述した結果により、補正係数Cを式(4)のように表す。   Based on the results described above, the correction coefficient C is expressed as in Equation (4).

Figure 2013246490
Figure 2013246490

実空間移動量補正部107は、補正係数Cを用いて実空間移動量を補正する。補正後の実空間移動量Dcは式(5)のように表される。   The real space movement amount correction unit 107 corrects the real space movement amount using the correction coefficient C. The corrected real space movement amount Dc is expressed as shown in Equation (5).

Figure 2013246490
Figure 2013246490

式(5)のDは、実空間移動量推定部105によって推定された実空間移動量である。
通過人数推定部108は、領域内人数計測部102によって計測された所定領域内の人数と、実空間移動量補正部107によって補正された実空間移動量と、カメラパラメータ記憶部204が記憶しているカメラパラメータと、を用いてフレーム画像間での通過人数を推定する。
D in Expression (5) is the real space movement amount estimated by the real space movement amount estimation unit 105.
The passing number estimation unit 108 stores the number of people in the predetermined area measured by the in-area number measurement unit 102, the real space movement amount corrected by the real space movement amount correction unit 107, and the camera parameter storage unit 204. The number of passing people between frame images is estimated using the camera parameters.

図10は、本発明の第一実施形態における通過人数推定方法の処理の流れを示すフローチャートである。
まず、フレーム画像入力部101が画像を時系列順に入力する(ステップS101)。次に、領域内人数計測部102は、フレーム画像入力部101が入力したフレーム画像から所定領域内人数を計測する(ステップS102)
FIG. 10 is a flowchart showing the flow of processing of the passing person estimation method in the first embodiment of the present invention.
First, the frame image input unit 101 inputs images in chronological order (step S101). Next, the in-area number counting unit 102 measures the number of persons in the predetermined area from the frame image input by the frame image input unit 101 (step S102).

画像上移動量算出部103は、フレーム画像入力部101が入力した時間的に近接する2つのフレーム画像から人物の特徴点を検出する。画像上移動量算出部103は、2つのフレーム画像から人物の特徴点を検出した後、2つのフレーム画像の特徴点を対応付け、オプティカルフローを取得する。画像上移動量算出部103は、取得されたオプティカルフローに基づいて、画像上の人物の画像上移動量を算出する(ステップS103)。   The on-image movement amount calculation unit 103 detects a feature point of a person from two temporally adjacent frame images input by the frame image input unit 101. The on-image movement amount calculation unit 103 detects the feature points of the person from the two frame images, associates the feature points of the two frame images, and acquires an optical flow. The on-image movement amount calculation unit 103 calculates the on-image movement amount of the person on the image based on the acquired optical flow (step S103).

次に、実空間移動量推定部105は、画像上移動量算出部103が算出した画像上移動量に基づいて投票を行う(ステップS104)。実空間移動量推定部105は、画像上移動量の投票結果に基づいて実空間移動量を推定する(ステップS105)。   Next, the real space movement amount estimation unit 105 performs voting based on the image movement amount calculated by the image movement amount calculation unit 103 (step S104). The real space movement amount estimation unit 105 estimates the real space movement amount based on the vote result of the movement amount on the image (step S105).

補正係数算出部106は、カメラパラメータ記憶部104が記憶しているカメラパラメータと、領域内人数計測部102が計測した所定領域内の人数と、を用いて補正係数を算出する(ステップS106)。   The correction coefficient calculation unit 106 calculates a correction coefficient using the camera parameters stored in the camera parameter storage unit 104 and the number of people in the predetermined area measured by the in-area number measurement unit 102 (step S106).

実空間移動量補正部107は、補正係数算出部106が算出した補正係数を用いて、実空間移動量推定部105が推定した実空間移動量を補正する(ステップS107)。
通過人数推定部108は、領域内人数計測部102が計測した所定領域内の人数と、実空間移動量補正部107が補正した実空間移動量と、カメラパラメータ記憶部104が記憶しているカメラパラメータと、を用いてフレーム画像間での通過人数を推定する(ステップS108)。
The real space movement amount correction unit 107 corrects the real space movement amount estimated by the real space movement amount estimation unit 105 using the correction coefficient calculated by the correction coefficient calculation unit 106 (step S107).
The passing person estimation unit 108 includes the number of people in a predetermined area measured by the in-area number measurement unit 102, the real space movement amount corrected by the real space movement amount correction unit 107, and the camera stored in the camera parameter storage unit 104. The number of people passing between the frame images is estimated using the parameters (step S108).

次に、図11及び図12を用いて、第一実施形態における通過人数推定装置100aの効果について説明する。
図11は、閑散時に撮影されたフレーム画像を用いて実空間移動量を推定する処理の具体例を示した図である。図11(A)は、閑散時に撮影されたフレーム画像の具体例である。図11(B)は、閑散時に撮影されたフレーム画像に基づいて行われた投票結果の具体例を示す図である。図11(A)に示されるように、閑散時には所定領域内にいる人物が少数であるため、人物と人物とが重なりあって撮影されることが少ない。そのため、人物の身体の様々な高さの部分から画像上移動量を得ることが可能である。したがって、様々な高さの部分から得られた画像上移動量に基づいて投票を行うことが可能となり、高精度に実空間移動量を推定できる。
Next, the effect of the passing number estimating device 100a in the first embodiment will be described using FIG. 11 and FIG.
FIG. 11 is a diagram showing a specific example of processing for estimating the real space movement amount using a frame image taken in a quiet time. FIG. 11A is a specific example of a frame image taken at a quiet time. FIG. 11B is a diagram illustrating a specific example of a voting result performed based on a frame image taken in a quiet time. As shown in FIG. 11A, since there are a small number of people in a predetermined area when it is quiet, people are rarely photographed by overlapping each other. Therefore, it is possible to obtain the amount of movement on the image from various height portions of the person's body. Therefore, voting can be performed based on the movement amount on the image obtained from various height portions, and the real space movement amount can be estimated with high accuracy.

図12は、混雑時に撮影されたフレーム画像を用いて実空間移動量を推定する処理の具体例を示した図である。図12(A)は、混雑時に撮影されたフレーム画像の具体例である。図12(B)は、混雑時に撮影されたフレーム画像に基づいて行われた投票結果の具体例を示す図である。混雑時に撮影されたフレーム画像では、オクルージョンが多発しており、多くの部分で人と人とが重なり合ってしまっている。そのため、人物の下半身がほとんど撮影されておらず、人物の上半身が多く撮影されてしまう。したがって、上半身の特徴点から得られた画像上移動量に基づいて投票を行うこととなってしまう。一般的に、上半身の特徴点から得られる画像上移動量に基づいた実空間移動量の推定結果は、実際の実空間移動量よりも大きな値となってしまう。そのため、実空間移動量の推定結果の精度が低下してしまう。
このような問題に対し、通過人数推定装置100aの補正推定値取得部109は、画像上移動量に基づいて従来の方法で推定される実空間移動量よりも小さな値を、実空間移動量の推定結果として取得する。そのため、オクルージョンが発生しているフレーム画像から精度良く実空間移動量を推定することが可能となる。より具体的には、1よりも小さい値の補正係数を実空間移動量に乗算することによって実空間移動量が補正される。そのため、補正後の実空間移動量を精度の高い推定結果として取得することが可能となる。
FIG. 12 is a diagram illustrating a specific example of a process of estimating the real space movement amount using a frame image taken at the time of congestion. FIG. 12A is a specific example of a frame image taken at the time of congestion. FIG. 12B is a diagram showing a specific example of a voting result performed based on a frame image taken at the time of congestion. In the frame image taken at the time of congestion, occlusion occurs frequently, and people overlap each other in many parts. For this reason, the lower body of the person is hardly photographed, and a large amount of the upper body of the person is photographed. Therefore, voting will be performed based on the amount of movement on the image obtained from the feature points of the upper body. In general, the estimation result of the real space movement amount based on the movement amount on the image obtained from the feature point of the upper body becomes a value larger than the actual real space movement amount. For this reason, the accuracy of the estimation result of the real space movement amount decreases.
For such a problem, the corrected estimated value acquisition unit 109 of the passing person estimation device 100a uses a value smaller than the real space movement amount estimated by the conventional method based on the movement amount on the image as the real space movement amount. Obtained as an estimation result. Therefore, the real space movement amount can be accurately estimated from the frame image in which occlusion occurs. More specifically, the real space movement amount is corrected by multiplying the real space movement amount by a correction coefficient having a value smaller than 1. Therefore, it is possible to acquire the corrected real space movement amount as a highly accurate estimation result.

[第二実施形態]
図13は、通過人数推定装置100の第二実施形態(通過人数推定装置100b)の機能構成を表す概略ブロック図である。通過人数推定装置100bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、通過人数推定プログラムを実行する。通過人数推定プログラムの実行によって、通過人数推定装置100bは、フレーム画像入力部201、領域内人数計測部202、画像上移動量算出部203、カメラパラメータ記憶部204、通過人数推定部208、補正推定値取得部209を備える装置として機能する。また、補正推定値取得部209は、高さ毎投票係数算出部205、重みづけ投票部206及び実空間移動量投票推定部207として機能する。なお、通過人数推定装置100bの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。また、通過人数推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、通過人数推定プログラムは、電気通信回線を介して送受信されても良い。
[Second Embodiment]
FIG. 13 is a schematic block diagram illustrating a functional configuration of the second embodiment (passage number estimation device 100b) of the passage number estimation device 100. The passing person estimation device 100b includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a passing person estimation program. By executing the passing number estimating program, the passing number estimating apparatus 100b is configured to include the frame image input unit 201, the in-region number measuring unit 202, the on-image movement amount calculating unit 203, the camera parameter storage unit 204, the passing number estimating unit 208, and the correction estimation. It functions as an apparatus including the value acquisition unit 209. The corrected estimated value acquisition unit 209 functions as a height-by-height voting coefficient calculation unit 205, a weighting voting unit 206, and a real space movement amount voting estimation unit 207. Note that all or part of the functions of the passing number estimating device 100b may be realized using hardware such as ASIC, PLD, or FPGA. The passing number estimation program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the passing number estimation program may be transmitted / received via a telecommunication line.

フレーム画像入力部201は、固定カメラ10が撮影したフレーム画像を時系列順に入力する。
領域内人数計測部202は、フレーム画像入力部201が入力したフレーム画像内の所定領域内の人数を計測する。所定領域とは、フレーム画像内で人物が観測された領域である。
The frame image input unit 201 inputs frame images taken by the fixed camera 10 in chronological order.
The in-area number counting unit 202 measures the number of persons in a predetermined area in the frame image input by the frame image input unit 201. The predetermined area is an area where a person is observed in the frame image.

画像上移動量算出部203は、フレーム画像入力部201が時系列順に入力したフレーム画像内の人物の画像上移動量を算出する。画像上移動量は、時間的に近接する2枚のフレーム画像間において、画像上での人物の移動量を表す。   The on-image movement amount calculation unit 203 calculates the on-image movement amount of the person in the frame image input by the frame image input unit 201 in chronological order. The amount of movement on the image represents the amount of movement of the person on the image between two frame images that are close in time.

カメラパラメータ記憶部204は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。カメラパラメータ記憶部204は、固定カメラ10のキャリブレーションにより設定したカメラパラメータ(例えば、内部パラメータ及び外部パラメータ)を記憶している。
高さ毎投票係数算出部205は、カメラパラメータ記憶部204が記憶しているカメラパラメータと、領域内人数計測部202が計測した所定領域内の人数と、を用いて高さ毎投票係数P(h)を算出する。高さ毎投票係数P(h)の具体的な算出方法について、説明する。
The camera parameter storage unit 204 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The camera parameter storage unit 204 stores camera parameters (for example, internal parameters and external parameters) set by calibration of the fixed camera 10.
The voting coefficient calculation unit 205 for each height uses the camera parameters stored in the camera parameter storage unit 204 and the number of people in the predetermined area measured by the in-area number measuring unit 202 to determine the voting coefficient P ( h) is calculated. A specific method for calculating the voting coefficient P (h) for each height will be described.

図8に示されるように、人物がXの位置にいる場合に注目画素G1に写る人物の部分の高さ(ここではhとする)は、上述したような直角三角形の比に基づいて得られる。Xの位置に対応する人物の身体の高さhは、式(6)のように表される。   As shown in FIG. 8, when the person is at the position X, the height (here, h) of the portion of the person shown in the target pixel G1 is obtained based on the ratio of the right triangle as described above. . The height h of the person's body corresponding to the position of X is expressed as in Equation (6).

Figure 2013246490
Figure 2013246490

式(1)と式(6)とに基づいて高さ毎投票係数P(h)が得られる。P(h)は、注目画素G1に写る人物の部分の高さがhである場合の確率を表す。そのため、P(h)は0〜1の値となる。   A voting coefficient P (h) for each height is obtained based on the equations (1) and (6). P (h) represents the probability when the height of the portion of the person shown in the target pixel G1 is h. Therefore, P (h) is a value between 0 and 1.

図14は、高さ毎投票係数P(h)の具体例を表す図である。縦軸は高さ毎投票係数P(h)を表し、横軸は実空間移動量Mを表す。図14において、m1は、処理対象のオプティカルフローが人物の頭において得られたオプティカルフローであると仮定した場合の実空間移動量を表す。m2は、処理対象のオプティカルフローが人物の足先において得られたオプティカルフローであると仮定した場合の実空間移動量を表す。図14に示されるように、実空間移動量Mがm1である場合のP(h)は、実空間移動量Mがm2である場合のP(h)に比べて小さい。言い換えれば、オプティカルフローが上半身において得られたと仮定した場合に推定される実空間移動量に対する高さ毎投票係数P(h)は、オプティカルフローが下半身において得られたと仮定した場合に推定される実空間移動量に対する高さ毎投票係数P(h)よりも大きい。そのため、一つのオプティカルフローにおける投票結果は、小さい実空間移動量の方が、大きい実空間移動量よりも大きな得票数を得る。   FIG. 14 is a diagram illustrating a specific example of the voting coefficient P (h) for each height. The vertical axis represents the voting coefficient P (h) for each height, and the horizontal axis represents the real space movement amount M. In FIG. 14, m1 represents a real space movement amount when it is assumed that the optical flow to be processed is an optical flow obtained at the head of a person. m2 represents a real space movement amount when it is assumed that the optical flow to be processed is an optical flow obtained at the foot of a person. As shown in FIG. 14, P (h) when the real space movement amount M is m1 is smaller than P (h) when the real space movement amount M is m2. In other words, the per-height voting coefficient P (h) for the real space movement estimated when it is assumed that the optical flow is obtained in the upper body is the actual value estimated when the optical flow is obtained in the lower body. It is larger than the voting coefficient P (h) for each height with respect to the amount of space movement. Therefore, as for the voting result in one optical flow, the smaller real space movement amount obtains a larger number of votes than the larger real space movement amount.

重みづけ投票部206は、高さ毎投票係数算出部205が算出した高さ毎投票係数P(h)を用いて、画像上移動量の重みづけ投票を行う。上述したように、高い身体部分のオプティカルフローであると仮定した場合に得られる実空間移動量の推定結果では、P(h)は高い値(1に近い値)となる。一方、低い身体部分のオプティカルフローであると仮定した場合に得られる実空間移動量の推定結果では、P(h)は低い値(0に近い値)となる。このように、固定カメラ10が観測する人物の身体の高さ毎に、投票結果に対して重みづけがなされる。   The weighting voting unit 206 performs weighted voting of the moving amount on the image using the voting coefficient P (h) for each height calculated by the voting coefficient calculating unit 205 for each height. As described above, in the estimation result of the real space movement amount obtained when it is assumed that the optical flow is a high body part, P (h) has a high value (a value close to 1). On the other hand, in the estimation result of the real space movement amount obtained when it is assumed that the optical flow is a low body part, P (h) is a low value (a value close to 0). In this way, the voting results are weighted for each height of the person's body observed by the fixed camera 10.

実空間移動量投票推定部207は、実空間移動量を推定する。実空間移動量投票推定部207は、重みづけ投票部206が重みづけ投票を行った結果に基づいて、実空間移動量を推定する。例えば、実空間移動量投票推定部207は、投票結果において重み付けの累積値が最も大きい実空間移動量を推定結果として取得する。
図15は、実空間移動量投票推定部207の処理の具体例を示す図である。図15(A)は、重み付けがなされた票を表す図である。402−1〜402−3は、それぞれオプティカルフロー400−1〜400−3から得られる票である。図15(A)に示されるように、各票に重み付けがなされる。そのため、各票は、票数としては同じ1であっても、その重みに差が生じる。図15(B)は、投票結果の具体例を表す図である。横軸は実空間移動量Mを表し、縦軸は重み付け得票数TWを表す。重み付け得票数TWは、重みの大きさの累積値を表す。実空間移動量投票推定部207は、重み付け投票数TWが最も大きい実空間移動量Mを推定結果として取得する。
The real space movement amount vote estimation unit 207 estimates the real space movement amount. The real space movement amount voting estimation unit 207 estimates the real space movement amount based on the result of the weighted voting unit 206 performing weighted voting. For example, the real space movement amount voting estimation unit 207 acquires the real space movement amount having the largest weighted cumulative value as the estimation result.
FIG. 15 is a diagram illustrating a specific example of processing of the real space movement amount vote estimation unit 207. FIG. 15A shows a weighted vote. Reference numerals 402-1 to 402-3 denote votes obtained from the optical flows 400-1 to 400-3, respectively. As shown in FIG. 15A, each vote is weighted. Therefore, even if each vote has the same number of votes, there is a difference in weight. FIG. 15B is a diagram illustrating a specific example of the voting result. The horizontal axis represents the real space movement amount M, and the vertical axis represents the weighted vote count TW. The weighted vote count TW represents a cumulative value of weights. The real space movement amount voting estimation unit 207 acquires the real space movement amount M having the largest weighted vote number TW as an estimation result.

通過人数推定部208は、フレーム画像間での通過人数を推定する。通過人数推定部208は、領域内人数計測部202が計測した所定領域内の人数と、実空間移動量投票推定部207が推定した実空間移動量と、カメラパラメータ記憶部204が記憶しているカメラパラメータと、を用いることによりフレーム画像間での通過人数を推定する。
図16は、本発明の第二実施形態における通過人数推定方法の処理の流れを示すフローチャートである。
The passing person estimation unit 208 estimates the passing person number between frame images. The passing number estimating unit 208 stores the number of people in the predetermined area measured by the in-area number measuring unit 202, the real space moving amount estimated by the real space moving amount vote estimating unit 207, and the camera parameter storage unit 204. The number of people passing between frame images is estimated by using camera parameters.
FIG. 16 is a flowchart showing the flow of processing of the passing person estimation method in the second embodiment of the present invention.

まず、フレーム画像入力部201が画像を時系列順に入力する(ステップS201)。次に、領域内人数計測部102は、フレーム画像入力部201が入力したフレーム画像から所定領域内にいる人数を計測する(ステップS202)。   First, the frame image input unit 201 inputs images in chronological order (step S201). Next, the in-area number counting unit 102 measures the number of persons in the predetermined area from the frame image input by the frame image input unit 201 (step S202).

画像上移動量算出部203は、フレーム画像入力部201が入力した時間的に近接する2つのフレーム画像から人物の特徴点を検出する。画像上移動量算出部203は、2つのフレーム画像から人物の特徴点を検出した後、2つのフレーム画像の特徴点を対応付け、オプティカルフローを取得する。画像上移動量算出部203は、取得されたオプティカルフローに基づいて、画像上の人物の画像上移動量を算出する(ステップS203)。   The on-image movement amount calculation unit 203 detects a feature point of a person from two temporally adjacent frame images input by the frame image input unit 201. The on-image movement amount calculation unit 203 detects the feature points of the person from the two frame images, associates the feature points of the two frame images, and acquires an optical flow. The on-image movement amount calculation unit 203 calculates the on-image movement amount of the person on the image based on the acquired optical flow (step S203).

高さ毎投票係数算出部205は、カメラパラメータ記憶部204が記憶しているカメラパラメータと、領域内人数計測部202が計測した所定領域内の人数と、を用いて高さ毎投票係数P(h)を算出する(ステップS204)。   The voting coefficient calculation unit 205 for each height uses the camera parameters stored in the camera parameter storage unit 204 and the number of people in the predetermined area measured by the in-area number measuring unit 202 to determine the voting coefficient P ( h) is calculated (step S204).

重みづけ投票部206は、画像上移動量算出部203が算出した画像上移動量に、高さ毎投票係数算出部205が算出した高さ毎投票係数P(h)を用いて、重みづけを行いながら投票を行う(ステップS205)。   The weighting voting unit 206 uses the voting coefficient P (h) for each height calculated by the voting coefficient calculating unit 205 for each height as the amount of movement on the image calculated by the on-image movement amount calculating unit 203, and assigns weights. Voting is performed while performing (step S205).

実空間移動量投票推定部207は、重みづけ投票部206が重みづけ投票を行った結果に基づいて実空間移動量を推定する(ステップS206)。
通過人数推定部208は、領域内人数計測部202が計測した所定領域内の人数と、実空間移動量投票推定部207が推定した実空間移動量と、カメラパラメータ記憶部204が記憶しているカメラパラメータと、を用いてフレーム画像間での通過人数を推定する(ステップS207)。
The real space movement amount voting estimation unit 207 estimates the real space movement amount based on the result of the weighting voting unit 206 performing the weighting voting (step S206).
The passing number estimating unit 208 stores the number of people in the predetermined area measured by the in-area number measuring unit 202, the real space moving amount estimated by the real space moving amount vote estimating unit 207, and the camera parameter storage unit 204. The number of passing people between the frame images is estimated using the camera parameters (step S207).

以上のように構成された通過人数推定システムによれば、オクル−ジョン発生時に生じる人物の実空間移動量の誤差を補正することができる。第一実施形態では、実空間移動量補正部107が、人物の実空間移動量推定後に誤差を見積り、補正係数Cを用いて補正をする。そのため、オクル−ジョンによる実空間移動量の誤差を減少できる。その結果、領域内の通過人数をより正確に推定することが可能となる。
また、上記第二実施形態では、実空間移動量推定時に人物の身体の高さ毎に重みづけ投票を行うことで、実空間移動量の誤差を減少できる。すなわち、固定カメラ10に撮影される人物の身体の高さの偏りを補正することが可能となる。そのため、領域内の通過人数をより正確に計測することが可能となる。
According to the passing person estimation system configured as described above, it is possible to correct an error in the amount of movement of a person in real space that occurs when an occlusion occurs. In the first embodiment, the real space movement amount correction unit 107 estimates the error after estimating the real space movement amount of the person, and corrects using the correction coefficient C. Therefore, the error of the real space movement amount due to the occlusion can be reduced. As a result, the number of people passing through the area can be estimated more accurately.
In the second embodiment, errors in the real space movement amount can be reduced by performing weighted voting for each person's body height when estimating the real space movement amount. That is, it is possible to correct the height deviation of the person photographed by the fixed camera 10. Therefore, it is possible to more accurately measure the number of people passing through the area.

<変形例>
上述した実施例では、固定カメラ10と通過人数推定装置100とはそれぞれ異なる装置として構成されているが、固定カメラ10と通過人数推定装置100とが一体化して構成されても良い。
固定カメラ10が撮影したフレーム画像を一度ハードディスクなどの記録媒体に記録して、通過人数推定装置100がフレーム画像を読み出しながら処理を行っても良い。
上記第一実施形態における動作例のステップS102の処理及びステップS103の処理、上記第二実施形態における動作例のステップS202の処理及びステップS203の処理は、並行して行われても良い。
<Modification>
In the above-described embodiment, the fixed camera 10 and the passing number estimating device 100 are configured as different devices, but the fixed camera 10 and the passing number estimating device 100 may be configured integrally.
The frame image captured by the fixed camera 10 may be once recorded on a recording medium such as a hard disk, and the passing number estimating device 100 may perform the processing while reading the frame image.
The processing in step S102 and the processing in step S103 in the operation example in the first embodiment, and the processing in step S202 and the processing in step S203 in the operation example in the second embodiment may be performed in parallel.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…固定カメラ, 20…撮影領域, 100…通過人数推定装置, 101…フレーム画像入力部, 102…領域内人数計測部, 103…画像上移動量算出部, 104…カメラパラメータ記憶部, 105…実空間移動量推定部, 106…補正係数算出部, 107…実空間移動量補正部, 108…通過人数推定部, 109…補正推定値取得部, 201…フレーム画像入力部, 202…領域内人数計測部, 203…画像上移動量算出部, 204…カメラパラメータ記憶部, 205…高さ毎投票係数算出部, 206…重みづけ投票部, 207…実空間移動量投票推定部, 208…通過人数推定部, 209…補正推定値取得部, 300−1…フレーム画像, 300−2…フレーム画像,300−3…画像 301−1〜3…フレーム画像, 313…矢印, 314…矢印, 401−1〜3…実空間移動量, 305−1〜4…矩形(人物), 404−1…実空間移動量, 404−2…実空間移動量, 402−1〜3…重みづけした投票 DESCRIPTION OF SYMBOLS 10 ... Fixed camera, 20 ... Shooting area | region, 100 ... Passage number estimation apparatus, 101 ... Frame image input part, 102 ... Number-of-areas measurement part, 103 ... Moving amount calculation part on an image, 104 ... Camera parameter memory | storage part, 105 ... Real space movement amount estimation unit, 106 ... correction coefficient calculation unit, 107 ... real space movement amount correction unit, 108 ... passing number estimation unit, 109 ... correction estimated value acquisition unit, 201 ... frame image input unit, 202 ... number of people in the area Measurement unit, 203 ... On-image movement amount calculation unit, 204 ... Camera parameter storage unit, 205 ... Height-by-height voting coefficient calculation unit, 206 ... Weighting voting unit, 207 ... Real space movement amount voting estimation unit, 208 ... Number of people passing through Estimating unit, 209... Corrected estimated value acquiring unit, 300-1 ... frame image, 300-2 ... frame image, 300-3 ... image 301-1 to 3. ... frame image, 313 ... arrow, 314 ... arrow, 401-1 to 3 ... real space movement amount, 305-1 to 4 ... rectangle (person), 404-1 ... real space movement amount, 404-2 ... real space movement Quantity, 402-1-3 ... weighted voting

Claims (6)

撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測部と、
前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出部と、
前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得部と、
を備える推定装置。
Using the captured image, the area people counting unit that measures the number of people in the area where the subject was observed,
An on-image movement amount calculation unit for calculating an on-image movement amount of the person from the captured image;
A corrected estimated value acquisition unit that acquires a value smaller than the real space movement amount estimated from the movement amount on the image as an estimation result of the real space movement amount;
An estimation apparatus comprising:
前記補正推定値取得部は、
前記画像上移動量から実空間移動量を推定する実空間移動量推定部と、
前記実空間移動量推定部が推定した実空間移動量の誤差を補正する補正係数を算出する補正係数算出部と、
前記実空間移動量推定部が推定した実空間移動量を、前記補正係数を用いて補正する実空間移動量補正部と、
を備える請求項1に記載の推定装置。
The corrected estimated value acquisition unit
A real space movement amount estimation unit for estimating a real space movement amount from the movement amount on the image;
A correction coefficient calculation unit for calculating a correction coefficient for correcting an error of the real space movement amount estimated by the real space movement amount estimation unit;
A real space movement amount correction unit that corrects the real space movement amount estimated by the real space movement amount estimation unit using the correction coefficient;
The estimation apparatus according to claim 1, comprising:
前記補正推定値取得部は、
前記領域内の人数と、撮影された画像とを用いて、高さ毎投票係数を算出する高さ毎投票係数算出部と、
前記高さ毎投票係数を用いて前記画像上移動量を、実空間移動量に重みづけ投票をする重みづけ投票部と、
前記重みづけ投票により実空間移動量を推定する実空間移動量投票推定部と、 を備える請求項1に記載の推定装置。
The corrected estimated value acquisition unit
A voting coefficient calculation unit for each height that calculates a voting coefficient for each height using the number of people in the region and the captured image;
A weighted voting unit for voting by weighting the amount of movement on the image using the voting coefficient for each height and weighting the amount of movement in real space;
The estimation device according to claim 1, further comprising: a real space movement amount voting estimation unit that estimates a real space movement amount by the weighted voting.
前記補正推定値取得部によって取得された実空間移動量と、前記撮影された画像の前記領域内の人数と、を用いて撮影領域を通過した人数を推定する通過人数推定部をさらに備える請求項1〜3のいずれか1項に記載の推定装置。   The passage number estimation unit for estimating the number of people who have passed through the imaging region using the real space movement amount acquired by the corrected estimated value acquisition unit and the number of people in the region of the captured image. The estimation apparatus of any one of 1-3. 撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測ステップと、
前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、
前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、
を有する推定方法。
A region counting step for measuring the number of people in the region where the subject is observed using the captured image;
An on-image movement amount calculating step for calculating an on-image movement amount of the person from the captured image;
A corrected estimated value acquisition step of acquiring a value smaller than the real space movement amount estimated from the movement amount on the image as an estimation result of the real space movement amount;
An estimation method comprising:
撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測ステップと、
前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、
前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
A region counting step for measuring the number of people in the region where the subject is observed using the captured image;
An on-image movement amount calculating step for calculating an on-image movement amount of the person from the captured image;
A corrected estimated value acquisition step of acquiring a value smaller than the real space movement amount estimated from the movement amount on the image as an estimation result of the real space movement amount;
A computer program for causing a computer to execute.
JP2012117724A 2012-05-23 2012-05-23 Estimation device, estimation method and computer program Pending JP2013246490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012117724A JP2013246490A (en) 2012-05-23 2012-05-23 Estimation device, estimation method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117724A JP2013246490A (en) 2012-05-23 2012-05-23 Estimation device, estimation method and computer program

Publications (1)

Publication Number Publication Date
JP2013246490A true JP2013246490A (en) 2013-12-09

Family

ID=49846241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117724A Pending JP2013246490A (en) 2012-05-23 2012-05-23 Estimation device, estimation method and computer program

Country Status (1)

Country Link
JP (1) JP2013246490A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074299A (en) * 2016-10-26 2018-05-10 日本電信電話株式会社 Flow situation measurement device, method, and program
JP2018151960A (en) * 2017-03-14 2018-09-27 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2018229812A1 (en) * 2017-06-12 2018-12-20 株式会社日立製作所 Three-dimensional measurement device and method
JP2019121278A (en) * 2018-01-10 2019-07-22 キヤノン株式会社 Information processing device and control method thereof
CN114041151A (en) * 2019-06-20 2022-02-11 三菱电机大楼技术服务株式会社 Device for predicting number of people, equipment management system and method for predicting number of people
WO2025263266A1 (en) * 2024-06-19 2025-12-26 ソニーグループ株式会社 Communication device and communication method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242646A (en) * 2004-02-26 2005-09-08 Ntt Data Corp Human flow measurement device, human flow measurement method, and human flow measurement program
JP2012022370A (en) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242646A (en) * 2004-02-26 2005-09-08 Ntt Data Corp Human flow measurement device, human flow measurement method, and human flow measurement program
JP2012022370A (en) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
齊藤 洋輔、岩井 儀雄: ""映像解析による群衆の危険度評価システム"", 情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM), JPN6015021673, 15 August 2009 (2009-08-15), JP, pages 1 - 8, ISSN: 0003086459 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074299A (en) * 2016-10-26 2018-05-10 日本電信電話株式会社 Flow situation measurement device, method, and program
JP2018151960A (en) * 2017-03-14 2018-09-27 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7005153B2 (en) 2017-03-14 2022-01-21 キヤノン株式会社 Information processing equipment, information processing methods and programs
WO2018229812A1 (en) * 2017-06-12 2018-12-20 株式会社日立製作所 Three-dimensional measurement device and method
JPWO2018229812A1 (en) * 2017-06-12 2020-02-27 株式会社日立製作所 Three-dimensional measuring device and method
JP2019121278A (en) * 2018-01-10 2019-07-22 キヤノン株式会社 Information processing device and control method thereof
JP7113622B2 (en) 2018-01-10 2022-08-05 キヤノン株式会社 Information processing device and its control method
CN114041151A (en) * 2019-06-20 2022-02-11 三菱电机大楼技术服务株式会社 Device for predicting number of people, equipment management system and method for predicting number of people
WO2025263266A1 (en) * 2024-06-19 2025-12-26 ソニーグループ株式会社 Communication device and communication method

Similar Documents

Publication Publication Date Title
US10504244B2 (en) Systems and methods to improve camera intrinsic parameter calibration
KR102307941B1 (en) Improved calibration for eye tracking systems
JP2013246490A (en) Estimation device, estimation method and computer program
JP6356266B2 (en) Crowd monitoring system
JP6525453B2 (en) Object position estimation system and program thereof
JP5756455B2 (en) Image processing apparatus and image processing method
JP5976198B2 (en) Number counting device and number counting method
US9390334B2 (en) Number of persons measurement device
CN100547350C (en) Moving-object height determining apparatus
KR101467847B1 (en) Area Based Object Counting Device and Method
JP6620881B2 (en) Apparatus, system, method, and program for measuring the number of passengers, and apparatus, method, and program for calculating travel distance of vehicle
JP5035467B2 (en) Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program
JP7224832B2 (en) Information processing device, information processing method, and program
JP2015041381A (en) Method and system of detecting moving object
JP2008118644A (en) One or more computer-readable instructions having computer-readable instructions for performing a method for estimating a point spread function of a blurred digital image and, at run time, a method for estimating a point spread function of a blurred digital image Possible medium
US20190064311A1 (en) Active person positioning device and activity data acquisition device
JP3702260B2 (en) Target angular velocity measuring device and target angular velocity measuring method
US20230069018A1 (en) Image processing apparatus, imaging apparatus, image processing system, image processing method, and non-transitory computer readable medium
CN114593832B (en) Thermal imaging device and temperature correction method of thermal imager
KR101051390B1 (en) Apparatus and method for estimating object information of surveillance camera
WO2018134866A1 (en) Camera calibration device
JP5990042B2 (en) Passing number estimation method and computer program
US20160084868A1 (en) Method of Determining a Changing Spatial Distribution of Particles at Multiple Points in Time
CN104937608B (en) Road area detection
JP2005242646A (en) Human flow measurement device, human flow measurement method, and human flow measurement program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150825