JP2013246490A - Estimation device, estimation method and computer program - Google Patents
Estimation device, estimation method and computer program Download PDFInfo
- Publication number
- JP2013246490A JP2013246490A JP2012117724A JP2012117724A JP2013246490A JP 2013246490 A JP2013246490 A JP 2013246490A JP 2012117724 A JP2012117724 A JP 2012117724A JP 2012117724 A JP2012117724 A JP 2012117724A JP 2013246490 A JP2013246490 A JP 2013246490A
- Authority
- JP
- Japan
- Prior art keywords
- movement amount
- real space
- image
- unit
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】オクル−ジョンにより発生する実空間移動量の誤差を減少させること。
【解決手段】推定装置であって、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測部と、撮影された画像から人物の画像上移動量を算出する画像上移動量算出部と、画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得部と、を備え、補正推定値取得部は、画像上移動量から実空間移動量を推定する実空間移動量推定部と、実空間移動量推定部が推定した実空間移動量の誤差を補正する補正係数を算出する補正係数算出部と、実空間移動量推定部が推定した実空間移動量を、前記補正係数を用いて補正する実空間移動量補正部と、を備える。
【選択図】図2An object of the present invention is to reduce errors in the amount of real space movement caused by occlusion.
An estimation apparatus that uses a captured image to calculate the number of persons in the area where the number of persons in the area where the subject is observed is measured, and the amount of movement of the person on the image from the captured image And a corrected estimated value acquiring unit that acquires a value smaller than the actual space moving amount estimated from the moving amount on the image as an estimation result of the actual space moving amount. The acquisition unit calculates a real space movement amount estimation unit that estimates the real space movement amount from the movement amount on the image, and calculates a correction coefficient that corrects an error of the real space movement amount estimated by the real space movement amount estimation unit. And a real space movement amount correction unit that corrects the real space movement amount estimated by the real space movement amount estimation unit using the correction coefficient.
[Selection] Figure 2
Description
本発明は、通過人数を推定する技術に関する。 The present invention relates to a technique for estimating the number of people passing by.
カメラ画像を利用して通過人数を計測するためには、画像上に人物が現れたこと及び人物が通り過ぎたことを検知する必要がある。これらの検知を実現する様々な画像処理技術が提案されており、大きく2つのアプローチに分けることができる。
1つ目のアプローチは画像上に存在する個々の人物を検出しながらその位置を捕捉・追跡していく人物追跡技術(トラッキング技術)に基づくものである(非特許文献1参照)。しかし、人物追跡技術では、オクルージョンが発生することにより個々の人物の検出、追跡が困難になるという問題がある。このような問題は、例えば、大きな駅のコンコースのように人が多く混雑する場所に適用しようとした場合に、人と人とが画像上で重なり合ってしまうことにより生じる。
In order to measure the number of passing people using a camera image, it is necessary to detect that a person has appeared on the image and that a person has passed. Various image processing techniques for realizing these detections have been proposed, and can be roughly divided into two approaches.
The first approach is based on a person tracking technique (tracking technique) in which an individual person existing on an image is detected and its position is captured and tracked (see Non-Patent Document 1). However, the person tracking technology has a problem that it becomes difficult to detect and track individual persons due to occurrence of occlusion. Such a problem occurs, for example, when a person tries to be applied to a place where a lot of people are crowded, such as a concourse of a large station, and people overlap each other on an image.
2つ目のアプローチは、個々の人物の検出を行わず、人物の集団全体をあたかも流体のようにひとまとまりのものとして捉える手法である(非特許文献2参照)。この手法では瞬間瞬間の領域内の人数と、一定時間内での集団全体の移動量(移動速度)とを算出することで通過人数を推定する。このような個々の人物の検出を必要としないアプローチは混雑時であっても安定に動作することが期待できる。 The second approach is a method in which individual persons are not detected but the whole group of persons is regarded as a group like a fluid (see Non-Patent Document 2). In this method, the number of passing people is estimated by calculating the number of people in the region at the moment and the movement amount (movement speed) of the entire group within a certain time. Such an approach that does not require the detection of individual persons can be expected to operate stably even when it is congested.
非特許文献2に記載されている既存手法の具体的なアルゴリズムの概要を簡単に説明する。この手法では、較正された固定カメラ(カメラの各画素が実空間のどこを撮影しているかが指定できるような所謂キャリブレーションが実施されているカメラ)を用い画像を時系列的に取得しながら、以下の値を算出する。
1.瞬間瞬間の画像内の所定領域内の人数(領域内人数)
2.時間的に隣接するフレーム画像間(もしくは0.1秒などの短い時間間隔にある2つのフレーム画像間)における集団の実空間での移動量(実空間移動量)
An outline of a specific algorithm of the existing method described in Non-Patent Document 2 will be briefly described. In this method, while acquiring images in a time series using a calibrated fixed camera (a camera in which so-called calibration is performed so that it can be specified where each pixel of the camera is shooting in real space). The following values are calculated.
1. Number of people in a given area in the instantaneous image (number of people in the area)
2. Amount of movement of a group in real space between real time adjacent frame images (or between two frame images in a short time interval such as 0.1 second) (real space movement amount)
なお、カメラの較正(キャリブレーション)は、カメラの光学系の特性(焦点距離、アスペクト比、歪パラメータなど)を記述する内部パラメータと、カメラの実空間における位置や角度を指定する外部パラメータとを取得することである。
キャリブレーションは、ドットパターンやチェス盤用パターン等の被写体、特定の3次元構造物など、幾何的な性質(形状やサイズ)が既知である被写体を撮影し、所定の幾何学計算を行うことにより実現することができる。キャリブレーションの具体的な実現方法については、既に様々な方法が提案されており、OpenCVなどのオープンソフトの形態でも公開されるなど一般化している。
Note that camera calibration consists of internal parameters that describe the characteristics of the optical system of the camera (focal length, aspect ratio, distortion parameters, etc.) and external parameters that specify the position and angle of the camera in real space. Is to get.
Calibration is performed by photographing a subject whose geometric properties (shape or size) are known, such as a subject such as a dot pattern or chessboard pattern, or a specific three-dimensional structure, and performing a predetermined geometric calculation. Can be realized. Various specific methods for realizing calibration have already been proposed, and they are generalized such as being released in the form of open software such as OpenCV.
領域内人数の算出には、既に提案されている様々な手法の適用が可能である。例えば、非特許文献3に記載されている技術を用いて領域内の人数を算出しても良い。
実空間移動量の算出には、既に提案されている様々な手法の適用が可能である。例えば、非特許文献2に記載されている技術を用いて実空間移動量を算出しても良い。
そして、領域内の人数及び実空間移動量を用いて、通過人数を推定する。この手法は、ある密度を持つ流体がある速度で既知の流路(断面積が既知のパイプ等)を流れる場合に、密度、速度および流路の幾何的な情報があれば流量を算出できることと同じ原理を用いている。
Various methods already proposed can be applied to calculate the number of people in the area. For example, the number of people in the area may be calculated using the technique described in Non-Patent Document 3.
Various methods that have already been proposed can be applied to the calculation of the real space movement amount. For example, the real space movement amount may be calculated using the technique described in Non-Patent Document 2.
Then, the number of passing people is estimated using the number of people in the area and the real space movement amount. In this method, when a fluid with a certain density flows through a known flow path (such as a pipe with a known cross-sectional area) at a certain speed, the flow rate can be calculated if there is density, speed, and geometric information of the flow path. The same principle is used.
上述した非特許文献2の方法では、人物の集団全体を流体としてとらえて、瞬間瞬間の領域内の人数と、集団全体の実空間移動量を算出することで通過人数を推定していた。しかしながら、オクル−ジョンにより人物の足などの下半身の特徴点が検出されず人物の頭など上半身の特徴点ばかりが検出されてしまうことで実空間移動量を推定する際に誤差が発生してしまうことがあった。 In the method of Non-Patent Document 2 described above, the entire group of persons is regarded as a fluid, and the number of people passing through is estimated by calculating the number of people in the area at the moment and the real space movement amount of the entire group. However, since the feature point of the lower body such as a person's foot is not detected by the occlusion, only the feature point of the upper body such as the person's head is detected, which causes an error in estimating the real space movement amount. There was a thing.
上記事情に鑑み、本発明は、オクル−ジョンによる発生する実空間移動量推定の誤差を減少させる技術の提供を目的としている。 In view of the above circumstances, an object of the present invention is to provide a technique for reducing an error in estimating a real space movement amount caused by occlusion.
本発明の一態様は、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測部と、前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出部と、前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得部と、を備える推定装置である。 According to an aspect of the present invention, an area number measurement unit that measures the number of persons in an area where a subject is observed using a captured image, and an image that calculates a movement amount of the person on the image from the captured image An estimation apparatus comprising: an upper movement amount calculation unit; and a corrected estimated value acquisition unit that acquires a value smaller than the actual space movement amount estimated from the upper image movement amount as an estimation result of the actual space movement amount.
本発明の一態様は、上記の推定装置であって、前記補正推定値取得部は、前記画像上移動量から実空間移動量を推定する実空間移動量推定部と、前記実空間移動量推定部が推定した実空間移動量の誤差を補正する補正係数を算出する補正係数算出部と、前記実空間移動量推定部が推定した実空間移動量を、前記補正係数を用いて補正する実空間移動量補正部と、を備える。 One aspect of the present invention is the above estimation apparatus, wherein the correction estimated value acquisition unit estimates a real space movement amount from the movement amount on the image, and the real space movement amount estimation. A correction coefficient calculation unit that calculates a correction coefficient that corrects an error in the real space movement amount estimated by the unit, and a real space that corrects the real space movement amount estimated by the real space movement amount estimation unit using the correction coefficient A movement amount correction unit.
本発明の一態様は、上記の推定装置であって、前記補正推定値取得部は、前記領域内の人数と、撮影された画像とを用いて、高さ毎投票係数を算出する高さ毎投票係数算出部と、前記高さ毎投票係数を用いて前記画像上移動量を、実空間移動量に重みづけ投票をする重みづけ投票部と、前記重みづけ投票により実空間移動量を推定する実空間移動量投票推定部と、を備える。 One aspect of the present invention is the above-described estimation device, wherein the correction estimated value acquisition unit calculates a voting coefficient for each height using the number of people in the region and the captured image. A voting coefficient calculation unit, a weighting voting unit that weights the movement amount on the image using the voting coefficient for each height and weights the real space movement amount, and the real space movement amount is estimated by the weighted voting. A real space movement amount voting estimation unit.
本発明の一態様は、上記の推定装置であって、前記補正推定値取得部によって取得された実空間移動量と、前記撮影された画像の前記領域内の人数と、を用いて撮影領域を通過した人数を推定する通過人数推定部をさらに備える。 One aspect of the present invention is the above-described estimation device, in which an imaging region is determined using the real space movement amount acquired by the correction estimated value acquisition unit and the number of people in the region of the captured image. A passing number estimating unit for estimating the number of passing persons is further provided.
本発明の一態様は、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測ステップと、前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、を有する推定方法である。 According to one aspect of the present invention, an area number measurement step for measuring the number of persons in an area where a subject is observed using a captured image, and an image for calculating a movement amount of the person on the image from the captured image. The estimation method includes an upper movement amount calculation step and a corrected estimated value acquisition step of acquiring a value smaller than the actual space movement amount estimated from the upper image movement amount as an estimation result of the actual space movement amount.
本発明の一態様は、撮影された画像を用いて、被写体が観測された領域内の人数を計測する領域内人数計測ステップと、前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、をコンピュータに実行させるためのコンピュータプログラムである。 According to one aspect of the present invention, an area number measurement step for measuring the number of persons in an area where a subject is observed using a captured image, and an image for calculating a movement amount of the person on the image from the captured image. An upper moving amount calculating step, and a corrected estimated value acquiring step for acquiring a value smaller than the actual space moving amount estimated from the moving amount on the image as an estimation result of the actual space moving amount; It is a computer program.
本発明により、オクル−ジョンにより発生する実空間移動量推定の誤差を減少させることが可能となる。 According to the present invention, it is possible to reduce the error of the real space movement amount estimation caused by occlusion.
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における通過人数推定システムのシステム構成を示す図である。本発明の通過人数推定システムは、固定カメラ10及び通過人数推定装置100を備える。
固定カメラ10は、例えばセキュリティカメラのように斜め下向きに設置されており、撮影領域20を撮影する。固定カメラ10が撮影する撮影領域20は、事前のカメラキャリブレーションによって決定される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of a passing person estimation system according to the present invention. The passing person estimation system of the present invention includes a fixed
The fixed
通過人数推定装置100は、情報処理装置を用いて構成される。通過人数推定装置100は、固定カメラ10が撮影したフレーム画像に基づいて画像処理を行うことによって、撮影領域20を通過した人数を推定する。
撮影領域20は、固定カメラ10によって撮影される領域である。
以下、通過人数推定装置100の具体的な構成例(第一実施形態及び第二実施形態)について説明する。
The passing
The
Hereinafter, a specific configuration example (first embodiment and second embodiment) of the passing
[第一実施形態]
図2は、通過人数推定装置100の第一実施形態(通過人数推定装置100a)の機能構成を表す概略ブロック図である。通過人数推定装置100aは、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、通過人数推定プログラムを実行する。通過人数推定プログラムの実行によって、通過人数推定装置100aは、フレーム画像入力部101、領域内人数計測部102、画像上移動量算出部103、カメラパラメータ記憶部104、通過人数推定部108、補正推定値取得部109を備える装置として機能する。また、補正推定値取得部109は、実空間移動量推定部105、補正係数算出部106及び実空間移動量補正部107として機能する。なお、通過人数推定装置100aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。また、通過人数推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、通過人数推定プログラムは、電気通信回線を介して送受信されても良い。
[First embodiment]
FIG. 2 is a schematic block diagram showing the functional configuration of the first embodiment (passage number estimating device 100a) of the passing
フレーム画像入力部101は、固定カメラ10が撮影したフレーム画像を時系列順に入力する。
領域内人数計測部102は、フレーム画像入力部101が入力したフレーム画像内の所定領域内の人数を計測する。所定領域とは、フレーム画像内で人物が観測された領域である。
The frame
The in-area
画像上移動量算出部103は、フレーム画像入力部101が時系列順に入力したフレーム画像内の人物の画像上移動量を算出する。画像上移動量は、時間的に近接する2枚のフレーム画像間において、画像上での人物の移動量を表す。
カメラパラメータ記憶部104は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。カメラパラメータ記憶部104は、固定カメラ10のキャリブレーションにより設定されたカメラパラメータ(例えば、内部パラメータ及び外部パラメータ)を記憶している。内部パラメータは、カメラの構成に関するパラメータである。例えば、内部パラメータは、焦点距離、アスペクト比、歪みパラメータなどを表す。外部パラメータは、実空間上における固定カメラ10の位置(高さを含む)や向きに関するパラメータである。
The on-image movement
The camera
補正推定値取得部109は、画像上移動量に基づいて従来の方法で推定される実空間移動量よりも小さな値を、実空間移動量の推定結果として取得する。以下、補正推定値取得部109の具体的な構成例について説明する。
実空間移動量推定部105は、カメラパラメータ記憶部104が記憶しているカメラパラメータと、画像上移動量算出部103が算出した画像上移動量とを用いて、実空間移動量を推定する。実空間移動量は、時間的に近接する2枚のフレーム画像間において、実空間上での人物の移動量を表す。実空間移動量推定方法について、図3〜5を用いて説明する。
The corrected estimated
The real space movement
図3は、画像上移動量の具体例を示す図である。フレーム画像300−1は、人物の集団が実空間上を同じ速度で移動しているときに撮像された画像である。フレーム画像300−2は、フレーム画像300−1から一定時間(例えば、5秒、10秒など)経過後に撮像された画像である。画像300−3は、フレーム画像300−1及びフレーム画像300−2の各フレーム画像で検出された人物の集団の特徴点を対応付けることによって、人物の集団の画像上での移動をオプティカルフローとして表した画像である。画像300−3において、一つ一つの矢印(オプティカルフロー)の長さが画像上移動量を表し、矢印の向きが移動方向を表す。 FIG. 3 is a diagram illustrating a specific example of the movement amount on the image. The frame image 300-1 is an image captured when a group of people is moving in real space at the same speed. The frame image 300-2 is an image captured after a certain time (for example, 5 seconds, 10 seconds, etc.) has elapsed from the frame image 300-1. The image 300-3 represents the movement of the group of persons on the image as an optical flow by associating the feature points of the group of persons detected in the frame images 300-1 and 300-2. It is an image. In the image 300-3, the length of each arrow (optical flow) represents the amount of movement on the image, and the direction of the arrow represents the movement direction.
画像300−3から明らかなように、画像上移動量は、実空間上で人物のいる場所によって異なる。実空間上で固定カメラ10に近い位置にいる人物について観測される画像上移動量は、固定カメラ10から遠い位置にいる人物について観測される画像上移動量に比べて大きい。このように、実空間上での移動量が同じであっても、実空間上で人物のいる場所に応じて画像上移動量が異なる。
As is apparent from the image 300-3, the amount of movement on the image differs depending on the location of the person in the real space. The amount of movement on the image observed for a person who is close to the fixed
図4は、画像上移動量に基づいて実空間移動量を推定する処理の具体例を示す図である。図4(A)のフレーム画像301−1は、二つのフレーム間画像において検出されたオプティカルフローの具体例である。この時点では、フレーム画像301−1のオプティカルフローが表す実空間上の移動量は不明である。さらに、フレーム画像301−1のオプティカルフローが人物のどの特徴点におけるオプティカルフローであるかも不明である。そのため、フレーム画像301−1のオプティカルフローは、人物の頭の部分におけるオプティカルフローであるかもしれないし、人物の足の部分におけるオプティカルフローであるかもしれない。 FIG. 4 is a diagram illustrating a specific example of processing for estimating the real space movement amount based on the movement amount on the image. A frame image 301-1 in FIG. 4A is a specific example of an optical flow detected in two inter-frame images. At this time, the movement amount in the real space represented by the optical flow of the frame image 301-1 is unknown. Furthermore, it is also unknown which optical point of the person the characteristic flow of the frame image 301-1 is. For this reason, the optical flow of the frame image 301-1 may be an optical flow in the head portion of the person or an optical flow in the foot portion of the person.
しかし、上述したように、オプティカルフローの長さ(画像上移動量)が表す実空間上での移動量は、実空間上でその特徴点が固定カメラ10から離れている距離に応じて異なる。また、一般的に人物の頭の部分は人物の足の部分に比べて固定カメラ10に近い。そのため、オプティカルフローから推定される実空間上での移動量は、そのオプティカルフローが人物の頭の部分のオプティカルフローであると仮定した場合と、人物の足の部分のオプティカルフローであると仮定した場合とで異なる。
図4(B)のフレーム画像301−2は、フレーム画像301−1のオプティカルフローが表している特徴点を、人物の頭と仮定した場合の状態を表す画像である。図4(C)のフレーム画像301−3は、フレーム画像301−1のオプティカルフローが表している特徴点を、人物の足と仮定した場合の状態を表す画像である。同じオプティカルフローであっても、人物の足と仮定した場合に推定される実空間上での移動量は、人物の頭と仮定した場合に推定される実空間上での移動量よりも大きい。
However, as described above, the amount of movement in the real space represented by the length of the optical flow (the amount of movement on the image) varies depending on the distance that the feature point is away from the fixed
A frame image 301-2 in FIG. 4B is an image representing a state when the feature point represented by the optical flow of the frame image 301-1 is assumed to be the head of a person. A frame image 301-3 in FIG. 4C is an image representing a state when the feature point represented by the optical flow of the frame image 301-1 is assumed to be a human foot. Even for the same optical flow, the movement amount in the real space estimated when the human foot is assumed is larger than the movement amount in the real space estimated when the human head is assumed.
図4(D)は、画像上移動量から推定される実空間移動量の具体例を表す図である。横軸は、実空間における人物の移動方向の座標を表す。矢印313は、図4(A)におけるオプティカルフローが人物の頭におけるオプティカルフローであると仮定した場合の、オプティカルフローが表す人物の移動を示す。すなわち、矢印313は、図4(B)に示される移動の状態を表す。矢印314は、図4(A)におけるオプティカルフローが人物の足におけるオプティカルフローであると仮定した場合の、オプティカルフローが表す人物の移動を示す。すなわち、矢印314は、図4(C)に示される移動の状態を表す。このように、画像上では一つのオプティカルフローであっても、そのオプティカルフローが対応する特徴部分が異なると、そのオプティカルフローが表す実空間における移動も異なる。
FIG. 4D is a diagram illustrating a specific example of the real space movement amount estimated from the movement amount on the image. The horizontal axis represents the coordinates of the movement direction of the person in real space. An
図5は、実空間移動量を推定する処理の具体例を示す図である。図5(A)は、一つのオプティカルフローから推定される実空間移動量の具体例を表す図である。Hは、人物の身体の高さを表す。rHは、人物の頭を特徴点とした場合に推定される実空間移動量を表す。r0は、人物の足を特徴点とした場合に推定される実空間移動量を表す。 FIG. 5 is a diagram illustrating a specific example of processing for estimating the real space movement amount. FIG. 5A is a diagram illustrating a specific example of the real space movement amount estimated from one optical flow. H represents the height of a person's body. rH represents a real space movement amount estimated when a person's head is used as a feature point. r0 represents a real space movement amount estimated when a person's foot is a feature point.
図5(B)は、実空間移動量を推定する際に行われる投票の概念を表す図である。図5(A)から明らかなように、実空間上で固定カメラ10が撮影する人物の部位の中でカメラに一番近い部位は人物の頭である。そのため、人物の頭を特徴点と仮定した場合のrHが実空間移動量の最低値と仮定できる。また、実空間上で固定カメラ10から一番遠い部位は人物の足(足先)である。そのため、人物の足を特徴点と仮定した場合のr0を実空間移動量の最大値と仮定できる。Vは、固定カメラ10が観測する人物の実空間移動量の推定範囲を表す。実空間移動量推定部105は、実空間移動量の推定範囲で投票を行い、実空間移動量を推定する。投票は、各オプティカルフローから推定される実空間移動量の推定範囲において、所定の幅毎に一票ずつ票を追加していく処理である。
FIG. 5B is a diagram illustrating the concept of voting performed when the real space movement amount is estimated. As is clear from FIG. 5A, the part closest to the camera among the parts of the person photographed by the fixed
図5(C)は、人物の3つの特徴点について得られたオプティカルフローの具体例を表す図である。破線で表されるオプティカルフロー400−3は、人物の頭を特徴点として得られたオプティカルフローである。一点鎖線で表されるオプティカルフロー400−2は、人物の高さ方向の中心部分(腕のあたり)を特徴点として得られたオプティカルフローである。二点鎖線で表されるオプティカルフロー400−1は、人物の足先を特徴点として得られたオプティカルフローである。なお、実際の処理では、3つのオプティカルフローがそれぞれ人物のどの部分を特徴として得られたオプティカルフローであるかは不明である。理解の容易のために、本説明では各オプティカルフローが人物のどの部分を特徴点として得られたかを明らかにしている。 FIG. 5C is a diagram illustrating a specific example of the optical flow obtained for the three feature points of the person. An optical flow 400-3 represented by a broken line is an optical flow obtained using a person's head as a feature point. An optical flow 400-2 represented by an alternate long and short dash line is an optical flow obtained using a central portion (around the arm) in the height direction of a person as a feature point. An optical flow 400-1 represented by a two-dot chain line is an optical flow obtained using a person's foot as a feature point. In actual processing, it is unclear which part of the person each of the three optical flows is an optical flow obtained as a characteristic. For ease of understanding, this description clarifies which part of the person each optical flow is obtained as a feature point.
図5(D)は、図5(C)に示される3つのオプティカルフローに基づいて行われる投票の結果を表す図である。図5(D)において、縦軸はオプティカルフローの並びを表し、横軸は実空間移動量Mを表す。401−1は、オプティカルフロー400−1に基づいて行われた投票の結果を表す。401−2は、オプティカルフロー400−2に基づいて行われた投票の結果を表す。401−3は、オプティカルフロー400−3に基づいて行われた投票の結果を表す。 FIG. 5D is a diagram illustrating a result of voting performed based on the three optical flows illustrated in FIG. In FIG. 5D, the vertical axis represents the arrangement of optical flows, and the horizontal axis represents the real space movement amount M. 401-1 represents the result of voting performed based on the optical flow 400-1. 401-2 represents the result of voting performed based on the optical flow 400-2. 401-3 represents the result of the voting performed based on the optical flow 400-3.
図6は、投票の得票数に応じて実空間移動量を推定する具体例を表した図である。縦軸は、得票数Tを表す。横軸は実空間移動量Mを表す。実空間移動量推定部105は、フレーム画像から得られたオプティカルフロー毎に、実空間移動量の推定範囲を取得する。その後、実空間移動量推定部105は、オプティカルフロー毎に推定範囲に対して均等に投票を行う。実空間移動量推定部105は、得票数が最も高い実空間移動量Mmaxを推定結果として取得する。
FIG. 6 is a diagram showing a specific example in which the real space movement amount is estimated according to the number of votes obtained. The vertical axis represents the number of votes T. The horizontal axis represents the real space movement amount M. The real space movement
補正係数算出部106は、カメラパラメータ記憶部104が記憶しているカメラパラメータと、領域内人数計測部102が計測した所定領域内の人数と、を用いて補正係数Cを算出する。補正係数Cの具体的な算出方法について、図7〜9を用いて説明する。
The correction
図7は、矩形範囲の具体例を表す図である。以下、図7を用いて矩形範囲について説明する。Tzは、床面から固定カメラ10までの高さを表す。Gは、固定カメラ10が撮影している撮影領域20の画像の枠を表す。G1は、画像Gの注目画素を表す。注目画素G1は、固定カメラ10のキャリブレーションによって、どの領域を撮影しているか具体的に計算できる。
FIG. 7 is a diagram illustrating a specific example of a rectangular range. Hereinafter, the rectangular range will be described with reference to FIG. Tz represents the height from the floor surface to the fixed
図7のPは、注目画素G1に撮影される空間を直線で表している。直線Pは、厳密には遠くに行くほど広がる錐状となるが、簡単化のために直線で表す。305−1〜4は、人物を標準的な大きさ(幅をW、身体の高さをHとする)の矩形で近似して表している。矩形305−1〜4は、固定カメラ10から矩形305−1〜4を見た場合に、固定カメラ10に正対する幅W、身体の高さHの矩形として見えるように近似して表している。
P in FIG. 7 represents a space captured by the target pixel G1 with a straight line. Strictly speaking, the straight line P has a conical shape that spreads farther away, but is represented by a straight line for simplification. Reference numerals 305-1 to 305-4 represent a person approximated by a rectangle having a standard size (W is a width and H is a body height). The rectangles 305-1 to 305-4 are approximated so that the rectangles 305-1 to 305-4 are viewed from the fixed
床面上の矩形範囲306は、人物が床面上に立った際の注目画素G1に人物(矩形)の身体の一部が写る範囲を表している。矩形範囲306は、幅W、長さLの領域である。長さLは、Pの床面上に対する傾きと矩形305−1〜4の高さHから算出される。
A
注目画素G1において被写体が観測された場合の矩形範囲306内の人数と、カメラパラメータ記憶部104が記憶しているカメラパラメータと、に基づいて、撮影領域20の人物密度(1平方メートルあたりσ人)を算出することができる。矩形範囲306の面積は、W・Lであるから、矩形範囲306内にいる人数の期待値はR=σ・W・Lとなる。
Based on the number of people in the
図8は、人物の身体の高さの期待値の概念を表す図である。身体の高さの期待値とは、固定カメラ10の最も近くに位置する人物の身体部分のうち、注目画素G1に写る身体部分の床面からの高さを表す。身体の高さの期待値は、矩形範囲306内に存在する人物の数Rに応じて変化する。そこで、身体の高さの期待値をH1(R)と表す。
図8では、縦軸が高さを表し、横軸が矩形範囲306の長さ方向(L)の座標を表す。図8は、矩形範囲306に人物が1人観測されている様子を表す。Hは、人物の身体の高さを表す。直線P1及びP2は、固定カメラ10の視点と注目画素G1とを結ぶ直線である。人物がXの位置に存在する場合に注目画素G1に写る人物の部位は、床面から高さH1に位置する部位である。
FIG. 8 is a diagram illustrating a concept of an expected value of the height of a person's body. The expected value of the height of the body represents the height from the floor surface of the body part of the person located closest to the fixed
In FIG. 8, the vertical axis represents the height, and the horizontal axis represents the coordinate in the length direction (L) of the
L1は、矩形範囲306内で固定カメラ10に最も近い位置である。人物がL1に位置する場合、注目画素G1には人物の頭が写る。L2は、矩形範囲306内で固定カメラ10に最も遠い位置である。人物がL2に位置する場合、注目画素G1には人物の足先が写る。固定カメラ10が観測する人数が1人の場合、カメラの最も近くに位置する人物が存在する確率は、L1からL2までの範囲で均等である。そのため、身体の高さの期待値H1(1)=H/2となる。
L1 is the position closest to the fixed
図9は、矩形範囲306内にR人の人物が存在する場合の身体の高さの期待値H1(R)を表す図である。矩形範囲306のXに位置する人物が固定カメラ10に最も近くに位置している確率は、Xに位置する人物が他の(R−1)人全てよりも固定カメラ10側に位置する確率P(X)と同じ値であり、式(1)のように表される。
FIG. 9 is a diagram illustrating the expected value H1 (R) of the body height when there are R persons within the
R人が矩形範囲にいる場合に、固定カメラ10に最も近い人物の位置を表す期待値X1は、式1に基づいて式(2)のように表される。
When the R person is in the rectangular range, the expected value X1 representing the position of the person closest to the fixed
式(2)を変形することによって、期待値X1=L/(R+1)となる。 By transforming Equation (2), the expected value X1 = L / (R + 1).
期待値X1に位置する人物の身体部分のうち、注目画素G1に写る部分の高さが、矩形範囲内306内にR人の人物が存在する場合の身体の高さの期待値H1(R)に相当する。H1(R)は、底辺をL、高さをHとする直角三角形と相似な直角三角形であって、(L−X1)を底辺とする直角三角形の高さに相当する。そのため、H1(R)は式(3)のように表される。
Of the human body part located at the expected value X1, the height of the part shown in the target pixel G1 is the expected value H1 (R) of the body height when there are R persons within the
上述した結果により、補正係数Cを式(4)のように表す。 Based on the results described above, the correction coefficient C is expressed as in Equation (4).
実空間移動量補正部107は、補正係数Cを用いて実空間移動量を補正する。補正後の実空間移動量Dcは式(5)のように表される。
The real space movement
式(5)のDは、実空間移動量推定部105によって推定された実空間移動量である。
通過人数推定部108は、領域内人数計測部102によって計測された所定領域内の人数と、実空間移動量補正部107によって補正された実空間移動量と、カメラパラメータ記憶部204が記憶しているカメラパラメータと、を用いてフレーム画像間での通過人数を推定する。
D in Expression (5) is the real space movement amount estimated by the real space movement
The passing
図10は、本発明の第一実施形態における通過人数推定方法の処理の流れを示すフローチャートである。
まず、フレーム画像入力部101が画像を時系列順に入力する(ステップS101)。次に、領域内人数計測部102は、フレーム画像入力部101が入力したフレーム画像から所定領域内人数を計測する(ステップS102)
FIG. 10 is a flowchart showing the flow of processing of the passing person estimation method in the first embodiment of the present invention.
First, the frame
画像上移動量算出部103は、フレーム画像入力部101が入力した時間的に近接する2つのフレーム画像から人物の特徴点を検出する。画像上移動量算出部103は、2つのフレーム画像から人物の特徴点を検出した後、2つのフレーム画像の特徴点を対応付け、オプティカルフローを取得する。画像上移動量算出部103は、取得されたオプティカルフローに基づいて、画像上の人物の画像上移動量を算出する(ステップS103)。
The on-image movement
次に、実空間移動量推定部105は、画像上移動量算出部103が算出した画像上移動量に基づいて投票を行う(ステップS104)。実空間移動量推定部105は、画像上移動量の投票結果に基づいて実空間移動量を推定する(ステップS105)。
Next, the real space movement
補正係数算出部106は、カメラパラメータ記憶部104が記憶しているカメラパラメータと、領域内人数計測部102が計測した所定領域内の人数と、を用いて補正係数を算出する(ステップS106)。
The correction
実空間移動量補正部107は、補正係数算出部106が算出した補正係数を用いて、実空間移動量推定部105が推定した実空間移動量を補正する(ステップS107)。
通過人数推定部108は、領域内人数計測部102が計測した所定領域内の人数と、実空間移動量補正部107が補正した実空間移動量と、カメラパラメータ記憶部104が記憶しているカメラパラメータと、を用いてフレーム画像間での通過人数を推定する(ステップS108)。
The real space movement
The passing
次に、図11及び図12を用いて、第一実施形態における通過人数推定装置100aの効果について説明する。
図11は、閑散時に撮影されたフレーム画像を用いて実空間移動量を推定する処理の具体例を示した図である。図11(A)は、閑散時に撮影されたフレーム画像の具体例である。図11(B)は、閑散時に撮影されたフレーム画像に基づいて行われた投票結果の具体例を示す図である。図11(A)に示されるように、閑散時には所定領域内にいる人物が少数であるため、人物と人物とが重なりあって撮影されることが少ない。そのため、人物の身体の様々な高さの部分から画像上移動量を得ることが可能である。したがって、様々な高さの部分から得られた画像上移動量に基づいて投票を行うことが可能となり、高精度に実空間移動量を推定できる。
Next, the effect of the passing number estimating device 100a in the first embodiment will be described using FIG. 11 and FIG.
FIG. 11 is a diagram showing a specific example of processing for estimating the real space movement amount using a frame image taken in a quiet time. FIG. 11A is a specific example of a frame image taken at a quiet time. FIG. 11B is a diagram illustrating a specific example of a voting result performed based on a frame image taken in a quiet time. As shown in FIG. 11A, since there are a small number of people in a predetermined area when it is quiet, people are rarely photographed by overlapping each other. Therefore, it is possible to obtain the amount of movement on the image from various height portions of the person's body. Therefore, voting can be performed based on the movement amount on the image obtained from various height portions, and the real space movement amount can be estimated with high accuracy.
図12は、混雑時に撮影されたフレーム画像を用いて実空間移動量を推定する処理の具体例を示した図である。図12(A)は、混雑時に撮影されたフレーム画像の具体例である。図12(B)は、混雑時に撮影されたフレーム画像に基づいて行われた投票結果の具体例を示す図である。混雑時に撮影されたフレーム画像では、オクルージョンが多発しており、多くの部分で人と人とが重なり合ってしまっている。そのため、人物の下半身がほとんど撮影されておらず、人物の上半身が多く撮影されてしまう。したがって、上半身の特徴点から得られた画像上移動量に基づいて投票を行うこととなってしまう。一般的に、上半身の特徴点から得られる画像上移動量に基づいた実空間移動量の推定結果は、実際の実空間移動量よりも大きな値となってしまう。そのため、実空間移動量の推定結果の精度が低下してしまう。
このような問題に対し、通過人数推定装置100aの補正推定値取得部109は、画像上移動量に基づいて従来の方法で推定される実空間移動量よりも小さな値を、実空間移動量の推定結果として取得する。そのため、オクルージョンが発生しているフレーム画像から精度良く実空間移動量を推定することが可能となる。より具体的には、1よりも小さい値の補正係数を実空間移動量に乗算することによって実空間移動量が補正される。そのため、補正後の実空間移動量を精度の高い推定結果として取得することが可能となる。
FIG. 12 is a diagram illustrating a specific example of a process of estimating the real space movement amount using a frame image taken at the time of congestion. FIG. 12A is a specific example of a frame image taken at the time of congestion. FIG. 12B is a diagram showing a specific example of a voting result performed based on a frame image taken at the time of congestion. In the frame image taken at the time of congestion, occlusion occurs frequently, and people overlap each other in many parts. For this reason, the lower body of the person is hardly photographed, and a large amount of the upper body of the person is photographed. Therefore, voting will be performed based on the amount of movement on the image obtained from the feature points of the upper body. In general, the estimation result of the real space movement amount based on the movement amount on the image obtained from the feature point of the upper body becomes a value larger than the actual real space movement amount. For this reason, the accuracy of the estimation result of the real space movement amount decreases.
For such a problem, the corrected estimated
[第二実施形態]
図13は、通過人数推定装置100の第二実施形態(通過人数推定装置100b)の機能構成を表す概略ブロック図である。通過人数推定装置100bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、通過人数推定プログラムを実行する。通過人数推定プログラムの実行によって、通過人数推定装置100bは、フレーム画像入力部201、領域内人数計測部202、画像上移動量算出部203、カメラパラメータ記憶部204、通過人数推定部208、補正推定値取得部209を備える装置として機能する。また、補正推定値取得部209は、高さ毎投票係数算出部205、重みづけ投票部206及び実空間移動量投票推定部207として機能する。なお、通過人数推定装置100bの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。また、通過人数推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、通過人数推定プログラムは、電気通信回線を介して送受信されても良い。
[Second Embodiment]
FIG. 13 is a schematic block diagram illustrating a functional configuration of the second embodiment (passage
フレーム画像入力部201は、固定カメラ10が撮影したフレーム画像を時系列順に入力する。
領域内人数計測部202は、フレーム画像入力部201が入力したフレーム画像内の所定領域内の人数を計測する。所定領域とは、フレーム画像内で人物が観測された領域である。
The frame
The in-area
画像上移動量算出部203は、フレーム画像入力部201が時系列順に入力したフレーム画像内の人物の画像上移動量を算出する。画像上移動量は、時間的に近接する2枚のフレーム画像間において、画像上での人物の移動量を表す。
The on-image movement
カメラパラメータ記憶部204は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。カメラパラメータ記憶部204は、固定カメラ10のキャリブレーションにより設定したカメラパラメータ(例えば、内部パラメータ及び外部パラメータ)を記憶している。
高さ毎投票係数算出部205は、カメラパラメータ記憶部204が記憶しているカメラパラメータと、領域内人数計測部202が計測した所定領域内の人数と、を用いて高さ毎投票係数P(h)を算出する。高さ毎投票係数P(h)の具体的な算出方法について、説明する。
The camera
The voting
図8に示されるように、人物がXの位置にいる場合に注目画素G1に写る人物の部分の高さ(ここではhとする)は、上述したような直角三角形の比に基づいて得られる。Xの位置に対応する人物の身体の高さhは、式(6)のように表される。 As shown in FIG. 8, when the person is at the position X, the height (here, h) of the portion of the person shown in the target pixel G1 is obtained based on the ratio of the right triangle as described above. . The height h of the person's body corresponding to the position of X is expressed as in Equation (6).
式(1)と式(6)とに基づいて高さ毎投票係数P(h)が得られる。P(h)は、注目画素G1に写る人物の部分の高さがhである場合の確率を表す。そのため、P(h)は0〜1の値となる。 A voting coefficient P (h) for each height is obtained based on the equations (1) and (6). P (h) represents the probability when the height of the portion of the person shown in the target pixel G1 is h. Therefore, P (h) is a value between 0 and 1.
図14は、高さ毎投票係数P(h)の具体例を表す図である。縦軸は高さ毎投票係数P(h)を表し、横軸は実空間移動量Mを表す。図14において、m1は、処理対象のオプティカルフローが人物の頭において得られたオプティカルフローであると仮定した場合の実空間移動量を表す。m2は、処理対象のオプティカルフローが人物の足先において得られたオプティカルフローであると仮定した場合の実空間移動量を表す。図14に示されるように、実空間移動量Mがm1である場合のP(h)は、実空間移動量Mがm2である場合のP(h)に比べて小さい。言い換えれば、オプティカルフローが上半身において得られたと仮定した場合に推定される実空間移動量に対する高さ毎投票係数P(h)は、オプティカルフローが下半身において得られたと仮定した場合に推定される実空間移動量に対する高さ毎投票係数P(h)よりも大きい。そのため、一つのオプティカルフローにおける投票結果は、小さい実空間移動量の方が、大きい実空間移動量よりも大きな得票数を得る。 FIG. 14 is a diagram illustrating a specific example of the voting coefficient P (h) for each height. The vertical axis represents the voting coefficient P (h) for each height, and the horizontal axis represents the real space movement amount M. In FIG. 14, m1 represents a real space movement amount when it is assumed that the optical flow to be processed is an optical flow obtained at the head of a person. m2 represents a real space movement amount when it is assumed that the optical flow to be processed is an optical flow obtained at the foot of a person. As shown in FIG. 14, P (h) when the real space movement amount M is m1 is smaller than P (h) when the real space movement amount M is m2. In other words, the per-height voting coefficient P (h) for the real space movement estimated when it is assumed that the optical flow is obtained in the upper body is the actual value estimated when the optical flow is obtained in the lower body. It is larger than the voting coefficient P (h) for each height with respect to the amount of space movement. Therefore, as for the voting result in one optical flow, the smaller real space movement amount obtains a larger number of votes than the larger real space movement amount.
重みづけ投票部206は、高さ毎投票係数算出部205が算出した高さ毎投票係数P(h)を用いて、画像上移動量の重みづけ投票を行う。上述したように、高い身体部分のオプティカルフローであると仮定した場合に得られる実空間移動量の推定結果では、P(h)は高い値(1に近い値)となる。一方、低い身体部分のオプティカルフローであると仮定した場合に得られる実空間移動量の推定結果では、P(h)は低い値(0に近い値)となる。このように、固定カメラ10が観測する人物の身体の高さ毎に、投票結果に対して重みづけがなされる。
The
実空間移動量投票推定部207は、実空間移動量を推定する。実空間移動量投票推定部207は、重みづけ投票部206が重みづけ投票を行った結果に基づいて、実空間移動量を推定する。例えば、実空間移動量投票推定部207は、投票結果において重み付けの累積値が最も大きい実空間移動量を推定結果として取得する。
図15は、実空間移動量投票推定部207の処理の具体例を示す図である。図15(A)は、重み付けがなされた票を表す図である。402−1〜402−3は、それぞれオプティカルフロー400−1〜400−3から得られる票である。図15(A)に示されるように、各票に重み付けがなされる。そのため、各票は、票数としては同じ1であっても、その重みに差が生じる。図15(B)は、投票結果の具体例を表す図である。横軸は実空間移動量Mを表し、縦軸は重み付け得票数TWを表す。重み付け得票数TWは、重みの大きさの累積値を表す。実空間移動量投票推定部207は、重み付け投票数TWが最も大きい実空間移動量Mを推定結果として取得する。
The real space movement amount vote
FIG. 15 is a diagram illustrating a specific example of processing of the real space movement amount vote
通過人数推定部208は、フレーム画像間での通過人数を推定する。通過人数推定部208は、領域内人数計測部202が計測した所定領域内の人数と、実空間移動量投票推定部207が推定した実空間移動量と、カメラパラメータ記憶部204が記憶しているカメラパラメータと、を用いることによりフレーム画像間での通過人数を推定する。
図16は、本発明の第二実施形態における通過人数推定方法の処理の流れを示すフローチャートである。
The passing
FIG. 16 is a flowchart showing the flow of processing of the passing person estimation method in the second embodiment of the present invention.
まず、フレーム画像入力部201が画像を時系列順に入力する(ステップS201)。次に、領域内人数計測部102は、フレーム画像入力部201が入力したフレーム画像から所定領域内にいる人数を計測する(ステップS202)。
First, the frame
画像上移動量算出部203は、フレーム画像入力部201が入力した時間的に近接する2つのフレーム画像から人物の特徴点を検出する。画像上移動量算出部203は、2つのフレーム画像から人物の特徴点を検出した後、2つのフレーム画像の特徴点を対応付け、オプティカルフローを取得する。画像上移動量算出部203は、取得されたオプティカルフローに基づいて、画像上の人物の画像上移動量を算出する(ステップS203)。
The on-image movement
高さ毎投票係数算出部205は、カメラパラメータ記憶部204が記憶しているカメラパラメータと、領域内人数計測部202が計測した所定領域内の人数と、を用いて高さ毎投票係数P(h)を算出する(ステップS204)。
The voting
重みづけ投票部206は、画像上移動量算出部203が算出した画像上移動量に、高さ毎投票係数算出部205が算出した高さ毎投票係数P(h)を用いて、重みづけを行いながら投票を行う(ステップS205)。
The
実空間移動量投票推定部207は、重みづけ投票部206が重みづけ投票を行った結果に基づいて実空間移動量を推定する(ステップS206)。
通過人数推定部208は、領域内人数計測部202が計測した所定領域内の人数と、実空間移動量投票推定部207が推定した実空間移動量と、カメラパラメータ記憶部204が記憶しているカメラパラメータと、を用いてフレーム画像間での通過人数を推定する(ステップS207)。
The real space movement amount voting
The passing
以上のように構成された通過人数推定システムによれば、オクル−ジョン発生時に生じる人物の実空間移動量の誤差を補正することができる。第一実施形態では、実空間移動量補正部107が、人物の実空間移動量推定後に誤差を見積り、補正係数Cを用いて補正をする。そのため、オクル−ジョンによる実空間移動量の誤差を減少できる。その結果、領域内の通過人数をより正確に推定することが可能となる。
また、上記第二実施形態では、実空間移動量推定時に人物の身体の高さ毎に重みづけ投票を行うことで、実空間移動量の誤差を減少できる。すなわち、固定カメラ10に撮影される人物の身体の高さの偏りを補正することが可能となる。そのため、領域内の通過人数をより正確に計測することが可能となる。
According to the passing person estimation system configured as described above, it is possible to correct an error in the amount of movement of a person in real space that occurs when an occlusion occurs. In the first embodiment, the real space movement
In the second embodiment, errors in the real space movement amount can be reduced by performing weighted voting for each person's body height when estimating the real space movement amount. That is, it is possible to correct the height deviation of the person photographed by the fixed
<変形例>
上述した実施例では、固定カメラ10と通過人数推定装置100とはそれぞれ異なる装置として構成されているが、固定カメラ10と通過人数推定装置100とが一体化して構成されても良い。
固定カメラ10が撮影したフレーム画像を一度ハードディスクなどの記録媒体に記録して、通過人数推定装置100がフレーム画像を読み出しながら処理を行っても良い。
上記第一実施形態における動作例のステップS102の処理及びステップS103の処理、上記第二実施形態における動作例のステップS202の処理及びステップS203の処理は、並行して行われても良い。
<Modification>
In the above-described embodiment, the fixed
The frame image captured by the fixed
The processing in step S102 and the processing in step S103 in the operation example in the first embodiment, and the processing in step S202 and the processing in step S203 in the operation example in the second embodiment may be performed in parallel.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
10…固定カメラ, 20…撮影領域, 100…通過人数推定装置, 101…フレーム画像入力部, 102…領域内人数計測部, 103…画像上移動量算出部, 104…カメラパラメータ記憶部, 105…実空間移動量推定部, 106…補正係数算出部, 107…実空間移動量補正部, 108…通過人数推定部, 109…補正推定値取得部, 201…フレーム画像入力部, 202…領域内人数計測部, 203…画像上移動量算出部, 204…カメラパラメータ記憶部, 205…高さ毎投票係数算出部, 206…重みづけ投票部, 207…実空間移動量投票推定部, 208…通過人数推定部, 209…補正推定値取得部, 300−1…フレーム画像, 300−2…フレーム画像,300−3…画像 301−1〜3…フレーム画像, 313…矢印, 314…矢印, 401−1〜3…実空間移動量, 305−1〜4…矩形(人物), 404−1…実空間移動量, 404−2…実空間移動量, 402−1〜3…重みづけした投票
DESCRIPTION OF
Claims (6)
前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出部と、
前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得部と、
を備える推定装置。 Using the captured image, the area people counting unit that measures the number of people in the area where the subject was observed,
An on-image movement amount calculation unit for calculating an on-image movement amount of the person from the captured image;
A corrected estimated value acquisition unit that acquires a value smaller than the real space movement amount estimated from the movement amount on the image as an estimation result of the real space movement amount;
An estimation apparatus comprising:
前記画像上移動量から実空間移動量を推定する実空間移動量推定部と、
前記実空間移動量推定部が推定した実空間移動量の誤差を補正する補正係数を算出する補正係数算出部と、
前記実空間移動量推定部が推定した実空間移動量を、前記補正係数を用いて補正する実空間移動量補正部と、
を備える請求項1に記載の推定装置。 The corrected estimated value acquisition unit
A real space movement amount estimation unit for estimating a real space movement amount from the movement amount on the image;
A correction coefficient calculation unit for calculating a correction coefficient for correcting an error of the real space movement amount estimated by the real space movement amount estimation unit;
A real space movement amount correction unit that corrects the real space movement amount estimated by the real space movement amount estimation unit using the correction coefficient;
The estimation apparatus according to claim 1, comprising:
前記領域内の人数と、撮影された画像とを用いて、高さ毎投票係数を算出する高さ毎投票係数算出部と、
前記高さ毎投票係数を用いて前記画像上移動量を、実空間移動量に重みづけ投票をする重みづけ投票部と、
前記重みづけ投票により実空間移動量を推定する実空間移動量投票推定部と、 を備える請求項1に記載の推定装置。 The corrected estimated value acquisition unit
A voting coefficient calculation unit for each height that calculates a voting coefficient for each height using the number of people in the region and the captured image;
A weighted voting unit for voting by weighting the amount of movement on the image using the voting coefficient for each height and weighting the amount of movement in real space;
The estimation device according to claim 1, further comprising: a real space movement amount voting estimation unit that estimates a real space movement amount by the weighted voting.
前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、
前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、
を有する推定方法。 A region counting step for measuring the number of people in the region where the subject is observed using the captured image;
An on-image movement amount calculating step for calculating an on-image movement amount of the person from the captured image;
A corrected estimated value acquisition step of acquiring a value smaller than the real space movement amount estimated from the movement amount on the image as an estimation result of the real space movement amount;
An estimation method comprising:
前記撮影された画像から人物の画像上移動量を算出する画像上移動量算出ステップと、
前記画像上移動量から推定される実空間移動量よりも小さい値を、実空間移動量の推定結果として取得する補正推定値取得ステップと、
をコンピュータに実行させるためのコンピュータプログラム。 A region counting step for measuring the number of people in the region where the subject is observed using the captured image;
An on-image movement amount calculating step for calculating an on-image movement amount of the person from the captured image;
A corrected estimated value acquisition step of acquiring a value smaller than the real space movement amount estimated from the movement amount on the image as an estimation result of the real space movement amount;
A computer program for causing a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012117724A JP2013246490A (en) | 2012-05-23 | 2012-05-23 | Estimation device, estimation method and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012117724A JP2013246490A (en) | 2012-05-23 | 2012-05-23 | Estimation device, estimation method and computer program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013246490A true JP2013246490A (en) | 2013-12-09 |
Family
ID=49846241
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012117724A Pending JP2013246490A (en) | 2012-05-23 | 2012-05-23 | Estimation device, estimation method and computer program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013246490A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018074299A (en) * | 2016-10-26 | 2018-05-10 | 日本電信電話株式会社 | Flow situation measurement device, method, and program |
| JP2018151960A (en) * | 2017-03-14 | 2018-09-27 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| WO2018229812A1 (en) * | 2017-06-12 | 2018-12-20 | 株式会社日立製作所 | Three-dimensional measurement device and method |
| JP2019121278A (en) * | 2018-01-10 | 2019-07-22 | キヤノン株式会社 | Information processing device and control method thereof |
| CN114041151A (en) * | 2019-06-20 | 2022-02-11 | 三菱电机大楼技术服务株式会社 | Device for predicting number of people, equipment management system and method for predicting number of people |
| WO2025263266A1 (en) * | 2024-06-19 | 2025-12-26 | ソニーグループ株式会社 | Communication device and communication method |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005242646A (en) * | 2004-02-26 | 2005-09-08 | Ntt Data Corp | Human flow measurement device, human flow measurement method, and human flow measurement program |
| JP2012022370A (en) * | 2010-07-12 | 2012-02-02 | Hitachi Kokusai Electric Inc | Monitoring system and monitoring method |
-
2012
- 2012-05-23 JP JP2012117724A patent/JP2013246490A/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005242646A (en) * | 2004-02-26 | 2005-09-08 | Ntt Data Corp | Human flow measurement device, human flow measurement method, and human flow measurement program |
| JP2012022370A (en) * | 2010-07-12 | 2012-02-02 | Hitachi Kokusai Electric Inc | Monitoring system and monitoring method |
Non-Patent Citations (1)
| Title |
|---|
| 齊藤 洋輔、岩井 儀雄: ""映像解析による群衆の危険度評価システム"", 情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM), JPN6015021673, 15 August 2009 (2009-08-15), JP, pages 1 - 8, ISSN: 0003086459 * |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018074299A (en) * | 2016-10-26 | 2018-05-10 | 日本電信電話株式会社 | Flow situation measurement device, method, and program |
| JP2018151960A (en) * | 2017-03-14 | 2018-09-27 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP7005153B2 (en) | 2017-03-14 | 2022-01-21 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
| WO2018229812A1 (en) * | 2017-06-12 | 2018-12-20 | 株式会社日立製作所 | Three-dimensional measurement device and method |
| JPWO2018229812A1 (en) * | 2017-06-12 | 2020-02-27 | 株式会社日立製作所 | Three-dimensional measuring device and method |
| JP2019121278A (en) * | 2018-01-10 | 2019-07-22 | キヤノン株式会社 | Information processing device and control method thereof |
| JP7113622B2 (en) | 2018-01-10 | 2022-08-05 | キヤノン株式会社 | Information processing device and its control method |
| CN114041151A (en) * | 2019-06-20 | 2022-02-11 | 三菱电机大楼技术服务株式会社 | Device for predicting number of people, equipment management system and method for predicting number of people |
| WO2025263266A1 (en) * | 2024-06-19 | 2025-12-26 | ソニーグループ株式会社 | Communication device and communication method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10504244B2 (en) | Systems and methods to improve camera intrinsic parameter calibration | |
| KR102307941B1 (en) | Improved calibration for eye tracking systems | |
| JP2013246490A (en) | Estimation device, estimation method and computer program | |
| JP6356266B2 (en) | Crowd monitoring system | |
| JP6525453B2 (en) | Object position estimation system and program thereof | |
| JP5756455B2 (en) | Image processing apparatus and image processing method | |
| JP5976198B2 (en) | Number counting device and number counting method | |
| US9390334B2 (en) | Number of persons measurement device | |
| CN100547350C (en) | Moving-object height determining apparatus | |
| KR101467847B1 (en) | Area Based Object Counting Device and Method | |
| JP6620881B2 (en) | Apparatus, system, method, and program for measuring the number of passengers, and apparatus, method, and program for calculating travel distance of vehicle | |
| JP5035467B2 (en) | Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program | |
| JP7224832B2 (en) | Information processing device, information processing method, and program | |
| JP2015041381A (en) | Method and system of detecting moving object | |
| JP2008118644A (en) | One or more computer-readable instructions having computer-readable instructions for performing a method for estimating a point spread function of a blurred digital image and, at run time, a method for estimating a point spread function of a blurred digital image Possible medium | |
| US20190064311A1 (en) | Active person positioning device and activity data acquisition device | |
| JP3702260B2 (en) | Target angular velocity measuring device and target angular velocity measuring method | |
| US20230069018A1 (en) | Image processing apparatus, imaging apparatus, image processing system, image processing method, and non-transitory computer readable medium | |
| CN114593832B (en) | Thermal imaging device and temperature correction method of thermal imager | |
| KR101051390B1 (en) | Apparatus and method for estimating object information of surveillance camera | |
| WO2018134866A1 (en) | Camera calibration device | |
| JP5990042B2 (en) | Passing number estimation method and computer program | |
| US20160084868A1 (en) | Method of Determining a Changing Spatial Distribution of Particles at Multiple Points in Time | |
| CN104937608B (en) | Road area detection | |
| JP2005242646A (en) | Human flow measurement device, human flow measurement method, and human flow measurement program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140827 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150527 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150602 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150803 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150825 |