[go: up one dir, main page]

JP2001175868A - Method and device for human detection - Google Patents

Method and device for human detection

Info

Publication number
JP2001175868A
JP2001175868A JP36487599A JP36487599A JP2001175868A JP 2001175868 A JP2001175868 A JP 2001175868A JP 36487599 A JP36487599 A JP 36487599A JP 36487599 A JP36487599 A JP 36487599A JP 2001175868 A JP2001175868 A JP 2001175868A
Authority
JP
Japan
Prior art keywords
image
person
feature amount
feature
counting result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP36487599A
Other languages
Japanese (ja)
Inventor
Yuichi Nino
裕一 仁野
Hisao Furukawa
久雄 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP36487599A priority Critical patent/JP2001175868A/en
Publication of JP2001175868A publication Critical patent/JP2001175868A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a human detecting method and its device which can discriminate mutually hidden or adjacent persons when detecting respective persons in a picked-up image and detect persons even if the direction and size of an object varies and even the same person have large shape variation in a moving picture. SOLUTION: Image feature output by an edge detection operator which has a gap expanded is made to correspond to a model shape set on the basis of the head of a person or the outline of the upper half part of the body which are hardly hidden and has small shape variation, and the maximum point of a product at each point is detected as a human area. Thus, the influence of a fine difference in outline shape is reduced and adjacent objects are separated and detected. This mentioned process is performed for an image obtained by photographing the space from above and persons in the obtained visual field are counted and totalized to actualize various information services such as analysis of a store customer distribution.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像中の人物を検
出する画像処理方法及び装置に関し、特に店舗や公共施
設内などにおいて得られる多数の人物が撮像された画像
から、各人物を検出し計数、および混雑度表示を行う画
像処理方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for detecting a person in an image, and more particularly to an image processing method and apparatus for detecting each person from an image of a large number of persons obtained in a store or a public facility. The present invention relates to an image processing method and apparatus for performing counting and displaying the degree of congestion.

【0002】[0002]

【従来の技術】複数の人物が撮像された画像から人物領
域を検出する場合、従来は背景差分やフレーム間差分、
エッジ検出、オプティカルフロー算出、赤外スポット光
等のパターン照射、ステレオ法による距離画像の利用な
ど様々なアプローチが取られている。またはスネークの
ようなエッジを特徴量に用いたエネルギーモデルや、肌
色検出等色情報の利用、あるいは時空間画像解析などを
併用した手法も研究されている。
2. Description of the Related Art When detecting a person region from an image obtained by capturing a plurality of persons, conventionally, a background difference, an inter-frame difference,
Various approaches have been taken, such as edge detection, optical flow calculation, pattern irradiation with infrared spot light, and the use of range images by the stereo method. Alternatively, an energy model using an edge such as a snake as a feature amount, a method using color information such as skin color detection, or a method using spatiotemporal image analysis are also being studied.

【0003】また、これらの技術を用いて画像中の複数
人物を計数する例としては、特開平9−281605に
写真フィルムに撮像された人物を肌色検出処理を用いて
検出し、計数した人物数に応じて焼き増し枚数を自動的
に決定する装置が開示されている。また別の例として特
開平8−123935には、画像中に複数の計数ライン
を設け、背景差分を行って得られた画像を時間方向に連
結することによって時空間画像を作成し、時空間画像中
の動物体領域から通過方向を判定する方法が開示されて
いる。
As an example of counting a plurality of persons in an image using these techniques, Japanese Patent Application Laid-Open No. 9-281605 discloses a technique of detecting a person photographed on a photographic film using a skin color detection process and counting the number of persons counted. Discloses an apparatus for automatically determining the number of additional prints in accordance with the number of prints. As another example, JP-A-8-123935 discloses a method in which a plurality of counting lines are provided in an image, and a spatio-temporal image is created by connecting images obtained by performing background subtraction in the time direction. A method of determining a passing direction from a moving object region in the inside is disclosed.

【0004】さらに、人物の密度を計測する例として
は、特開平1−244598に背景差分により人物像を
抽出し、不自然な分布の偏りや不本意な密度の状態が抽
出されたときに警報を発する手法が開示されている。
[0004] Further, as an example of measuring the density of a person, Japanese Patent Laid-Open No. 1-244598 discloses a method in which a person image is extracted by means of a background difference, and when an unnatural distribution bias or an undesired density state is extracted, a warning is issued. Is disclosed.

【0005】[0005]

【発明が解決しようとする課題】しかし前掲の手法で
は、複数の人物間において発生する領域間の隠蔽に対処
できず、隣接して撮像される人物を区別して検出するこ
とが難しいので、多数の人物が撮像された画像に対して
の適用は難しいという問題がある。
However, the above-mentioned method cannot deal with concealment between regions generated between a plurality of persons, and it is difficult to distinguish and detect persons imaged adjacently. There is a problem that it is difficult to apply the method to an image of a person.

【0006】例えば背景差分の場合では、画像中で重な
り合う複数の人物を一つの領域として切り出すため、各
人物を個別に検出できない。計数が求められるシステム
の場合には、通常、抽出された領域の面積を一人当たり
の面積で割ることによっておよその人数を推定する処理
を行う。しかし、従来の背景差分法においては、画像中
の人物の相互に重なり合う面積や各人物の大きさなど、
変動要因が大きく正確な計数は困難であった。
For example, in the case of background subtraction, a plurality of overlapping persons in an image are cut out as one area, so that each person cannot be detected individually. In the case of a system that requires counting, a process for estimating the approximate number of people is usually performed by dividing the area of the extracted region by the area per person. However, in the conventional background subtraction method, the overlapping area of the persons in the image, the size of each person, etc.
Accurate counting was difficult due to large fluctuation factors.

【0007】また、多数の人物を撮像する状況のもとで
は、対象のカメラに対する向きや姿勢、大きさは様々で
あり、同一人物であっても動画像中の形状変化は大きい
ので、形状モデルの適用も難しかった。
In a situation where a large number of people are imaged, the orientation, posture, and size of the target with respect to the camera are various, and even if the same person, the shape change in a moving image is large. It was difficult to apply.

【0008】本発明の目的は、多数の人物が撮像された
画像中の人物検出および計数、混雑度計測を、各対象毎
の形状や大きさの違い、または対象間の隠蔽が存在する
状況においても行うことができ、かつ、撮像条件の制約
の小さい処理方法および装置を提供し、さらにこの処理
方法および装置を用いて継続的に人物計数、混雑度計測
を行い、得られた集積結果を元に様々な情報サービスを
提供する装置を実現することである。
An object of the present invention is to detect and count a person in an image obtained by capturing a large number of persons, and measure the degree of congestion in a situation where there is a difference in shape or size of each object or concealment between objects exists. The present invention also provides a processing method and apparatus that can perform the above-mentioned processing and has less restrictions on imaging conditions. Furthermore, the processing method and the apparatus are used to continuously perform person counting and congestion degree measurement. Another object of the present invention is to realize an apparatus for providing various information services to a user.

【0009】[0009]

【課題を解決するための手段】上記の課題を解決するた
めに、本発明の人物検出方法は、人物輪郭を基にした形
状の人物形状モデル上の予め設定された複数の点の位置
に対応する相対位置に、検出しようとする人物の特徴量
を検出する特徴量検出器を配置して特徴量検出器セット
を構成し、特徴量検出器セットを、画像面に設定されて
いる各座標に対応する各位置に置いて、前記取得した画
像の画像特徴量の検出を行い、前記各位置において特徴
量検出器セットを構成する特徴量検出器が検出した画像
特徴量の値に基づいて、検出された画像特徴量が、所定
の許容範囲内で、前記人物形状モデルに合致する形状を
有する画像の特徴量であることを判定するための所定の
演算を実行し、演算結果が、前記検出された画像特徴量
が前記人物形状モデルに合致する形状を有する画像の特
徴量であることを示した場合には、当該位置に人物画像
が存在すると推定する。
In order to solve the above-mentioned problems, a person detecting method according to the present invention is adapted to correspond to a plurality of preset points on a person shape model having a shape based on a person contour. A feature detector for detecting a feature of a person to be detected is arranged at a relative position to be configured to form a feature detector set, and the feature detector set is set to each coordinate set on the image plane. At each corresponding position, the image feature amount of the acquired image is detected, and the detection is performed based on the value of the image feature amount detected by the feature amount detector configuring the feature amount detector set at each position. A predetermined operation is performed to determine that the image feature amount is a feature amount of an image having a shape that matches the human shape model within a predetermined allowable range, and the operation result is detected. The image feature amount is In the case shown to be a feature quantity of an image having a shape that matches the Le estimates the human image to the position exists.

【0010】前記の所定の演算は、特徴量検出器セット
の各位置において、それぞれの特徴量検出器が検出した
特徴量の積を演算し、その積を所定の閾値と比較し、そ
の積の値が当該所定の閾値を超えるとき、当該画像を当
該位置における人物画像と判定する処理を含んでいる。
In the above-mentioned predetermined calculation, the product of the feature detected by each feature detector at each position of the feature detector set is calculated, the product is compared with a predetermined threshold, and the product of the product is calculated. When the value exceeds the predetermined threshold, the processing includes determining the image as a human image at the position.

【0011】前記の所定の演算の1つの実施態様とし
て、該所定の演算は、それぞれの特徴量検出器が検出し
た特徴量の積を評価値として当該特徴量検出器セットの
位置に対応する画像面の座標に対応付けて評価値画像を
生成し、評価値画像内の各画素を中心とする局所領域を
設定し、局所領域内で評価値が極大になる極大点を探索
し、その極大点のうち、評価値が所定のしきい値を超え
る極大点が存在する局所領域の中心にある画素を人物が
存在する点とする処理を含んでいる。
In one embodiment of the above-described predetermined calculation, the predetermined calculation is performed by setting a product of the characteristic amounts detected by the respective characteristic amount detectors as an evaluation value, the image corresponding to the position of the characteristic amount detector set. An evaluation value image is generated in association with the coordinates of the surface, a local region centered on each pixel in the evaluation value image is set, a local maximum point at which the evaluation value becomes maximum is searched for in the local region, and the local maximum point is found. Among them, the processing includes the process of setting the pixel at the center of the local area where the local maximum point where the evaluation value exceeds the predetermined threshold exists as the point where the person exists.

【0012】前記それぞれの特徴量検出器が検出した特
徴量の積の演算は、画像面の各座標について、各特徴量
検出器に対応する変位特徴量の積を演算する処理を行う
ことによって実行される。ただし、人物形状モデル上の
予め設定された複数の点の位置に対応する相対位置に配
置されたそれぞれの特徴量検出器を、当該人物形状モデ
ル上の予め設定された点に対応する特徴量検出器と定義
し、前記人物形状モデル上の前記予め設定された複数の
点の位置から、人物形状モデルに任意に設定した基準点
への変位ベクトルを、当該複数の点に対応する特徴量検
出器の特徴量変位ベクトルと定義し、それぞれの特徴量
検出器が検出した特徴量を、その特徴量が検出された位
置から特徴量変位ベクトルだけ変位した位置の座標に対
応付けて、当該特徴量検出器に対応する、当該座標にお
ける変位特徴量と定義する。
The calculation of the product of the feature values detected by the respective feature value detectors is performed by performing, for each coordinate on the image plane, the process of calculating the product of the displacement feature values corresponding to the respective feature value detectors. Is done. However, each of the feature detectors arranged at relative positions corresponding to the positions of a plurality of preset points on the person shape model is used to detect feature amounts corresponding to preset points on the person shape model. A displacement vector from the positions of the plurality of preset points on the human shape model to a reference point arbitrarily set in the human shape model is defined as a feature amount detector corresponding to the plurality of points. The feature amount detected by each feature amount detector is associated with the coordinates of a position displaced by a feature amount displacement vector from the position where the feature amount is detected, and the feature amount detection vector is defined. Is defined as a displacement feature at the coordinates corresponding to the container.

【0013】本発明の人物検出装置は、多数の人物が存
在または移動する領域を撮影するカメラによって撮影さ
れた画像フレームを取り込んで画像処理可能な画像を作
成する画像取得装置と、人物形状モデルを保持し、前記
画像処理可能な画像から、人物形状モデルに合致する形
状を有する画像を抽出し、抽出された各画像を画像面中
に撮像されている人物として、抽出された各人物が存在
する位置を代表する点の、画像平面上における座標を出
力する人物検出装置とを有する。
[0013] A person detecting apparatus according to the present invention includes: an image acquiring apparatus for acquiring an image frame photographed by a camera for photographing an area where a large number of persons are present or moving to create an image capable of image processing; Holding and extracting an image having a shape that matches the human shape model from the image that can be processed, and each extracted person exists as a person whose image is captured in the image plane. A person detection device that outputs coordinates of a point representing a position on an image plane.

【0014】人物検出装置は、人物形状モデル上の予め
設定された複数の点の位置に対応する相対位置に配置さ
れている1組の特徴量検出器でなる特徴量検出器セット
を備え、前記特徴量検出器セットによって、人物形状モ
デル上におけるそれぞれの位置に対応する相対位置にお
いて、画像取得装置によって得られた画像面の各点につ
いて画像特徴量の検出を行い、検出された画像特徴量を
画像面の座標と対応させて出力する特徴量算出部と、特
徴量検出器セットの各特徴量検出器が前記相対位置にお
いて検出した1組の画像特徴量でなる画像特徴量セット
の値に所定の演算を施して、画像特徴量セットが人物形
状モデルと適正に合致している度合いを評価し、特徴量
検出器セットの、画像面上における位置に対応して評価
値を生成し、画像面の各座標に対応する評価値を表す評
価値画像を生成する評価値演算部と、評価値演算部によ
って算出された評価値画像に対し、画像面の各座標の画
素について、当該画素の座標に対応する評価値が近傍の
領域において最大となる評価値極大点を探索し、得られ
た評価値極大点の座標を人物の存在する点として出力す
る極大点探索部とを有する。
[0014] The person detecting device includes a feature amount detector set including a set of feature amount detectors arranged at relative positions corresponding to a plurality of preset points on the person shape model, The feature amount detector set detects the image feature amount for each point on the image surface obtained by the image acquisition device at a relative position corresponding to each position on the human shape model, and calculates the detected image feature amount. A feature value calculating unit that outputs the feature value in association with the coordinates of the image plane; and a value of an image feature value set including a set of image feature values detected at the relative position by each feature value detector of the feature value detector set. To evaluate the degree to which the image feature set appropriately matches the human shape model, and generate an evaluation value corresponding to the position of the feature detector set on the image plane. An evaluation value calculation unit that generates an evaluation value image representing an evaluation value corresponding to each coordinate of the evaluation value image calculated by the evaluation value calculation unit. A maximum point search unit that searches for an evaluation value maximum point at which a corresponding evaluation value is maximum in a nearby area, and outputs the obtained coordinates of the evaluation value maximum point as a point where a person exists.

【0015】特徴量算出部は、特徴量検出器セットとし
て1組のエッジ検出オペレータでなるオペレータセット
を備え、該オペレータセットによって、人物形状モデル
の輪郭上における複数の位置に対応する相対位置におい
て、画像取得手段によって得られた画像面の各点につい
て画像輪郭の検出を行い、検出された画像輪郭の検出値
を画像面の座標と対応させて出力し、評価値演算部は、
前記画像特徴量セットの値に対する所定の演算として、
画像面の各座標について、それぞれのエッジ検出オペレ
ータが検出したエッジ検出値についての変位特徴量の積
を演算し、極大点探索部は、評価値演算部によって得ら
れた評価値画像内の各画素を中心とする局所領域を設定
し、局所領域内で評価値が極大となる極大点を探索し、
評価値が所定のしきい値を超える極大点が存在する局所
領域の中心にある画素の位置を人物が存在する点の位置
として出力する。
The feature amount calculation unit includes an operator set including a set of edge detection operators as a feature amount detector set, and the operator set uses the operator set at a relative position corresponding to a plurality of positions on the contour of the human shape model. The image contour is detected for each point on the image plane obtained by the image acquisition unit, and the detected value of the detected image contour is output in association with the coordinates of the image plane.
As a predetermined operation on the value of the image feature amount set,
For each coordinate on the image plane, the product of the displacement feature values for the edge detection values detected by the respective edge detection operators is calculated, and the local maximum point searching unit calculates each pixel in the evaluation value image obtained by the evaluation value calculation unit. Set a local area centered on, search for a local maximum point where the evaluation value is maximum in the local area,
The position of the pixel at the center of the local area where the local maximum point where the evaluation value exceeds a predetermined threshold value is output as the position of the point where the person exists.

【0016】前記の評価値演算部の機能について、人物
形状モデル上の予め設定された複数の点の位置から、人
物形状モデルに任意に設定した基準点への変位ベクトル
を、当該複数の点の位置に対応する相対位置にあるエッ
ジ検出オペレータの特徴量変位ベクトルと定義し、それ
ぞれのエッジ検出オペレータが検出したエッジ検出値
を、そのエッジ検出値が検出された位置から特徴量変位
ベクトルだけ変位した位置の座標に対応付けて、当該エ
ッジ検出オペレータに対応する当該座標における変位特
徴量と定義する。
Regarding the function of the evaluation value calculating section, a displacement vector from a position of a plurality of points set in advance on the human shape model to a reference point arbitrarily set in the human shape model is determined. A feature displacement vector of the edge detection operator at the relative position corresponding to the position is defined, and the edge detection value detected by each edge detection operator is displaced by the feature displacement vector from the position where the edge detection value is detected. In association with the coordinates of the position, it is defined as a displacement feature amount at the coordinates corresponding to the edge detection operator.

【0017】評価値演算部は、特徴量検出器として、検
出エッジ幅が小さいエッジ検出オペレータと、検出エッ
ジ幅が大きいエッジ検出オペレータとを有し、各々のエ
ッジ検出オペレータは、人物画像の形状に微少な変化が
あっても安定した検出値を出力する程度に、重みを持た
ない中央間隙部の領域幅を拡張した間隙拡張オペレータ
であり、エッジ検出オペレータは、隠蔽が発生しにくく
形状変化が少ない人物の部位に対応する相対位置に配置
される。
The evaluation value calculation unit has, as feature amount detectors, an edge detection operator having a small detected edge width and an edge detection operator having a large detected edge width. It is a gap expansion operator that expands the area width of the central gap without weight so that a stable detection value is output even if there is a slight change.The edge detection operator is less likely to cause occlusion and has less change in shape. It is arranged at a relative position corresponding to the part of the person.

【0018】本発明の人物検出装置は、さらに、人物検
出装置により得られる検出結果に基づいて、撮影されて
いる領域内に存在する人物を計数する人物計数装置を有
する。人物計数装置は、人物の実空間中の位置を推定す
るために必要なパラメータの値、または画素と人物の空
間位置とを記載したルックアップテーブルを記憶し、測
定を行う前に事前に初期設定でキャリブレーションを行
って画像中の各画素と空間位置との対応をとって、該対
応を予め記憶する、画像・位置対応記憶部と、人物検出
手段の出力する人物が存在する点を画像中の人物画像の
頭の位置とみなし、画像・位置対応記憶装置42の情報
をもとに、人物の空間中の位置を推定する人物位置検出
部と、人物位置検出部で検出された人物位置に基づい
て、微少領域内での人数を計測し、人物密度を算出する
人物密度計測部とを有する。
The person detecting device of the present invention further has a person counting device for counting the number of persons present in the area being photographed based on the detection result obtained by the person detecting device. The person counting device stores a parameter value necessary for estimating the position of the person in the real space, or a lookup table describing pixels and the spatial position of the person, and initializes the measurement in advance before performing measurement. The image and position correspondence storage unit, which stores each correspondence between each pixel in the image and the spatial position and stores the correspondence in advance, and the point where the person output by the person detection means exists in the image, performs calibration in the image. The position of the head of the person image is regarded as the position of the person, and the position of the person in the space is estimated based on the information in the image / position correspondence storage device 42. A person density measuring unit that measures the number of people in the micro area based on the calculated person density.

【0019】前記のキャリブレーションの1つとして、
5つの所定の空間位置に配置した物点位置と、該物点を
撮像して得られる像点との、画像平面上の位置との関係
を、カメラ位置のグローバル座標とカメラの姿勢を表す
2つの角度(仰角と方位角)をパラメータとして5つの
方程式で記述し、最小2乗法によって最も確からしいカ
メラ位置のグローバル座標とカメラの姿勢を表す2つの
角度を演算することによって行われる。
As one of the above-mentioned calibrations,
The relationship between the positions of the object points arranged at five predetermined spatial positions and the image points obtained by imaging the object points on the image plane is represented by the global coordinates of the camera position and the posture of the camera. This is performed by describing five angles using one angle (elevation angle and azimuth angle) as a parameter, and calculating two angles representing the global coordinates of the most probable camera position and the attitude of the camera by the least squares method.

【0020】本発明の人物検出装置は、人物計数装置に
より計数された人物密度を、画像を撮像した時刻と関連
付け、逐次記録する計数結果記憶装置を有することがで
きる。
The person detecting apparatus according to the present invention may include a counting result storage device for sequentially recording the person density counted by the person counting device with the time at which the image was taken.

【0021】本発明の人物検出装置は、人物計数装置に
より得られた計数結果、または計数結果記憶装置に格納
された過去の時刻の計数結果を、必要に応じて加工し表
示を行う計数結果表示装置 を有し、計数結果表示装置
は、記録したデータに基づいて、単位時間あたりの購買
客数を全営業時間にわたって記憶する購買客数記憶部
と、計数結果記憶装置に記憶された単位時間あたりの来
店客数と前記購買客数記憶部に記憶された購買客数をも
とに、所定の条件に従って購買率、すなわち購買客数/
来店客数を集計する購買率表示部とを有することができ
る。本発明の計数結果表示装置の他の実施態様として、
計数結果表示装置は、各時刻に労働している従業員数を
記憶する従業員数記憶部と、計数結果記憶手段に記憶さ
れた単位時間あたりの来店客数と従業員数記憶部に記憶
された従業員数に基づいて、所定の条件に従って従業員
1人あたりの接客数、すなわち、来店客数/従業員数を
集計し、かつ、表示する、平均接客数表示部を有するこ
とができる。
The person detection device of the present invention is a counting result display for processing and displaying the counting result obtained by the person counting device or the counting result of the past time stored in the counting result storage device as necessary. A counting result display device, based on the recorded data, a number of customers storage unit for storing the number of customers per unit time over all business hours, and a store visit per unit time stored in the counting result storage device. Based on the number of customers and the number of customers stored in the number-of-purchasers storage unit, the purchase rate, that is, the number of customers /
A purchase rate display unit for counting the number of customers visiting the store. As another embodiment of the counting result display device of the present invention,
The counting result display device stores the number of employees working at each time, the number of employees stored in the counting result storage means, the number of customers visiting the store per unit time, and the number of employees stored in the number of employees storing unit. Based on predetermined conditions, the number of customers per employee, that is, the number of customers coming to the store / the number of employees, can be totaled and displayed, and an average number of customers receiving display unit can be provided.

【0022】本発明の計数結果表示装置の他の実施態様
として、計数結果表示装置は、各時刻に使用されている
レジ数を記憶する使用レジ数記憶部と、レジに並ぶ顧客
人数から推定される最適レジ数と使用レジ数記憶装置に
記憶されたレジ数とを比較し、各時刻毎に使用されてい
るレジ数が必要数を上回っているか、または下回ってい
るかを所定の条件に従って集計し表示するレジ数コンサ
ルト部とを有することができる。
As another embodiment of the counting result display device of the present invention, the counting result display device is estimated from the number of used cash registers storing the number of cash registers used at each time and the number of customers lined up at the cash registers. The number of cash registers used is compared with the number of cash registers stored in the number of cash registers used, and whether the number of cash registers used at each time is greater than or less than the required number is counted according to a predetermined condition. And a display unit for displaying the number of cash registers.

【0023】本発明の計数結果表示装置の他の実施態様
として、計数結果表示装置は、各時刻に上記の売場に配
置されている従業員数を記憶する売場内従業員記憶部
と、特定売場内の顧客人数から推定される最適従業員数
と従業員数記憶装置に記憶された従業員数とを比較し、
各時刻毎に配置されている従業員数が必要数を上回って
いるかまたは下回っているかを所定の条件に従って集計
し表示する売場内従業員数コンサルト部とを有すること
ができる。
As another embodiment of the counting result display device of the present invention, the counting result display device includes an in-store employee storage unit for storing the number of employees arranged in the counter at each time; Comparing the optimal number of employees estimated from the number of customers in the number of employees with the number of employees stored in the number of employees storage device,
It is possible to have a consultation section for the number of employees in a sales floor, which sums up and displays whether the number of employees arranged at each time is more or less than a required number according to a predetermined condition.

【0024】本発明の計数結果表示装置の更に他の実施
態様として、計数結果表示装置は、各リフトあるいはア
トラクション施設が単位時間あたりに捌く人数を記憶す
る単位時間処理人数記憶部とリフトあるいはアトラクシ
ョン施設に並ぶ顧客の、記録された人数と単位時間処理
人数記憶部に記憶された各リフトまたはアトラクション
施設が単位時間あたりに捌く人数から、撮像時刻におい
て顧客が当該施設のサービスに対する待ち時間(並んで
いる顧客の人数/単位時間に施設が捌く人数)を算出
し、遊戯施設内外の各地点に設けた掲示板などに算出し
た待ち時間を表示する待ち時間表示部とを有することが
できる。
As still another embodiment of the counting result display device according to the present invention, the counting result display device includes a unit time processing number storage unit for storing the number of persons handled by each lift or attraction facility per unit time, and a lift or attraction facility. At the time of imaging, the customer waits for the service of the facility at the imaging time from the recorded number of customers who are lined up and the number of people that each lift or attraction facility handles per unit time stored in the unit time processing number of people storage unit. A waiting time display unit for calculating the number of customers / the number of people that the facility can handle per unit time) and displaying the calculated waiting time on a bulletin board or the like provided at each point inside or outside the game facility.

【0025】[0025]

【作用】特徴量検出器セットを構成する特徴量検出器
は、それぞれ特徴量画像を生成するけれど、各々の特徴
量検出器は、それら特徴量検出器の相対位置だけずれた
位置に特徴量画像を生成する。したがって、各々の特徴
量検出器が別々の画像面に特徴量画像を生成する場合に
は、それぞれの特徴量検出器に対応する画像面を特徴量
検出器の相対変位と逆方向に平行移動して重ねる(合成
する)と、各画像面の特徴量画像の同一部分は重なる。
しかし、各画像面の異なる特徴量画像または同一特徴量
画像の異なる部分(以下、異なる特徴量画像部分と記
す)は、上記の平行移動・合成処理をしても、それらの
特徴量画像部分が、平行移動・合成処理によって重なる
ような特別な相対位置になければ重なることはない。換
言すれば、特徴量検出器の相対配置と同一の相対配置を
もつ特徴量画像部分、すなわち、人物形状モデルに合致
する特徴量画像のみが平行移動・合成処理によって同時
に重なる。本発明は、この原理によって、特徴量画像面
から、人物画像の特徴量画像のみを抽出する。
The feature amount detectors constituting the feature amount detector set each generate a feature amount image, but each of the feature amount detectors is shifted to a position shifted by the relative position of the feature amount detector. Generate Therefore, when each feature detector generates a feature image on a separate image plane, the image plane corresponding to each feature detector is translated in a direction opposite to the relative displacement of the feature detector. When they are overlapped (combined), the same part of the feature image on each image plane overlaps.
However, different feature amount images of each image plane or different portions of the same feature amount image (hereinafter, referred to as different feature amount image portions) have their feature amount image portions even after the above-described parallel movement / synthesis processing. If they are not at a special relative position that overlaps by the parallel movement / synthesis processing, they will not overlap. In other words, only the feature amount image portions having the same relative arrangement as the feature amount detectors, that is, only the feature amount images matching the human shape model are simultaneously overlapped by the parallel movement / synthesis processing. According to the present invention, only the feature amount image of a person image is extracted from the feature amount image plane according to this principle.

【0026】この際に用いる人物形状モデルは、比較的
隠蔽が発生しにくく形状変化の小さい人物の頭部および
上半身の輪郭エッジ情報を元にして、画像中の人物の平
均的な大きさで設定される。また、特徴量検出器として
は、形状の小さい頭部には小型の間隙拡張型エッジ検出
オペレータを、形状が大きい上半身輪郭には大型の間隙
拡張型エッジ検出オペレータを対応させるので、様々な
形状の人物を確実に検出することができる。
The human shape model used at this time is set with the average size of the person in the image based on the contour edge information of the head and the upper body of the person whose concealment is less likely to occur and whose shape change is small. Is done. In addition, as the feature detector, a small gap-expanded edge detection operator is used for a small head, and a large gap-expanded edge detection operator is used for a large upper body contour. A person can be reliably detected.

【0027】以上の手段を用いて処理を行うことによ
り、カメラの視界に存在する複数の人物位置を検知し、
かつ計数を行うことが可能である。また、カメラの移動
や照明等の撮影条件に対する制約が少ないため、既存の
監視カメラや可搬カメラを用いる柔軟なシステム構成が
可能であり、多種多様な技術展開が可能である。
By performing the processing using the above means, a plurality of human positions existing in the field of view of the camera are detected,
In addition, counting can be performed. In addition, since there are few restrictions on photographing conditions such as camera movement and lighting, a flexible system configuration using existing surveillance cameras and portable cameras is possible, and a wide variety of technical developments are possible.

【0028】[0028]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。図1は本発明の人物
検出方法を実施するための人物検出装置の構成を示す全
体構成図である。本発明の人物検出装置は、基本的に、
カメラ1と画像取得装置2と人物検出装置3と人物計数
装置4と計数結果記憶装置5と計数結果表示装置6とを
備えている。
Next, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is an overall configuration diagram showing the configuration of a person detection device for implementing the person detection method of the present invention. The human detection device of the present invention basically includes:
It comprises a camera 1, an image acquisition device 2, a person detection device 3, a person counting device 4, a counting result storage device 5, and a counting result display device 6.

【0029】カメラ1は、多数の人物が存在する対象空
間の上方に設置され、単一のカメラによって、または複
数のカメラを切り替えて人物群を含む画像を撮影する。
画像取得装置2は、カメラ1により撮影された画像フレ
ームを必要に応じて切り替えて所定の時間間隔で取り込
み、離散化など周知の処理を行って画像処理可能な静止
画像を得る。
The camera 1 is installed above a target space where a large number of people are present, and captures an image including a group of people with a single camera or by switching a plurality of cameras.
The image acquisition device 2 switches the image frames captured by the camera 1 as necessary, captures the images at predetermined time intervals, and performs well-known processing such as discretization to obtain a still image that can be subjected to image processing.

【0030】人物検出装置3は、人物の輪郭形状モデル
を保持し、画像取得装置2によって取り込まれた画像か
ら、所定の許容範囲内で該輪郭形状モデルに合致する形
状を有する画像を抽出し、抽出された各画像を画像中に
撮像されている人物として、当該人物が存在する領域を
代表する点(以下、代表点と記す)の、画像平面上にお
ける座標を出力する。
The person detecting device 3 holds a contour shape model of a person, extracts an image having a shape matching the contour shape model within a predetermined allowable range from the image captured by the image acquiring device 2, Each extracted image is taken as a person captured in the image, and coordinates of a point (hereinafter, referred to as a representative point) representing a region where the person is present are output on an image plane.

【0031】人物計数装置4は、人物検出装置3によっ
て得られた人物検出結果から、画像中の視界内に存在す
る人物数を計数する。計数結果記憶装置5は、人物計数
装置4により計数された人物数を、画像を撮像した時刻
と関連付けて逐次記録する。計数結果表示装置6は、人
物計数装置4で計数された画像中の人物計数結果、また
は前記計数結果記憶装置5に蓄積された過去の時刻にお
ける人物計数結果を、必要に応じて加工して表示を行
う。
The person counting device 4 counts the number of persons existing in the field of view in the image from the person detection result obtained by the person detecting device 3. The counting result storage device 5 sequentially records the number of persons counted by the person counting device 4 in association with the time at which the image was captured. The counting result display device 6 displays the person counting result in the image counted by the person counting device 4 or the person counting result at the past time accumulated in the counting result storage device 5 as necessary. I do.

【0032】次に本実施形態の動作を説明する。図2
は、本実施形態における処理ルーチンを示すフローチャ
ートである。カメラ1により撮影された対象空間におけ
る多数の人物群を含む画像フレームは、画像取得装置2
によって必要に応じて切り替えられ、所定の時間間隔で
離散化され処理可能な静止画像として装置内に取り込ま
れる(ステップA1)。この画像に対し、人物検出装置
3は、画像内に含まれる各人物を検出する処理を行う
(ステップA2)。ステップA2の処理で人物検出装置
3によって得られた人物領域を示す座標列は、人物計数
装置4によって計数される(ステップA3)。計数結果
は、画像に撮像されている推定人物数として、計数結果
記憶装置5において、画像が撮像された時刻に関連付け
られ、記憶される(ステップA4)と共に、計数結果表
示装置6に出力される。
Next, the operation of this embodiment will be described. FIG.
5 is a flowchart illustrating a processing routine in the present embodiment. An image frame including a large number of people in the target space captured by the camera 1
Is switched as necessary, and is taken into the apparatus as a still image that can be discretized and processed at predetermined time intervals (step A1). For this image, the person detection device 3 performs a process of detecting each person included in the image (step A2). The coordinate sequence indicating the person area obtained by the person detecting device 3 in the process of step A2 is counted by the person counting device 4 (step A3). The counting result is associated with the time at which the image was captured in the counting result storage device 5 as the estimated number of persons captured in the image, stored (step A4), and output to the counting result display device 6. .

【0033】人物計数装置4によって計数された人物計
数結果、および計数結果記憶装置5に蓄積された過去の
時刻における人物計数結果は、計数結果表示装置6にお
いて、必要に応じて、または、操作者の要求に応じて、
例えば時間に対する計数結果グラフ、または取得画像へ
の重畳表示など、様々な加工が行われた後、表示される
(ステップA5、A6)。
The person counting result counted by the person counting device 4 and the person counting result at the past time stored in the counting result storage device 5 are displayed on the counting result display device 6 as necessary or by the operator. According to the request of
For example, it is displayed after various processes such as a counting result graph with respect to time or a superimposed display on the acquired image (steps A5 and A6).

【0034】以上の処理が終了した後、さらに入力画像
が与えられているならばステップA1に戻り次に得られ
る画像に対して同様に処理を繰り返し(分岐A7の
Y)、画像入力がない場合には処理を終了する(分岐A
7のN)。
After the above process is completed, if an input image is further provided, the process returns to step A1 and the same process is repeated for the next obtained image (Y in branch A7). Ends the processing (branch A
7 N).

【0035】次に、図1の人物検出部3の一実施形態を
説明する。図3は、人物検出部3の一実施例の構成を示
すブロック図である。本実施例の人物検出装置は、特徴
量算出部301と評価値演算部302と極大点探索部3
03を備えている。
Next, an embodiment of the person detecting section 3 shown in FIG. 1 will be described. FIG. 3 is a block diagram showing a configuration of one embodiment of the person detection unit 3. The person detecting apparatus according to the present embodiment includes a feature amount calculating unit 301, an evaluation value calculating unit 302, and a local maximum point searching unit 3.
03.

【0036】特徴量算出部301は、画像取得装置2に
よって得られた画像中の各点について、所定数(人物検
出のために必要な種類数)の画像特徴量の抽出を行い、
それぞれの画像特徴量を画像中の座標と対応させて出力
する。
The feature amount calculation unit 301 extracts a predetermined number (the number of types necessary for detecting a person) of image features for each point in the image obtained by the image acquisition device 2.
Each image feature is output in association with the coordinates in the image.

【0037】特徴量算出部301は、人物輪郭を基にし
た形状のモデル、すなわち、人物形状モデルを保持し、
人物形状モデル上の予め設定された複数の点にそれぞれ
重ねて配置された1組の特徴量検出器を備えている。以
下、この1組の特徴量検出器を特徴量検出器セットと記
す。したがって、人物形状モデルを画像フレームのある
位置に置くことは、特徴量検出器セットを当該位置に置
くことと同義である。後述の実施例で説明するように、
人物画像の輪郭を他の画像の輪郭から識別する場合に
は、特徴量検出器セットは、人物形状モデルの輪郭の複
数位置に配置された、輪郭を識別する特徴量検出器(例
えば、エッジ検出オペレータ)によって構成される。ま
た、例えば、学童のように、黄色の帽子をかぶっている
人物の画像を他の画像から識別する場合には、輪郭を識
別する複数の特徴量検出器の他に、人物形状モデルの頭
部の所定位置に黄色を検出する特徴量検出器が配置され
る。このように、特徴量検出器セットを構成する特徴量
検出器は、抽出しようとする人物の特徴に応じて異なる
種類の特徴量検出器が異なる位置に設定される。
The feature amount calculation unit 301 holds a model of a shape based on a human contour, that is, a human shape model.
There is provided a set of feature detectors which are respectively arranged at a plurality of preset points on the human shape model. Hereinafter, this one set of feature amount detectors is referred to as a feature amount detector set. Therefore, placing the human shape model at a certain position in the image frame is equivalent to placing the feature detector set at that position. As described in the examples below,
When the outline of a person image is identified from the outline of another image, the feature amount detector set includes feature amount detectors (for example, edge detection) that are arranged at a plurality of positions of the outline of the human shape model and identify the outline. Operator). Further, for example, when an image of a person wearing a yellow hat such as a schoolchild is identified from other images, in addition to a plurality of feature amount detectors for identifying contours, a head of a person shape model is used. A feature detector for detecting yellow is disposed at a predetermined position. As described above, in the feature amount detector constituting the feature amount detector set, different types of feature amount detectors are set at different positions according to the features of the person to be extracted.

【0038】この人物形状モデル(詳しくは、人物形状
モデルに配置した特徴量検出器セット)を、検査対象の
静止画像フレームの、人物を検出しようとする画像領域
の各位置に置いて人物画像を抽出するとき、特徴量検出
器セットを構成する各特徴量検出器は、人物形状モデル
上におけるそれぞれの部位に対応する相対位置において
人物特徴量およびその他の背景画像特徴量を検出する。
評価値演算部302は、特徴量検出器セットの各特徴量
検出器が、それぞれの相対位置を保ちながら検出した1
組の画像特徴量(以下、画像特徴量セットと記す)の値
に所定の演算を施して、画像特徴量セットが人物形状モ
デルと適正に合致している度合いを評価し、人物形状モ
デルの、画像フレーム上における現在位置に対応する評
価値を生成する。前記の「適正に」とは、特徴量検出器
の「検出許容範囲内で」という意味である。また、「人
物形状モデルの、画像フレーム上における位置」とは、
人物形状モデルの任意に設定された代表点の、当該画像
フレーム上の座標である。このようにして、評価値演算
部302は、画像フレームの各座標に対応する評価値を
表す評価値画像を生成する。
This person shape model (specifically, a set of feature detectors arranged in the person shape model) is placed at each position of an image area where a person is to be detected in a still image frame to be inspected, and a person image is placed. At the time of extraction, each feature amount detector constituting the feature amount detector set detects a person feature amount and other background image feature amounts at a relative position corresponding to each part on the person shape model.
The evaluation value calculation unit 302 detects each of the feature amount detectors in the feature amount detector set while detecting the relative position while maintaining the relative position.
A predetermined operation is performed on the values of a set of image feature amounts (hereinafter, referred to as an image feature amount set) to evaluate the degree to which the image feature amount set appropriately matches the human shape model. An evaluation value corresponding to the current position on the image frame is generated. The aforementioned “appropriately” means “within a detection allowable range” of the feature amount detector. The “position of the human shape model on the image frame” is
The coordinates of the arbitrarily set representative point of the human shape model on the image frame. In this way, the evaluation value calculation unit 302 generates an evaluation value image representing an evaluation value corresponding to each coordinate of the image frame.

【0039】極大点探索部303は、評価値演算部30
2によって算出された評価値画像に対し、画像フレーム
の各画素について、当該画素の座標に対応する評価値が
近傍の領域において最大となる評価値極大点を探索し、
得られた評価値極大点の座標を人物の存在する点として
出力する。
The local maximum point searching section 303 includes an evaluation value calculating section 30
For each pixel of the image frame, the evaluation value corresponding to the coordinates of the pixel is searched for an evaluation value maximum point at which the evaluation value becomes the maximum in a nearby region,
The coordinates of the obtained evaluation value maximum point are output as a point where a person exists.

【0040】人物形状モデルが人物画像に適正に合致し
ているか、否かを評価値演算部302が評価する手法に
は、種々の実施態様がある。1つの実施態様として、人
物形状モデルを、画像フレーム上を走査させる手法があ
る。この場合には、特徴量検出器セットの各特徴量検出
器が「ほぼ同時に」検出した特徴量セットの値のすべて
が、所定の閾値以上であれば、人物形状モデルが人物画
像に適正に合致していると判定される。ここで、「ほぼ
同時に」とは、前記の検出許容範囲を走査速度で割り算
した時間幅内で同時にという意味である。また、後述す
る実施例で用いられている手法のように、特徴量検出器
セットを構成する特徴量検出器の各々が生成する特徴量
画像を、当該特徴量検出器間の相対位置に対応する変位
ベクトル(特徴量変位ベクトル)分だけ変位させて合成
する方法もある。
There are various embodiments in which the evaluation value calculation unit 302 evaluates whether or not the human shape model properly matches the human image. As one embodiment, there is a method of scanning a human shape model on an image frame. In this case, if all of the values of the feature set detected by the feature detectors of the feature detector set “at substantially the same time” are equal to or greater than a predetermined threshold, the human shape model is properly matched to the human image. Is determined to be Here, "substantially simultaneously" means "simultaneously" within a time width obtained by dividing the above-mentioned permissible detection range by the scanning speed. Further, as in a method used in an embodiment to be described later, a feature amount image generated by each of the feature amount detectors forming the feature amount detector set corresponds to a relative position between the feature amount detectors. There is also a method of combining by displacing by a displacement vector (feature amount displacement vector).

【0041】次に、人物検出処理(図2のステップA
2)を図4のフローチャートを参照して説明する。取り
込まれた画像はまず特徴量算出部301において、各点
についての特徴量が算出される(ステップB1)。次に
得られた特徴量画像に対し、評価値演算部302におい
て、画像フレーム上の各位置に人物形状モデルを置き、
その人物形状モデル上の予め設定した複数の点において
得られる特徴量の集合から、前記各位置における特徴量
評価値を算出し、特徴量評価値を、当該位置に対応する
画像フレーム上の座標に対応付けて特徴量評価値画像と
して出力する (ステップB2)。
Next, a person detection process (step A in FIG. 2)
2) will be described with reference to the flowchart of FIG. In the captured image, first, the feature amount of each point is calculated in the feature amount calculation unit 301 (step B1). Next, for the obtained feature amount image, a person shape model is placed at each position on the image frame in the evaluation value calculation unit 302,
From a set of feature amounts obtained at a plurality of preset points on the person shape model, a feature amount evaluation value at each of the positions is calculated, and the feature amount evaluation value is set to coordinates on an image frame corresponding to the position. It is output as a feature amount evaluation value image in association with it (step B2).

【0042】得られた評価値画像は、極大点探索部30
3において、画像中の人物が存在する点を抽出する処理
が行われる。具体的には、画像内の各画素を中心とする
局所領域が設定され、当該局所領域内で評価値が最大に
なる極大点が探索される(ステップB3)。極大点が得
られた局所領域の中心の座標は、人物の存在する点とし
て出力される(ステップB4)。
The obtained evaluation value image is obtained by
In 3, a process of extracting a point where a person is present in the image is performed. Specifically, a local area centering on each pixel in the image is set, and a local maximum point with the maximum evaluation value is searched for in the local area (step B3). The coordinates of the center of the local area where the maximum point is obtained are output as points where the person exists (step B4).

【0043】図5は、図3の人物検出装置の一実施例の
ブロック図である。本実施例の人物検出装置は、画像微
分部31と評価値画像合成部32と極大点探索部33を
備えている。本実施例の人物検出装置は、図3の人物検
出部の特徴量検出器として、エッジ検出オペレータを用
い、特徴量検出器セットは、人物形状モデルの輪郭上の
予め設定された複数の点にそれぞれ固定された1組のエ
ッジ検出オペレータによって構成されている。画像微分
部31、評価値画像合成部32、極大点探索部33は、
それぞれ図3の特徴量算出部301、評価値演算部30
2、極大点探索部303の実施例である。
FIG. 5 is a block diagram of an embodiment of the person detecting device of FIG. The person detecting device of the present embodiment includes an image differentiating unit 31, an evaluation value image combining unit 32, and a local maximum point searching unit 33. The person detecting apparatus according to the present embodiment uses an edge detection operator as a feature amount detector of the person detecting unit in FIG. 3, and sets a feature amount detector at a plurality of preset points on the contour of the person shape model. Each is composed of a fixed set of edge detection operators. The image differentiating unit 31, the evaluation value image combining unit 32, and the local maximum point searching unit 33
The feature amount calculation unit 301 and the evaluation value calculation unit 30 in FIG.
2. This is an embodiment of the local maximum point search unit 303.

【0044】画像微分部31は、人物形状モデルの輪郭
上の所定位置に対応する相対位置を保って構成されてい
る1組のエッジ検出オペレータを備えている(以下の記
述では、この1組のエッジ検出オペレータをオペレータ
セットと記す)。本実施例においては、オペレータセッ
トは、x方向、y方向のエッジを検出するエッジ検出オ
ペレータを大小2種用いて構成されている。このうち、
大型のエッジ検出オペレータは、上体の輪郭のように、
比較的に形が大きくて平坦な部分に対応する位置に配置
され、小型のエッジ検出オペレータは、頭部の輪郭のよ
うに、形が小さくて曲率が比較的大きい部分に対応する
位置に配置される。それぞれのエッジ検出オペレータ
は、前記画像取得部2により得られた人物画像および背
景画像に適用され、これらの画像の微分画像を作成す
る。
The image differentiating section 31 includes a set of edge detection operators configured to maintain a relative position corresponding to a predetermined position on the contour of the human shape model. The edge detection operator is referred to as an operator set). In this embodiment, the operator set is configured using two types of edge detection operators, large and small, for detecting edges in the x and y directions. this house,
Large edge detection operators, like the upper body contour,
A small edge detection operator is located at a position corresponding to a relatively large and flat portion, and a small edge detection operator is located at a position corresponding to a relatively small and relatively large curvature, such as a contour of a head. You. Each edge detection operator is applied to the person image and the background image obtained by the image acquisition unit 2 and creates a differential image of these images.

【0045】オペレータセットを構成するエッジ検出オ
ペレータは、それぞれ微分画像を生成するけれど、各々
のエッジ検出オペレータは、同一画像の微分画像を、そ
れらエッジ検出オペレータの相対位置だけずれた位置に
生成する。したがって、各々のエッジ検出オペレータが
別々の画面に微分画像を生成する場合には、それぞれの
エッジ検出オペレータに対応する画面をエッジ検出オペ
レータの相対変位と逆方向に平行移動して重ねる(合成
する)と、各画面の微分画像の同一部分は重なる。しか
し、各画面の異なる微分画像または同一微分画像の異な
る部分(以下、異なるエッジ部分と記す)は、上記の平
行移動・合成処理をしても、それらのエッジ部分が、平
行移動・合成処理によって重なるような特別な相対位置
になければ、重なることはない。換言すれば、エッジ検
出オペレータの相対配置と同一の相対配置をもつエッジ
部分、すなわち、人物形状モデルに合致する画像のみが
平行移動・合成処理によって同時に重なる。本実施例
は、この原理によって、微分画像面から、人物画像の微
分画像のみを抽出する。
Although the edge detection operators constituting the operator set each generate a differential image, each edge detection operator generates a differential image of the same image at a position shifted by the relative position of the edge detection operators. Therefore, when each edge detection operator generates a differential image on a separate screen, the screen corresponding to each edge detection operator is moved in parallel in the direction opposite to the relative displacement of the edge detection operator and is overlaid (combined). And the same part of the differential image on each screen overlaps. However, even if the different differential images on each screen or different portions of the same differential image (hereinafter, referred to as different edge portions) are subjected to the above-described parallel movement / synthesis processing, the edge parts are not moved by the parallel movement / synthesis processing. If they are not in a special relative position, they will not overlap. In other words, only the edge portion having the same relative arrangement as that of the edge detection operator, that is, only the image that matches the human shape model is simultaneously overlapped by the parallel movement / synthesis processing. In the present embodiment, only the differential image of the human image is extracted from the differential image plane based on this principle.

【0046】評価値画像合成部32は、前記画像微分部
31によって得られた各エッジ検出オペレータに対応す
る微分画像を、人物形状モデル面上に任意に設定した基
準点に対するエッジ検出オペレータの変位ベクトルの逆
ベクトル、すなわち、特徴量変位ベクトルだけ平行移動
させ、各微分画像面中の各座標において、平行移動され
た微分画像のエッジ値(変位特徴量)の積をその座標に
おける評価値として評価値画像を作成する。極大点探索
部33は、評価値画像合成部32によって得られた評価
値画像内の各画素を中心とする局所領域を設定し、局所
領域内で評価値が最大となる極大点を探索し、そのう
ち、所定の閾値を超える極大点が存在する局所領域の中
心にある画素の位置を人物が存在する点の位置として出
力する。
The evaluation value image synthesizing section 32 converts the differential image corresponding to each edge detection operator obtained by the image differentiating section 31 into a displacement vector of the edge detection operator with respect to a reference point arbitrarily set on the human shape model surface. In other words, the product of the edge value (displacement feature value) of the parallel-transferred differential image at each coordinate in each differential image plane is evaluated as the evaluation value at that coordinate. Create an image. The local maximum point searching unit 33 sets a local region centered on each pixel in the evaluation value image obtained by the evaluation value image synthesizing unit 32, searches for a local maximum point having the maximum evaluation value in the local region, Among them, the position of the pixel at the center of the local area where the maximum point exceeding the predetermined threshold exists is output as the position of the point where the person exists.

【0047】図6は、本実施例で使用されるエッジ検出
オペレータを示す図である。このオペレータは特願平1
1-152381に開示されているエッジ検出オペレー
タである。図6に示されているように、従来のソーベル
オペレータと比較して、オペレータ中央の重みを持たな
い間隙領域の幅を拡張したものであって、オペレータの
大きさも数画素×数画素と従来のものより大きい。中央
の重みを持たない間隙領域の幅を拡張した理由は、人物
によって形状が変化し、また、同一人物であっても、カ
メラに対する向きによって画像が異なるので、オペレー
タが検出するエッジの位置および方向に許容幅を持たせ
て、そのような人物の形状変化やカメラに対する向きに
よる画像の変化を検知しないようにするためである。
FIG. 6 is a diagram showing an edge detection operator used in this embodiment. This operator is Japanese Patent Application Hei 1
1-152381 is an edge detection operator. As shown in FIG. 6, as compared with the conventional Sobel operator, the width of the gap region having no weight at the center of the operator is expanded, and the size of the operator is also several pixels × several pixels. Greater than. The reason for expanding the width of the gap region having no center weight is that the shape changes depending on the person, and even for the same person, the image differs depending on the direction to the camera, so the position and direction of the edge detected by the operator This is to allow an image to have a tolerance so as not to detect such a change in the shape of the person or a change in the image due to the orientation with respect to the camera.

【0048】このようなエッジ検出オペレータがx方
向、y方向のそれぞれについて、大小2種ずつ、合計4
種が用意されている。これらのオペレータは、図7を参
照して後述されるように、画像の輪郭の形状に応じて使
用される。このエッジ検出オペレータによって構成され
るオペレータセットを、図1の画像取得装置1によって
得られた画像全体の各位置に適用することによって、各
座標における微分値を画素値とする微分画像が作成され
る。
Such an edge detection operator has two types, large and small, in each of the x direction and the y direction.
Seeds are available. These operators are used according to the shape of the contour of the image, as described later with reference to FIG. By applying the operator set composed of the edge detection operators to each position of the entire image obtained by the image acquisition device 1 of FIG. 1, a differential image having a differential value at each coordinate as a pixel value is created. .

【0049】図7は、本実施例の人物形状モデルとエッ
ジ検出オペレータの配置を示す図である。図7に示され
ている人物輪郭の頭頂部に相当する点Aにy方向のエッ
ジを検出する小型のオペレータが配置され、頭部左右に
相当する点B、Cにそれぞれx方向のエッジを検出する
小型のオペレータが配置されている。胴体部左右に相当
する点D、Eには、それぞれx方向のエッジを検出する
大型のオペレータが配置されている。このように、頭部
のように形が小さい輪郭には、小型のオペレータが配置
され、胴体部の輪郭のように、比較的形が大きく平坦な
輪郭を持つ部分には、広範囲の直線輪郭を検出する大型
のオペレータが配置される。図7のように配置された5
個のオペレータは、この相対位置を維持してオペレータ
セットとして動作する。
FIG. 7 is a diagram showing the arrangement of the person shape model and the edge detection operator according to the present embodiment. A small operator for detecting an edge in the y direction is arranged at a point A corresponding to the top of the person contour shown in FIG. 7, and an edge in the x direction is detected at points B and C corresponding to the left and right of the head. Small operators are arranged. At points D and E corresponding to the right and left sides of the body, large operators for detecting edges in the x direction are arranged. In this way, a small operator is placed on a contour with a small shape like the head, and a wide linear contour is placed on a part with a relatively large and flat contour like the contour of the body. A large operator to detect is arranged. 5 arranged as in FIG.
The operators operate as an operator set while maintaining this relative position.

【0050】次に、本実施例における人物検出処理を説
明する。図8は本実施例の人物検出処理の流れを示すフ
ローチャートである。画像取得装置2(図1参照)によ
って取り込まれた画像は、まず画像微分部31(図5参
照)において、オペレータセットを構成するx方向、y
方向のエッジ検出オペレータによって微分処理が行われ
る(ステップC1)。次に各エッジ検出オペレータによ
って作成された微分画像(図7の実施例では5枚の微分
画像)は、評価値画像合成部32において、画像内にお
ける人物の形状および大きさに応じて予め設定されてい
る、図7に示されているような人物形状モデルに従って
平行移動・合成される。
Next, the person detecting process in this embodiment will be described. FIG. 8 is a flowchart illustrating the flow of the person detection process according to the present embodiment. The image captured by the image acquisition device 2 (see FIG. 1) is first converted by an image differentiator 31 (see FIG. 5) into the x direction and y constituting an operator set.
Differentiation processing is performed by the edge detection operator in the direction (step C1). Next, the differential images (five differential images in the embodiment of FIG. 7) created by each edge detection operator are preset in the evaluation value image combining unit 32 according to the shape and size of the person in the image. Are translated and combined in accordance with the human shape model as shown in FIG.

【0051】具体的には、まず図7中に示されている人
物輪郭の頭頂部に相当する点Aにy方向のエッジを検出
する小型のオペレータによって得られた微分画像を対応
させ、頭部左右に相当する点B、Cにそれぞれx方向の
エッジを検出する小型のオペレータにより得られた微分
画像を対応させ、胴体部左右に相当する点D、Eにそれ
ぞれx方向のエッジを検出する大型のオペレータにより
得られた微分画像をそれぞれ対応させる。
More specifically, first, a point A corresponding to the top of the person's contour shown in FIG. Points B and C corresponding to the left and right correspond to differential images obtained by a small operator that detects edges in the x direction, respectively, and points D and E corresponding to the body left and right detect large edges in the x direction, respectively. Are associated with the differential images obtained by the operator.

【0052】次に、上記のモデル内の各点から基準点O
に向かう変位ベクトルを用いて、それぞれの点に対応す
る各微分画像を平行移動する(ステップC2)。図7の
実施例では頭頂部Aに対応するy方向の小型オペレータ
による微分画像は、基準点となる頭部中心点Oに向かう
ベクトルだけ変位する。すなわち、画像下方に平行移動
する(この平行移動は座標変換によって演算される)。
Next, from each point in the above model, the reference point O
Each differential image corresponding to each point is translated using the displacement vector toward (step C2). In the embodiment of FIG. 7, the differential image of the small operator in the y direction corresponding to the crown A is displaced by a vector toward the head center point O serving as a reference point. That is, the image is translated downward in the image (this translation is calculated by coordinate transformation).

【0053】さらに、平行移動した各微分画像を重ねあ
わせ、各画像中の全ての座標について、同じ座標に存在
する画素の画素値(変位特徴量)の積を算出し、その積
を当該座標における画素値として評価値画像を合成する
(ステップC3)。
Further, the differential images that have been translated are superimposed, and the product of the pixel values (displacement features) of the pixels existing at the same coordinates is calculated for all the coordinates in each image, and the product is calculated at the coordinates. An evaluation value image is synthesized as a pixel value (step C3).

【0054】このようにして評価値画像合成部32によ
って得られた評価値画像は、極大点探索部33におい
て、画像中の人物が存在する点を抽出する処理が行われ
る。具体的には、画像内の各画素を中心とする局所領域
が設定され、当該局所領域内で当該画素における評価値
が最大となる極大点が探索される(ステップC4)。そ
のうち所定のしきい値を超える評価値をもつ局所領域の
中心の画素の座標が、人物の存在する点として出力され
る(ステップC5)。
The evaluation value image obtained by the evaluation value image synthesizing unit 32 is subjected to a process of extracting a point where a person is present in the image in a local maximum point searching unit 33. Specifically, a local region centering on each pixel in the image is set, and a local maximum point at which the evaluation value of the pixel is maximum is searched for in the local region (step C4). Among them, the coordinates of the pixel at the center of the local area having an evaluation value exceeding a predetermined threshold are output as a point where a person exists (step C5).

【0055】図9は、図1の人物計数装置4と計数結果
記憶装置5と計数結果表示装置6の実施例を説明するた
めの概念図である。
FIG. 9 is a conceptual diagram for explaining an embodiment of the person counting device 4, the counting result storage device 5, and the counting result display device 6 of FIG.

【0056】本実施例では、まず、カメラの位置および
向きが完全に固定された環境下において、図9に示され
ているように、カメラで取得される画像中に監視対象と
なる領域を1つ、または複数個設定する。そして、図1
の人物検出装置3で得られた人物の頭の位置が各観測領
域内にあるかどうか判定して、各観測領域別に人数を出
力する。
In this embodiment, first, in an environment in which the position and orientation of the camera are completely fixed, as shown in FIG. 9, one area to be monitored is included in an image acquired by the camera. One or more. And FIG.
It is determined whether or not the position of the person's head obtained by the person detection device 3 is within each observation area, and the number of persons is output for each observation area.

【0057】処理としては、人物計数装置4で、前記人
物検出装置3で得られた人物の頭の中心位置と思われる
画素の集まりU={ui,vi|iは0から総人数−1ま
での整数}が、各人物観測領域Vj={(u,v)|t
j≦u≦ttj,tlj≦v≦trj}(jは0から人物
観測領域総数−1までの整数、tbj、ttj、tlj
trjは、それぞれ、j番目の領域の下方向、上方向、
左方向および右方向の座標閾値)内に入っているか判定
し、入っているものについて各領域別に人数を出力す
る。人物計数装置4は、前記人物検出装置3によって得
られる検出結果から、設定された各領域における人物数
を計数する。
[0057] The treatment, with the person counting device 4, a collection U = {u i of the pixel think that the center position of the head of the person obtained by the human detection device 3, v i | i is the total number of 0 - The integer} up to 1 is calculated in each person observation area V j = {(u, v) | t
b j ≤ u ≤ tt j , tl j ≤ v ≤ tr j j (j is an integer from 0 to the total number of human observation areas −1, tb j , tt j , tl j ,
tr j is a downward direction, an upward direction, and a j-th area, respectively.
It is determined whether the values are within the left and right direction coordinate thresholds), and the number of persons included is determined for each region and output. The person counting device 4 counts the number of persons in each set area from the detection result obtained by the person detecting device 3.

【0058】計数結果記憶装置5は、人物計数装置4に
より計数された人物数を、設定された各領域別に画像を
撮像した時刻と関連付け、逐次記録する。計数結果表示
装置6は、人物計数装置4で計数された画像中の人物計
数結果、または計数結果記憶装置5に蓄積された過去の
時刻における人物計数結果を、設定された各領域別に必
要に応じて加工し表示を行う。
The counting result storage device 5 associates the number of persons counted by the person counting device 4 with the time at which the image was taken for each set area and sequentially records the number. The counting result display device 6 displays the person counting result in the image counted by the person counting device 4 or the person counting result at the past time stored in the counting result storage device 5 according to each set area as necessary. And display it.

【0059】本実施例によって、コンサートホール、球
技施設、美術館等の多人数が利用している大型施設につ
いて、あらかじめ各出入口、あるいは展示物などの周辺
を処理対象領域として設定し、出入口周辺に集まる人、
バス停に並んでいる人、あるいは美術館などにおける各
展示物を鑑賞する人などの計数が可能となり、有用性を
高めることができる。
According to this embodiment, for a large facility used by many people such as a concert hall, a ball game facility, an art museum, etc., each entrance or the periphery of an exhibit is set in advance as a processing target area and gathered around the entrance. Man,
This makes it possible to count the number of people lining up at a bus stop or those who appreciate each exhibit in an art museum or the like, thereby increasing the usefulness.

【0060】図10は、図1の人物計数装置4の一実施
例のブロック図である。本実施例の人物計数装置4(図
1参照)は、人物位置検出部41、画像・位置対応記憶
部42、人物密度計測部43を備えている。画像・位置
対応記憶部42は、人物位置検出装置41で人物の実空
間中の位置を推定するのに必要なパラメータの値、ある
いは画素と人物の空間位置を記載したルックアップテー
ブルを記憶されたもので、測定を行う前に事前に初期設
定でキャリブレーション(較正)を行って画像中の各画
素と空間位置との対応をとり、予め記憶する。
FIG. 10 is a block diagram of one embodiment of the person counting device 4 of FIG. The person counting device 4 of this embodiment (see FIG. 1) includes a person position detection unit 41, an image / position correspondence storage unit 42, and a person density measurement unit 43. The image / position correspondence storage unit 42 stores a parameter value necessary for estimating the position of the person in the real space by the person position detection device 41 or a lookup table describing the spatial position of the pixel and the person. Before the measurement, calibration (calibration) is performed in advance by initial setting, and the correspondence between each pixel in the image and the spatial position is obtained and stored in advance.

【0061】人物位置検出部41は、人物検出装置3
(図1参照)の出力をそのまま画像中の頭の位置とみな
し、画像・位置対応記憶装置42の情報をもとに、人物
の空間中の位置を推定する。人物密度計測部43は、人
物位置検出部41で検出された人物位置をもとに、微少
領域内での人数を計測する。計数結果記憶装置5(図1
参照)は、人物密度計測部43により計測された人物密
度を、画像を撮像した時刻と関連付け、逐次記録する。
計数結果表示装置6(図1参照)は、人物計数装置4で
計測された画像中の人物密度、または計数結果記憶部5
に蓄積された過去の時刻における人物密度を必要に応じ
て加工して表示する。
The person position detecting section 41 is provided for the person detecting device 3.
The output of (see FIG. 1) is regarded as the head position in the image as it is, and the position of the person in the space is estimated based on the information of the image / position correspondence storage device 42. The person density measuring unit 43 measures the number of people in a small area based on the person position detected by the person position detecting unit 41. The counting result storage device 5 (FIG. 1)
) Sequentially records the person density measured by the person density measurement unit 43 in association with the time at which the image was captured.
The counting result display device 6 (see FIG. 1) stores the person density in the image measured by the person counting device 4 or the counting result storage unit 5.
Is processed as necessary and displayed in the past.

【0062】以下、画像・位置対応記憶部42が行うキ
ャリブレーション法について述べる。まず、キャリブレ
ーションの準備段階において、カメラの内部パラメータ
(焦点距離f、水平方向画素間距離dh、垂直方向画素
間距離dv、画像中心(uc,v c)、歪曲収差計数)をあ
らかじめ求めておく。この内部パラメータ算出方法は種
々あるが、最も汎用的なのはTsaiの手法とよばれる
ものである(参考:Roger Y. Tsai,“A
n Efficient and Accurate
Camera Calibration Techni
que for3D Machine Visio
n”,Proceedings of IEEE Co
nference on Computer Visi
on andPattern Recognitio
n, Miami Beach, FL, 198
6)。
Hereinafter, the key performed by the image / position correspondence storage unit 42
The calibration method will be described. First, the caliber
In the preparation stage of the camera, internal parameters of the camera
(Focal length f, horizontal pixel distance dh, Vertical pixel
Distance dv, Image center (uc, V c), Distortion aberration counting)
I will ask for it in advance. This internal parameter calculation method is
There are many, but the most versatile is called the Tsai method
(Reference: Roger Y. Tsai, “A
n Efficient and Accurate
Camera Calibration Techni
que for3D Machine Visio
n ", Proceedings of IEEE Co.
nference on Computer Visi
on andPattern Recognitio
n, Miami Beach, FL, 198.
6).

【0063】次に、これら内部パラメータが既知である
ことを前提として、以下のように空間中のカメラ位置お
よび姿勢を推定する(以下、空間中のカメラ位置および
姿勢のことを外部パラメータと呼ぶことにする)。図1
1にカメラ配置、人物位置を測定する空間のモデル図を
示す。図11の右下にある原点Oはグローバル座標系の
原点であり、便宜上図11のようにxyz軸を定める。
図11の各点(xi,y i,t)(但し、i=1...5)
は、キャリブレーションのために立てたポールでポール
の先がちょうど一般的な人の頭の中心にあたる高さ(床
面から140〜160cm程度)になるように長さをあ
らかじめ決めておく。(別に空間中の相対位置の分かっ
ている5点で同じように設定することも可能ではある
が、精度を上げる観点からあらかじめこのような5点を
設定する)また、人物位置を推定する範囲としては、図
11の4点(xi,yi,t)(但し、i=1...4)で
囲まれた領域とする。カメラはレンズ中心がグローバル
座標系の(x0,y0,z0)にあるものとし、光軸は、z
軸の正方向に対してy軸回りに角度αだけ傾き、さら
に、x軸に対して角度βをなすように、z軸の回りに回
転した角度位置(姿勢)にあるものとする。(uc,vc)
は画像中心(カメラ光軸と画像面とが交差する点)であ
り、(ui,vi)(i=1...5)は、物点(xi
i,t)(i=1..5)が撮像されて映った画素の
座標(画像面上の像点の座標)である。
Next, these internal parameters are known.
Assuming that, the camera position in space and
And posture (hereinafter referred to as camera position in space and
The posture is called an external parameter). FIG.
Figure 1 shows a model diagram of the space where camera positions and person positions are measured.
Show. The origin O at the lower right of FIG.
This is the origin, and the xyz axis is determined for convenience as shown in FIG.
Each point (xi, Y i, T) (where i = 1... 5)
Is a pole with a pole set up for calibration
Is the height of the center of the head of a general person (floor
140-160cm from the surface)
Decide in advance. (Separately know relative position in space
It is also possible to set the same in five points
However, from the viewpoint of improving the accuracy,
Set)) Also, as the range for estimating the person position,
11 points (xi, Yi, T) (where i = 1... 4)
It is an enclosed area. Cameras are lens-centered globally
(X0, Y0, Z0) And the optical axis is z
Tilt by an angle α around the y-axis with respect to the positive
Around the z axis so as to form an angle β with the x axis.
It is assumed that it is in the turned angular position (posture). (uc, vc)
Is the image center (the point where the camera optical axis and the image plane intersect)
, (Ui, Vi) (I = 1 ... 5) is the object point (xi,
yi, T) (i = 1... 5) of the pixel imaged and reflected
The coordinates (coordinates of an image point on the image plane).

【0064】このとき、画像面上の点(ui,vi)(i
=1..5)のグローバル座標(Xi,Yi,Zi)は以
下のように定まる。まず、
[0064] In this case, the point on the image plane (u i, v i) ( i
= 1. . The global coordinates (X i , Y i , Z i ) of 5) are determined as follows. First,

【0065】[0065]

【数1】 (Equation 1)

【0066】によって得られる、ui’、vi’に対し、For u i ′ and v i ′ obtained by

【0067】[0067]

【数2】 (Equation 2)

【0068】が成りたつ。ここで、κは歪曲収差係数で
ある。(歪曲収差とは、格子状の物体をカメラで撮影し
たときに、像が樽型に歪んだり、糸巻き型に歪んだりす
る収差である。通常の透視変換のカメラモデルでは
i’=ds(ui−uc)が成り立つが、一般的なカメ
ラの場合、歪曲収差が存在するので、透視変換モデルが
必ずしも成り立たない。式(1.1)はそれを補正するため
の式である)。
The following holds. Here, κ is a distortion aberration coefficient. (The distortion is an aberration in which an image is distorted in a barrel shape or pincushion shape when a lattice-shaped object is photographed by a camera. In a normal perspective transformation camera model, u i ′ = ds ( u i −u c ) holds, but in the case of a general camera, the perspective transformation model does not always hold due to the presence of distortion. Equation (1.1) is an equation for correcting it.

【0069】式(2)から得られる(Xi,Yi,Zi
は次の直線
(X i , Y i , Z i ) obtained from equation (2)
Is the next straight line

【0070】[0070]

【数3】 (Equation 3)

【0071】上にある。従って、次式が成り立つ。It is above. Therefore, the following equation holds.

【0072】[0072]

【数4】 (Equation 4)

【0073】式(2)から、(Xi,Yi,Zi)は、次
From equation (2), (X i , Y i , Z i ) is

【0074】[0074]

【数5】 (Equation 5)

【0075】のように、x0、y0、z0、α、β、およ
び(ui’、vi’)(i=1,2・・5)で表されるの
で、式(2)を式(4.1)および式(4.2)に代入
すると、式(4.1)、式(4.2)は、(x0、y0
0、α、β)および(ui’、vi’)、(xi,yi
t)(i=1,2・・5)で表される。このうち、(x
i,yi,t)(i=1,2・・5)は、予め設定されて
点であるから、その値は既知である。また、(ui’、
i’)(i=1,2・・5)は、座標(xi,yi
t)(i=1,2・・5)に物体を置いて予め撮像する
ことによって、その値は既知である。したがって、5つ
のiの値に対して(x0、y0、z0、α、β)について
の5通りの方程式(4.1)、方程式(4.2)を得
る。この5つの方程式から、最小2乗法によって5つの
パラメータx0、y0、z0、α、βの最も確からしい値
を得ることができる。
As expressed by x 0 , y 0 , z 0 , α, β, and (u i ′, v i ′) (i = 1, 2,...), The equation (2) Substituting into Equations (4.1) and (4.2), Equations (4.1) and (4.2) yield (x 0 , y 0 ,
z 0, α, β) and (u i ', v i' ), (x i, y i,
t) (i = 1, 2,... 5). Of these, (x
Since i , y i , t) (i = 1, 2,... 5) are preset points, their values are known. Also, (u i ',
v i ′) (i = 1, 2,... 5) are represented by coordinates (x i , y i ,
t) By placing an object at (i = 1, 2,... 5) and taking an image in advance, the value is known. Therefore, for the five values of i, five equations (4.1) and (4.2) for (x 0 , y 0 , z 0 , α, β) are obtained. From these five equations, the most probable values of the five parameters x 0 , y 0 , z 0 , α and β can be obtained by the least squares method.

【0076】最小2乗法によって、カメラの位置
(x0,y0,z0)および姿勢(α、β)の最も確から
しい値を推定するために、式(4.1)の左辺の2乗と
式(4.2)の左辺の2乗の和をとり、それをS
(ui’,vi’)とする。5個のパラメータx0,y0
0,α,βの最も確からしい値は、Sを用いた最小2乗
法によって求める。このような非線型最小2乗法につい
て代表的なものにMarquart法があり、Will
iam H。Press et al.著、奥村晴彦等
訳「ニューメリカルレシピ・イン・シー」(技術評論社
1993年)の.505−510頁に詳しく説明がされてい
る。非線型最小2乗法の内容は本出願と関連性の薄いの
で、ここでは説明を省略する。以上によって得られたx
0,y0,z0,α,βは画像・位置対応記憶装置42に格
納し、キャリブレーションを終了する。
In order to estimate the most probable values of the position (x 0 , y 0 , z 0 ) and posture (α, β) of the camera by the least square method, the square of the left side of the equation (4.1) is used. And the sum of the squares on the left side of equation (4.2)
(U i ′, v i ′). Five parameters x 0 , y 0 ,
The most probable values of z 0 , α, and β are obtained by the least squares method using S. A typical example of such a nonlinear least squares method is the Marquart method.
iam H. Press et al. Written and translated by Haruhiko Okumura et al. "Numerical Recipe in Sea"
1993) at pages .505-510. Since the content of the nonlinear least squares method has little relevance to the present application, the description is omitted here. X obtained by the above
0 , y 0 , z 0 , α, β are stored in the image / position correspondence storage device 42, and the calibration is completed.

【0077】次に、人物位置検出装置41の処理につい
て説明する。人物検出装置3によって、画像中での人物
の頭の中心と思われる画素(u,v)が検出されたとす
る。このとき、この画素のグローバル座標系での座標値
(xp,yp,zp)は式(1.1)、式(1.2)と同
様の変形をおこなった以下の(u’,v’)に対し、式
(5)のように表される。
Next, the processing of the person position detecting device 41 will be described. It is assumed that the person detection device 3 has detected a pixel (u, v) that is considered to be the center of the head of a person in the image. At this time, the coordinate value (x p , y p , z p ) of this pixel in the global coordinate system is obtained by performing the same transformation as in the equations (1.1) and (1.2) below (u ′, v ′) is expressed as in equation (5).

【0078】[0078]

【数6】 (Equation 6)

【0079】[0079]

【数7】 (Equation 7)

【0080】この人物の身長をtであるとみなしたと
き、人物位置のグローバル座標(x、y、t)は式(3)
の直線の方程式を変形した次式(6)のように表すことが
できる。
Assuming that the height of this person is t, the global coordinates (x, y, t) of the person's position are given by the following equation (3).
Can be expressed as the following equation (6) obtained by modifying the equation of the straight line.

【0081】[0081]

【数8】 (Equation 8)

【0082】これより、人物位置のグローバル座標は、Thus, the global coordinates of the person position are

【0083】[0083]

【数9】 (Equation 9)

【0084】として求められる。人物位置検出部41は
このようにして求めた(x,y,t)の座標値を人物密
度計測部43に出力する。
Is obtained. The person position detecting section 41 outputs the (x, y, t) coordinate values thus obtained to the person density measuring section 43.

【0085】また、人物位置検出部41の処理を高速化
するために、画像中の全画素について(1.3)から
(7)までの計算を事前に行って、画像・位置対応記憶
部42にそのルックアップテーブルを記録しておき、人
物検出装置3で求められた(u,v)に対してルックア
ップテーブルを参照して人物位置のグローバル座標
(x,y,t)を求める方法もある。
Further, in order to speed up the processing of the person position detecting section 41, the calculation from (1.3) to (7) is performed in advance for all the pixels in the image, and the image / position correspondence storage section 42 is calculated. The look-up table is recorded in the table, and the global coordinates (x, y, t) of the person position are obtained by referring to the look-up table with respect to (u, v) obtained by the person detecting device 3. is there.

【0086】次に、人物密度計測部43の処理について
説明する。図12は、人物位置検出部41によって得ら
れた各人物の実空間中の位置をxy平面に投影し、プロ
ットした例を示す図である。人物の位置を推定する領域
として、図11の4点(xi,yi,t)(但し、i=
1..4)で囲まれた領域を予め設定しているので、図
12には、その領域内にあるもののみについて示されて
いる。図13は、この領域を36個の小領域に分割して、
それぞれの領域別に何人の人物がいるかを示している。
この図は、36個のほぼ均等な大きさの領域に分割して
示ししているが、領域の個数および各領域の大きさは用
途に応じて自由に設定することができ、また、人物の位
置を推定する領域も図13のように長方形である必要も
なく、領域の大きさおよび形状を用途に応じてて自由に
設定することができる。図13では各領域を識別するた
めに領域1〜領域36と名前をつけ、各領域をSi
{(x,y)|xl[i]≦x≦xr[i],yb[i]
≦y≦yt[i]}(iは1..36までの整数)と定
義する。ここで、xl[i]およびxr[i]は、それぞ
れ領域iの左端(左辺)および右端(右辺)のx座標で
ある。同様に、yb[i]およびyt[i]は、それぞれ
領域iの下端(下底)および上端(上底)のy座標であ
る。各人物位置のグローバル座標系での値を(xj
j)(jは1から人物総数までの値)とすれば、(xj
j)∈Siのとき(xj,yj)が領域i内に存在すると
する。このような方法で各領域についてその中に存在す
る人物の数を計算し、その結果を計数結果記憶装置5
(図1参照)に出力する。
Next, the processing of the person density measuring section 43 will be described. FIG. 12 is a diagram illustrating an example in which the position of each person in the real space obtained by the person position detection unit 41 is projected on the xy plane and plotted. As a region for estimating the position of a person, four points in FIG. 11 (x i, y i, t) ( where, i =
1. . Since the area surrounded by 4) is set in advance, FIG. 12 shows only the area within the area. FIG. 13 divides this area into 36 small areas,
It shows how many people are in each area.
In this figure, the area is divided into 36 areas of substantially equal size. However, the number of areas and the size of each area can be freely set according to the application. The region for estimating the position does not need to be rectangular as shown in FIG. 13, and the size and shape of the region can be set freely according to the application. In FIG. 13, regions 1 to 36 are named to identify each region, and each region is named S i =
{(X, y) | x l [i] ≦ x ≦ x r [i], y b [i]
≦ y ≦ y t [i]} (i is an integer up to 1.36). Here, x l [i] and x r [i] are the x coordinates of the left end (left side) and right end (right side) of the area i, respectively. Similarly, y b [i] and y t [i] are y coordinates of the lower end (lower base) and the upper end (upper base) of the area i, respectively. The value of each person position in the global coordinate system is (x j ,
y j ) (j is a value from 1 to the total number of persons), (x j ,
When y j ) ∈S i , it is assumed that (x j , y j ) exists in the region i. In this way, the number of persons existing in each area is calculated for each area, and the result is counted.
(See FIG. 1).

【0087】人物計数装置4により計数された人物密度
結果、および計数結果記憶装置5に蓄積された過去の時
刻における人物計数結果は、計数結果表示装置6におい
て、必要あるいは操作者の要求に応じて例えば図14の
ような密度の大小を画像の濃淡で示したグラフで示した
り(図14では、濃淡を斜線で表示しているが、実際に
はカラーで表示する)、各小領域の時間別の密度の変化
をグラフ化するなど、様々な加工が行われ表示される。
本実施例は、図14のような広領域における人物密度の
測定、例えばプラットホームの混雑状況の測定などに有
用である。
The result of the person density counted by the person counting device 4 and the result of the person counting at the past time stored in the counting result storage device 5 are displayed on the counting result display device 6 as necessary or in response to the operator's request. For example, the magnitude of the density as shown in FIG. 14 is indicated by a graph indicating the density of the image (in FIG. 14, the density is indicated by diagonal lines, but is actually displayed in color). Various processes are performed, such as graphing the change in the density of the data, and displayed.
This embodiment is useful for measuring the density of a person in a wide area as shown in FIG. 14, for example, measuring the congestion state of a platform.

【0088】つぎに、図1の計数結果表示装置6の一実
施例を説明する。図15は、計数結果表示装置6の第1
の実施例のブロック図である。本実施例では、店舗の室
内全体を見渡せる広角カメラによって、画像取得装置2
(図1参照)から画像を取得し、計数結果記憶装置5
は、店舗に来店した顧客数を画像取得時刻と共に記録す
る。
Next, an embodiment of the counting result display device 6 shown in FIG. 1 will be described. FIG. 15 shows a first example of the counting result display device 6.
FIG. 4 is a block diagram of an embodiment of FIG. In the present embodiment, the image acquisition device 2 is provided by a wide-angle camera that can overlook the entire room of the store.
(See FIG. 1), an image is acquired, and the counting result storage device 5
Records the number of customers who have visited the store together with the image acquisition time.

【0089】購買客数記憶部602は、POSなどに記
録したデータをもとに、単位時間あたりの購買客数を全
営業時間にわたって記憶している。購買率表示装置部6
01は、図1の計数結果記憶装置5に記憶された単位時
間あたりの来店客数と前記購買客数記憶部602に記憶
された購買客数をもとに、時間別あるいは曜日別などの
所定の条件に従って購買率(購買客数/来店客数)を集
計する。
The number-of-purchasers storage unit 602 stores the number of customers per unit time based on data recorded in the POS or the like over the entire business hours. Purchase rate display unit 6
01 is based on the number of shoppers per unit time stored in the counting result storage device 5 of FIG. 1 and the number of shoppers stored in the number of shoppers storage unit 602 according to predetermined conditions such as hourly or day of week. Aggregate the purchase rate (number of customers / number of visitors).

【0090】図16は、計数結果表示装置6の第2の実
施例のブロック図である。本実施例においても、店舗の
室内全体を見渡せる広角カメラによって、画像取得装置
2(図1参照)から画像を取得し、計数結果記憶装置5
は、店舗に来店した顧客数を画像取得時刻と共に記録す
る。
FIG. 16 is a block diagram of a second embodiment of the counting result display device 6. Also in the present embodiment, an image is acquired from the image acquisition device 2 (see FIG. 1) by a wide-angle camera that can overlook the entire room of the store, and the counting result storage device 5 is used.
Records the number of customers who have visited the store together with the image acquisition time.

【0091】従業員数記憶部612は、各時刻に労働し
ている従業員数を記憶する。平均接客数表示部611
は、計数結果記憶装置5(図1参照)に記憶された単位
時間あたりの来店客数と従業員数記憶装置612に記憶
された従業員数をもとに、時間別または曜日別などの所
定の条件に従って従業員1人あたりの接客数(来店客数
/従業員数)を集計し、表示する。
[0091] The number of employees storage unit 612 stores the number of employees working at each time. Average customer count display section 611
Is based on the number of customers per unit time stored in the counting result storage device 5 (see FIG. 1) and the number of employees stored in the number of employees storage device 612 according to predetermined conditions such as hourly or day of week. Number of customers per employee (number of customers visiting stores)
/ Number of employees) and display.

【0092】図17は、計数結果表示装置6の第3の実
施例のブロック図である。本実施においては、店舗内を
撮影して画像を得るとき、あらかじめ所定のレジ周辺を
処理対象領域として設定し、人物計数装置4によってそ
れぞれ所定の領域内の人物を計数し、計数結果記憶装置
5において、それぞれの領域における人物計数結果を、
レジに並ぶ顧客の人数として画像取得時刻と共に記録す
る。使用レジ数記憶部622は、各時刻に使用されてい
るレジ数を記憶する。レジ数コンサルト部621は、使
用レジ数記憶部622に記憶されている内容を読み込
み、レジに並ぶ顧客人数から推定される最適レジ数と使
用レジ数記憶装置に記憶されているレジ数とを比較し、
各時刻毎に使用されているレジ数が必要数を上回ってい
るかあるいは下回っているかを時間別または曜日別など
の所定の条件に従って集計し表示する。
FIG. 17 is a block diagram of a third embodiment of the counting result display device 6. In the present embodiment, when an image is obtained by photographing the inside of a store, a predetermined cash register periphery is set in advance as a processing target area, the persons in the predetermined area are counted by the person counting device 4, and the counting result storage device 5 is used. In, the person counting result in each area,
The number of customers lined up at the cash register is recorded together with the image acquisition time. The used register number storage unit 622 stores the number of cash registers used at each time. The cashier number consulting unit 621 reads the contents stored in the used cashier storage unit 622 and compares the optimal cashier number estimated from the number of customers in the cashier with the cashier number stored in the used cashier storage device. And
Whether the number of cash registers used at each time is greater than or less than the required number is totaled and displayed according to a predetermined condition such as hourly or weekly.

【0093】図18は、計数結果表示装置6の第4の実
施例のブロック図である。本実施例においては、あらか
じめ特定の売場を処理対象領域として設定して店舗内を
撮影して画像を取得する。人物計数装置4は所定の領域
内の人物を計数し、計数結果記憶装置5は、それぞれの
領域における人物計数結果を、特定の売場内にいる顧客
の人数として画像取得時刻と共に記録する。
FIG. 18 is a block diagram of a fourth embodiment of the counting result display device 6. In this embodiment, a specific sales floor is set in advance as a processing target area, and an image is acquired by photographing the inside of the store. The person counting device 4 counts the people in a predetermined area, and the counting result storage device 5 records the person counting result in each area as the number of customers in a specific sales floor together with the image acquisition time.

【0094】売場内従業員記憶部632は、各時刻に上
記の売場に配置されている従業員数を記憶する。売場内
従業員数コンサルト部631は、売場内従業員記憶部6
32の記憶内容を読み込み、特定売場内の顧客人数から
推定される最適従業員数と従業員数記憶装置に記憶され
た従業員数とを比較し、各時刻毎に配置されている従業
員数が必要数を上回っているかまたは下回っているかを
時間別あるいは曜日別などの所定の条件に従って集計し
表示する。
The in-store employee storage unit 632 stores the number of employees placed in the above-mentioned store at each time. The consultation number 631 for the number of employees in the sales floor is the employee storage unit 6 in the sales floor.
32, and compares the optimum number of employees estimated from the number of customers in the specific store with the number of employees stored in the number-of-employees storage device. Whether the value is higher or lower is counted and displayed according to a predetermined condition such as hourly or weekday.

【0095】図19は、計数結果表示装置6の第5の実
施例のブロック図である。この実施形態では、スキー場
または遊園地などの遊戯施設内を撮影して得られる画像
について、あらかじめ所定のリフト乗り場周辺またはア
トラクション施設の入り口周辺を処理対象領域として設
定する。
FIG. 19 is a block diagram of a fifth embodiment of the counting result display device 6. In this embodiment, for an image obtained by photographing the inside of a playground such as a ski resort or an amusement park, the vicinity of a predetermined lift landing or the entrance of an attraction facility is set in advance as a processing target area.

【0096】人物計数装置4は、それぞれ所定の領域内
の人物を計数する。計数結果記憶装置5は、それぞれの
領域における人物計数結果を、リフトあるいはアトラク
ション施設に並ぶ顧客の人数として画像取得時刻と共に
記録する。単位時間処理人数記憶部642は、各リフト
あるいはアトラクション施設が単位時間あたりに捌く人
数を記憶する。待ち時間表示部641は、単位時間処理
人数記憶部642の記憶内容を読み込み、リフトあるい
はアトラクション施設に並ぶ顧客の、記録された人数と
単位時間処理人数記憶部に記憶された各リフトまたはア
トラクション施設が単位時間あたりに捌く人数から、撮
像時刻において顧客が当該施設のサービスに対する待ち
時間(並んでいる顧客の人数/単位時間に施設が捌く人
数)を算出し、遊戯施設内外の各地点に設けた掲示板な
どに算出した待ち時間を表示する。
The person counting device 4 counts persons in a predetermined area. The counting result storage device 5 records the number of people counted in each area as the number of customers in a lift or an attraction facility together with the image acquisition time. The unit time processing number storage unit 642 stores the number of people that each lift or attraction facility handles per unit time. The waiting time display unit 641 reads the stored contents of the unit time processing number storage unit 642, and displays the recorded number of customers and the lifts or attraction facilities stored in the unit time processing number storage unit of the customers lined up in the lift or attraction facility. The waiting time for the service of the facility at the time of imaging (the number of customers lined up / the number of facilities that the facility handles in the unit time) is calculated from the number of people handling per unit time at the imaging time, and a bulletin board provided at each point inside and outside the play facility Display the calculated waiting time.

【0097】以上の各実施の形態については、適宜条件
を変更して実施可能であり、例えばカメラの数、エッジ
検出オペレータの重み形状や間隙の幅、人物モデルの形
状および選択する点の配置や個数などに制限はない。
Each of the above embodiments can be implemented by appropriately changing the conditions. For example, the number of cameras, the weight shape and gap width of the edge detection operator, the shape of the human model, the arrangement of the points to be selected, and the like. There is no limit on the number and the like.

【0098】前掲の人物検出装置による人物検出処理
は、図示されていない記録媒体に記録されている人物検
出プログラムに従って、これも図示されていないプロセ
ッサの制御のもとで実行される。
The above-described person detection processing by the person detection apparatus is executed under the control of a processor (not shown) in accordance with a person detection program recorded on a recording medium (not shown).

【0099】本発明の人物検出プログラムは、 多数の
人物が存在または移動する領域を撮影するカメラによっ
て撮影された画像フレームを取り込んで画像処理可能な
画像を作成する画像取得処理と、人物形状モデルを保持
し、前記画像処理可能な画像から、人物形状モデルに合
致する形状を有する画像を抽出し、抽出された各画像を
画像面中に撮像されている人物として、抽出された各人
物が存在する位置を代表する点の、画像平面上における
座標を出力する人物検出処理と、人物検出手段によって
得られた人物検出結果から画像面の視界内に存在する人
物数を計数する人物計数手段と、人物計数手段によって
計数された人物数を、画像を撮像した時刻と関連付け、
逐次記録する計数結果記憶処理と、人物計数手段で計数
された画像面中の人物計数結果、または前記計数結果記
憶手段に蓄積されている過去の時刻における人物計数結
果を、必要に応じて加工して表示する計数結果表示処理
を実行するための手順が記述されている。この人物検出
プログラムは、コンピュータに前記人物検出処理を実行
させるために、コンピュータに、人物形状モデル上の予
め設定された複数の点の位置に対応する相対位置に配置
されている1組の特徴量検出器でなる特徴量検出器セッ
トによって、人物形状モデル上におけるそれぞれの位置
に対応する相対位置において、画像取得処理によって得
られた画像面の各点について画像特徴量の検出を行い、
検出された画像特徴量を画像面の座標と対応させて出力
する特徴量算出処理を実行させ、特徴量検出器セットの
各特徴量検出器が前記相対位置において検出した1組の
画像特徴量でなる画像特徴量セットの値に所定の演算を
施して、画像特徴量セットが人物形状モデルと適正に合
致している度合いを評価し、特徴量検出器セットの、画
像面上における位置に対応して評価値を生成し、画像面
の各座標に対応する評価値を表す評価値画像を生成する
評価値演算処理を実行させ、評価値演算処理によって算
出された評価値画像に対し、画像面の各座標の画素につ
いて、当該画素の座標に対応する評価値が近傍の領域に
おいて最大となる評価値極大点を探索し、得られた評価
値極大点の座標を人物の存在する点として出力する極大
点探索処理を実行させるための手順が記述されている。
The person detection program according to the present invention includes an image acquisition process for taking in an image frame taken by a camera for taking an image of an area where a large number of people are present or moving and creating an image capable of image processing; Holding and extracting an image having a shape that matches the human shape model from the image that can be processed, and each extracted person exists as a person whose image is captured in the image plane. A person detection process for outputting coordinates of a point representing a position on the image plane, a person counting unit for counting the number of persons present in the field of view of the image plane from a person detection result obtained by the person detection unit, The number of persons counted by the counting means is associated with the time at which the image was taken,
The counting result storage processing to record sequentially, the person counting result in the image plane counted by the person counting means, or the person counting result at the past time accumulated in the counting result storage means is processed as necessary. A procedure for executing a counting result display process for displaying the count result is described. This person detection program causes the computer to execute a set of feature amounts arranged at relative positions corresponding to positions of a plurality of preset points on the person shape model in order to cause the computer to execute the person detection processing. By a feature amount detector set consisting of a detector, at a relative position corresponding to each position on the human shape model, an image feature amount is detected for each point on the image surface obtained by the image acquisition processing,
A feature amount calculation process of outputting the detected image feature amounts in association with the coordinates of the image plane is executed, and a set of image feature amounts detected by each feature amount detector of the feature amount detector set at the relative position is executed. A predetermined operation is performed on the values of the image feature amount set to evaluate the degree to which the image feature amount set appropriately matches the human shape model, and corresponds to the position of the feature amount detector set on the image plane. To generate an evaluation value, generate an evaluation value image representing an evaluation value corresponding to each coordinate of the image plane, and execute an evaluation value calculation process. For a pixel at each coordinate, a local maximum that searches for an evaluation value local maximum point at which an evaluation value corresponding to the coordinate of the pixel is maximum in a nearby area, and outputs the coordinates of the obtained evaluation value local maximum as a point where a person exists. Execute point search processing Procedure for has been written.

【0100】[0100]

【発明の効果】第1の効果は、画像中の人物を微少な形
状の差異や変化を許容しつつ検出することが可能である
点である。その理由は、間隙を拡張したエッジ検出オペ
レータを用いることにより、輪郭形状が微少に変動して
もオペレータの間隙部分に輪郭があれば高い微分出力値
が得られ、その結果高い評価値を得ることが出来るため
である。
The first effect is that a person in an image can be detected while allowing a slight difference or change in shape. The reason is that by using an edge detection operator with an extended gap, a high differential output value can be obtained if there is a contour in the gap portion of the operator even if the contour shape fluctuates slightly, and as a result, a high evaluation value is obtained. This is because

【0101】第2の効果は、対象人物が相互に隣接して
いる場合でも、各個人を分離して検出できる点である。
その理由は、対象となる人物群が比較的密集している場
合でも隠れにくく、かつ形状変化の比較的少ない頭部と
上半身の輪郭形状をモデルとして特徴量検出器を配置し
て人物検出処理を行うことができるからである。
The second effect is that even when the target persons are adjacent to each other, each individual can be detected separately.
The reason is that even when the target person group is relatively dense, it is difficult to hide, and the feature amount detector is arranged as a model with the contour shape of the head and upper body with relatively little change in shape, and the person detection process is performed. Because it can be done.

【0102】第3の効果は、ハードウェア実装による高
速化が容易である点である。その理由は、人物検出装置
を画像全体のフィルタ処理を中心に構成しているため、
DSP等を用いた画像処理専用ハードウエアを適用して
処理の高速化を図るのが容易なためである。
A third effect is that the speed can be easily increased by hardware mounting. The reason is that the person detection device is mainly configured to filter the entire image,
This is because it is easy to increase the processing speed by applying image processing dedicated hardware using a DSP or the like.

【0103】第4の効果は、システムの設置条件に対す
る制約が少なく、運用における柔軟性が高い点である。
その理由は、人物の形状を用いるため、撮像されている
人物の画像内での形状の変化が顕著で無い限りは、カメ
ラの移動や照明変化の影響を受けにくいためである。
The fourth effect is that there are few restrictions on the installation conditions of the system and the flexibility in operation is high.
The reason is that, since the shape of a person is used, it is hardly affected by the movement of a camera or a change in illumination unless the change in the shape of the imaged person is remarkable.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の構成を示すプロック図で
ある。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】図1の実施形態の処理ルーチンを示すフローチ
ャートである。
FIG. 2 is a flowchart illustrating a processing routine of the embodiment of FIG. 1;

【図3】図1の人物検出装置3の構成を示すブロック図
である。
FIG. 3 is a block diagram illustrating a configuration of a person detection device 3 of FIG. 1;

【図4】人物検出装置3の人物検出処理ルーチンの流れ
を示すフローチャートである。
FIG. 4 is a flowchart showing a flow of a person detection processing routine of the person detection device 3;

【図5】図1の人物検出装置3の構成を示すブロック図
である。
FIG. 5 is a block diagram illustrating a configuration of a person detection device 3 of FIG. 1;

【図6】人物検出装置3において用いられるエッジ検出
オペレータを示す概念図である。
FIG. 6 is a conceptual diagram showing an edge detection operator used in the person detection device 3.

【図7】 人物検出処理に用いられる人物輪郭形状モ
デルとエッジ検出オペレータの配置を示す概念図であ
る。
FIG. 7 is a conceptual diagram showing a person contour shape model used for a person detection process and an arrangement of edge detection operators.

【図8】 エッジ検出オペレータを用いた人物検出処
理ルーチンの内容を示すフローチャートである。
FIG. 8 is a flowchart showing the contents of a person detection processing routine using an edge detection operator.

【図9】 カメラで取得される画像中に監視対象とな
る領域を1つ、または複数個設定されている実施例を示
す概念図である。
FIG. 9 is a conceptual diagram showing an embodiment in which one or a plurality of areas to be monitored are set in an image acquired by a camera.

【図10】図1の人物計数装置4の一実施例のブロック
図である。
FIG. 10 is a block diagram of one embodiment of the person counting device 4 of FIG. 1;

【図11】カメラ配置、人物位置を較正するためのモデ
ル空間を示す図である。
FIG. 11 is a diagram showing a model space for calibrating a camera arrangement and a person position.

【図12】人物密度計測装置9で処理される以前の空間
中の人物位置をプロットしたサンプル図である。
FIG. 12 is a sample diagram in which the position of a person in a space before being processed by the person density measurement device 9 is plotted.

【図13】人物密度計測装置9で処理される各小領域の
例を示す図である。
FIG. 13 is a diagram illustrating an example of each small area processed by the person density measurement device 9;

【図14】計数結果表示装置6で表示された人物密度図
の一例である。
FIG. 14 is an example of a person density diagram displayed on the counting result display device 6;

【図15】計数結果表示装置6の第1の実施例のブロッ
ク図である。
FIG. 15 is a block diagram of a first embodiment of the counting result display device 6;

【図16】計数結果表示装置6の第2の実施例のブロッ
ク図である。
FIG. 16 is a block diagram of a second embodiment of the counting result display device 6;

【図17】計数結果表示装置6の第3の実施例のブロッ
ク図である。
FIG. 17 is a block diagram of a third embodiment of the counting result display device 6.

【図18】計数結果表示装置6の第4の実施例のブロッ
ク図である。
FIG. 18 is a block diagram of a fourth embodiment of the counting result display device 6.

【図19】計数結果表示装置6の第5の実施例のブロッ
ク図である。
FIG. 19 is a block diagram of a counting result display device 6 according to a fifth embodiment.

【符号の説明】[Explanation of symbols]

1 カメラ 2 画像取得装置 3 人物検出装置 301 特徴量算出装置 302 評価値演算装置 303 極大点探索装置 31 画像微分部 32 評価値画像合成部 33 極大点探索部 4 人物計数部 41 人物位置検出部 42 画像・位置対応記憶部 43 人物密度計測部 5 計数結果記憶装置 6 計数結果表示装置 601 購買率表示部 602 購買客数記憶部 611 平均接客数表示部 612 従業員数記憶部 621 レジ数コンサルト部 622 使用レジ数記憶部 631 売場内従業員数コンサルト部 632 売場内従業員数記憶部 641 待ち時間表示部 642 単位時間処理人数記憶部 REFERENCE SIGNS LIST 1 camera 2 image acquisition device 3 person detection device 301 feature amount calculation device 302 evaluation value calculation device 303 local maximum point search device 31 image differentiation unit 32 evaluation value image synthesis unit 33 local maximum point search unit 4 person counting unit 41 human position detection unit 42 Image / position correspondence storage unit 43 Person density measurement unit 5 Counting result storage unit 6 Counting result display unit 601 Purchase rate display unit 602 Purchaser number storage unit 611 Average customer reception number display unit 612 Employee number storage unit 621 Number of cash register consulting unit 622 Cash register used Number storage unit 631 Consultation number of employees in sales floor 632 Storage unit of employees in sales floor 641 Waiting time display unit 642 Storage unit for processing time per unit time

フロントページの続き Fターム(参考) 5B057 BA02 DA13 DC09 DC25 DC33 5L096 AA02 BA08 CA04 CA05 EA15 FA06 FA69 FA81 GA02 GA38 HA08 Continued on the front page F term (reference) 5B057 BA02 DA13 DC09 DC25 DC33 5L096 AA02 BA08 CA04 CA05 EA15 FA06 FA69 FA81 GA02 GA38 HA08

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 多数の人物が存在または移動する領域
を撮影して画像を取得し、取得した画像から人物の画像
を抽出する人物検出処理を実行する人物検出方法におい
て、 人物輪郭を基にした形状の人物形状モデル上の予め設定
された複数の点の位置に対応する相対位置に、検出しよ
うとする人物の特徴量を検出する特徴量検出器を配置し
て特徴量検出器セットを構成し、 特徴量検出器セットを、画像面に設定されている各座標
に対応する各位置に置いて、前記取得した画像の画像特
徴量の検出を行い、 前記各位置において特徴量検出器セットを構成する特徴
量検出器が検出した画像特徴量の値に基づいて、検出さ
れた画像特徴量が、所定の許容範囲内で、前記人物形状
モデルに合致する形状を有する画像の特徴量であること
を判定するための所定の演算を実行し、 演算結果が、前記検出された画像特徴量が前記人物形状
モデルに合致する形状を有する画像の特徴量であること
を示した場合には、当該位置に人物画像が存在すると推
定する、人物検出方法。
1. A person detection method for photographing an area in which a large number of people exist or move and acquiring an image, and performing a person detection process of extracting a person image from the acquired image, the method comprising: A feature detector for detecting a feature of a person to be detected is arranged at a relative position corresponding to the positions of a plurality of points set in advance on the shape of a human figure to constitute a feature detector set. The feature amount detector set is placed at each position corresponding to each coordinate set on the image plane, and the image feature amount of the acquired image is detected, and the feature amount detector set is configured at each of the positions. Based on the value of the image feature amount detected by the feature amount detector, the detected image feature amount is a feature amount of an image having a shape matching the human shape model within a predetermined allowable range. To judge When a predetermined calculation is performed, and the calculation result indicates that the detected image feature amount is a feature amount of an image having a shape that matches the human shape model, a person image exists at the position. Then, a person detection method to estimate.
【請求項2】 前記所定の演算は、特徴量検出器セット
の各位置において、それぞれの特徴量検出器が検出した
特徴量の積を演算し、その積を所定の閾値と比較し、そ
の積の値が当該所定の閾値を超えるとき、当該画像を当
該位置における人物画像と判定する処理を含んでいる、
請求項1に記載の人物検出方法。
2. The method according to claim 1, wherein, at each position of the feature amount detector set, a product of the feature amounts detected by the respective feature amount detectors is calculated, and the product is compared with a predetermined threshold value. When the value exceeds the predetermined threshold, the processing includes determining that the image is a person image at the position.
The person detection method according to claim 1.
【請求項3】 前記所定の演算は、それぞれの特徴量検
出器が検出した特徴量の積を評価値として当該特徴量検
出器セットの位置に対応する画像面の座標に対応付けて
評価値画像を生成し、評価値画像内の各画素を中心とす
る局所領域を設定し、局所領域内で評価値が極大になる
極大点を探索し、その極大点のうち、評価値が所定のし
きい値を超える極大点が存在する局所領域の中心にある
画素を人物が存在する点とする処理を含んでいる請求項
2に記載の方法。
3. The method according to claim 1, wherein the predetermined calculation is performed by associating a product of the feature amounts detected by each of the feature amount detectors with an evaluation value image in association with coordinates of an image plane corresponding to a position of the feature amount detector set. Is generated, a local area centered on each pixel in the evaluation value image is set, a local maximum point at which the evaluation value becomes maximum is searched for in the local area, and among the local maximum points, the evaluation value is a predetermined threshold. The method according to claim 2, further comprising a process of setting a pixel at the center of the local area where the maximum point exceeding the value is present as a point where a person is present.
【請求項4】 人物形状モデル上の予め設定された複数
の点の位置に対応する相対位置に配置されたそれぞれの
特徴量検出器を、当該人物形状モデル上の予め設定され
た点に対応する特徴量検出器と定義し、前記人物形状モ
デル上の前記予め設定された複数の点の位置から、人物
形状モデルに任意に設定した基準点への変位ベクトル
を、当該複数の点に対応する特徴量検出器の特徴量変位
ベクトルと定義し、それぞれの特徴量検出器が検出した
特徴量を、その特徴量が検出された位置から特徴量変位
ベクトルだけ変位した位置の座標に対応付けて、当該特
徴量検出器に対応する、当該座標における変位特徴量と
定義するとき、前記それぞれの特徴量検出器が検出した
特徴量の積の演算は、画像面の各座標について、各特徴
量検出器に対応する変位特徴量の積を演算する処理を含
んでいる、請求項2に記載の方法。
4. A method according to claim 1, wherein each of the feature amount detectors arranged at relative positions corresponding to a plurality of preset points on the human shape model corresponds to a predetermined point on the human shape model. A feature vector is defined as a feature amount detector, and a displacement vector from a position of the plurality of preset points on the human shape model to a reference point arbitrarily set in the human shape model is a feature corresponding to the plurality of points. The feature amount is defined as a feature amount displacement vector of the amount detector, and the feature amount detected by each feature amount detector is associated with the coordinates of a position displaced by the feature amount displacement vector from the position where the feature amount is detected, and When defining a displacement feature value at the coordinates corresponding to the feature value detector, the calculation of the product of the feature values detected by the respective feature value detectors is performed for each feature value detector for each coordinate on the image plane. Corresponding changes The method according to claim 2, further comprising a process of calculating a product of the position features.
【請求項5】 多数の人物が存在または移動する領域を
撮影するカメラによって撮影された画像フレームを取り
込んで画像処理可能な画像を作成する画像取得手段と、
人物形状モデルを保持し、前記画像処理可能な画像か
ら、人物形状モデルに合致する形状を有する画像を抽出
し、抽出された各画像を画像面中に撮像されている人物
として、抽出された各人物が存在する位置を代表する点
の、画像平面上における座標を出力する人物検出手段と
を有する人物検出装置において、前記人物検出手段は、 人物形状モデル上の予め設定された複数の点の位置に対
応する相対位置に配置されている1組の特徴量検出器で
なる特徴量検出器セットを備え、前記特徴量検出器セッ
トによって、人物形状モデル上におけるそれぞれの位置
に対応する相対位置において、画像取得手段によって得
られた画像面の各点について画像特徴量の検出を行い、
検出された画像特徴量を画像面の座標と対応させて出力
する特徴量算出部と、 特徴量検出器セットの各特徴量検出器が前記相対位置に
おいて検出した1組の画像特徴量でなる画像特徴量セッ
トの値に所定の演算を施して、画像特徴量セットが人物
形状モデルと適正に合致している度合いを評価し、特徴
量検出器セットの、画像面上における位置に対応して評
価値を生成し、画像面の各座標に対応する評価値を表す
評価値画像を生成する評価値演算部と、 評価値演算部によって算出された評価値画像に対し、画
像面の各座標の画素について、当該画素の座標に対応す
る評価値が近傍の領域において最大となる評価値極大点
を探索し、得られた評価値極大点の座標を人物の存在す
る点として出力する極大点探索部とを有することを特徴
とする人物検出装置。
5. An image acquiring means for acquiring an image frame photographed by a camera photographing an area where a large number of persons are present or moving, and creating an image capable of image processing,
Holding a person shape model, from the image that can be image-processed, extract an image having a shape that matches the person shape model, each extracted image as a person being imaged in the image plane, each extracted A person detecting unit that outputs coordinates on the image plane of a point representing a position where a person is present, wherein the person detecting unit is configured to determine positions of a plurality of preset points on a person shape model. A feature amount detector set consisting of a set of feature amount detectors arranged at relative positions corresponding to the, at the relative position corresponding to each position on the human shape model by the feature amount detector set, The image feature amount is detected for each point on the image plane obtained by the image obtaining means,
A feature amount calculating unit that outputs the detected image feature amount in association with the coordinates of the image plane; and an image that is a set of image feature amounts detected by the feature amount detectors of the feature amount detector set at the relative position. A predetermined operation is performed on the values of the feature set to evaluate the degree to which the image feature set appropriately matches the human shape model, and the feature detector set is evaluated in accordance with the position on the image plane. An evaluation value calculating unit that generates a value and generates an evaluation value image representing an evaluation value corresponding to each coordinate on the image surface; and a pixel at each coordinate on the image surface with respect to the evaluation value image calculated by the evaluation value calculation unit. A maximum value search unit that searches for an evaluation value maximum point at which an evaluation value corresponding to the coordinates of the pixel is maximum in a nearby area, and outputs the obtained evaluation value maximum point coordinates as a point where a person is present. A person characterized by having Detection device.
【請求項6】 特徴量算出部は、特徴量検出器セットと
して1組のエッジ検出オペレータでなるオペレータセッ
トを備え、前記オペレータセットによって、人物形状モ
デルの輪郭上における複数の位置に対応する相対位置に
おいて、画像取得手段によって得られた画像面の各点に
ついて画像輪郭の検出を行い、検出された画像輪郭の検
出値を画像面の座標と対応させて出力し、 前記人物形状モデル上の予め設定された複数の点の位置
から、人物形状モデルに任意に設定した基準点への変位
ベクトルを、当該複数の点の位置に対応する相対位置に
あるエッジ検出オペレータの特徴量変位ベクトルと定義
し、それぞれのエッジ検出オペレータが検出したエッジ
検出値を、そのエッジ検出値が検出された位置から特徴
量変位ベクトルだけ変位した位置の座標に対応付けて、
当該エッジ検出オペレータに対応する当該座標における
変位特徴量と定義するとき、 評価値演算部は、前記画像特徴量セットの値に対する所
定の演算として、画像面の各座標について、それぞれの
エッジ検出オペレータが検出したエッジ検出値について
の変位特徴量の積を演算し、 極大点探索部は、評価値演算部によって得られた評価値
画像内の各画素を中心とする局所領域を設定し、局所領
域内で評価値が極大となる極大点を探索し、評価値が所
定のしきい値を超える極大点が存在する局所領域の中心
にある画素の位置を人物が存在する点の位置として出力
する、請求項5に記載の装置。
6. The feature amount calculation unit includes an operator set including a set of edge detection operators as a feature amount detector set, and the operator set determines a relative position corresponding to a plurality of positions on the contour of the human shape model. Detecting an image contour for each point on the image plane obtained by the image acquisition means, outputting a detected value of the detected image contour in association with the coordinates of the image plane, From the positions of the plurality of points, a displacement vector to a reference point arbitrarily set in the human shape model is defined as a feature amount displacement vector of an edge detection operator at a relative position corresponding to the positions of the plurality of points, The edge detection value detected by each edge detection operator is displaced by a feature displacement vector from the position where the edge detection value is detected. In association with the coordinates,
When defining the displacement feature amount at the coordinates corresponding to the edge detection operator, the evaluation value calculation unit performs, as a predetermined operation on the value of the image feature amount set, the respective edge detection operators for each coordinate on the image plane. The product of the displacement feature amounts for the detected edge detection values is calculated. The local maximum point searching unit sets a local region centered on each pixel in the evaluation value image obtained by the evaluation value calculation unit, Search for the maximum point where the evaluation value is maximum, and output the position of the pixel at the center of the local area where the maximum value where the evaluation value exceeds the predetermined threshold exists as the position of the point where the person exists. Item 6. The apparatus according to Item 5.
【請求項7】 評価値演算部は、特徴量検出器として、
検出エッジ幅が小さいエッジ検出オペレータと、検出エ
ッジ幅が大きいエッジ検出オペレータとを有し、各々の
エッジ検出オペレータは、人物画像の形状に微少な変化
があっても安定した検出値を出力する程度に、重みを持
たない中央間隙部の領域幅を拡張した間隙拡張オペレー
タであり、エッジ検出オペレータは、隠蔽が発生しにく
く形状変化が少ない人物の部位に対応する相対位置に配
置される、請求項6に記載の装置。
7. The evaluation value calculation unit includes:
It has an edge detection operator with a small detection edge width and an edge detection operator with a large detection edge width, and each edge detection operator outputs a stable detection value even if there is a slight change in the shape of the human image. A gap extending operator having an increased width of a central gap portion having no weight, wherein the edge detection operator is arranged at a relative position corresponding to a part of a person where concealment hardly occurs and shape change is small. 7. The apparatus according to 6.
【請求項8】 人物検出手段によって得られる検出結果
に基づいて、撮影されている領域内に存在する人物を計
数する人物計数手段を有し、前記人物計数手段は、 人物の実空間中の位置を推定するために必要なパラメー
タの値、または画素と人物の空間位置とを記載したルッ
クアップテーブルを記憶し、測定を行う前に事前に初期
設定でキャリブレーションを行って画像中の各画素と空
間位置との対応をとって、該対応を予め記憶する、画像
・位置対応記憶部と、 人物検出手段の出力する人物が存在する点を画像中の人
物画像の頭の位置とみなし、画像・位置対応記憶装置4
2の情報をもとに、人物の空間中の位置を推定する人物
位置検出部と、 人物位置検出部で検出された人物位置に基づいて、微少
領域内での人数を計測し、人物密度を算出する人物密度
計測部とを有する請求項5に記載の装置。
8. A human counting means for counting the number of persons present in the area being photographed based on the detection result obtained by the person detecting means, wherein the person counting means comprises: A parameter value required to estimate the or a look-up table that describes the pixel and the spatial position of the person and stores each pixel in the image by performing calibration in the initial settings before performing measurement. An image / position correspondence storage unit that stores the correspondence with the spatial position and stores the correspondence in advance, and regards the point at which the person output by the person detecting means is present as the position of the head of the person image in the image. Position correspondence storage device 4
Based on the information of 2 above, a person position detecting unit that estimates the position of the person in the space, and based on the person position detected by the person position detecting unit, the number of persons in the micro area is measured, and the person density is calculated. The apparatus according to claim 5, further comprising: a person density measuring unit for calculating.
【請求項9】 キャリブレーションは、5つの所定の空
間位置に配置した物点位置と、該物点を撮像して得られ
る像点との、画像平面上の位置との関係を、カメラのグ
ローバル座標とカメラの姿勢を表す2つの角度をパラメ
ータとして5つの方程式で記述し、最小2乗法によって
最も確からしいカメラのグローバル座標とカメラの姿勢
を表す2つの角度を演算する処理を含んでいる請求項8
に記載の装置。
9. Calibration is performed by determining the relationship between the position of an object point arranged at five predetermined spatial positions and the position of an image point obtained by imaging the object point on the image plane. The method includes describing the coordinates and two angles representing the camera posture as parameters using five equations, and calculating the most probable global coordinates of the camera and the two angles representing the camera posture by the least squares method. 8
An apparatus according to claim 1.
【請求項10】 人物計数手段により計数された人物密
度を、画像を撮像した時刻と関連付け、逐次記録する計
数結果記憶手段を有する請求項8に記載の装置。
10. The apparatus according to claim 8, further comprising a counting result storage unit that sequentially associates the person density counted by the person counting unit with the time at which the image was captured and records the result.
【請求項11】 人物計数手段によって得られた計数結
果、または前記計数結果記憶手段に蓄積された過去の時
刻の計数結果を、必要に応じて加工し表示を行う計数結
果表示手段 を有し、前記計数結果表示手段は、記録し
たデータに基づいて、単位時間あたりの購買客数を全営
業時間にわたって記憶する購買客数記憶部と、計数結果
記憶装置に記憶された単位時間あたりの来店客数と前記
購買客数記憶部に記憶された購買客数をもとに、所定の
条件に従って購買率、すなわち購買客数/来店客数を集
計する購買率表示部とを有する、請求項8に記載の装
置。
11. A counting result display means for processing and displaying the counting result obtained by the person counting means or the counting result of the past time accumulated in the counting result storage means as necessary, The counting result display means stores, based on the recorded data, the number of customers per unit time over all business hours, a number of customers per unit time stored in a counting result storage device, and 9. The apparatus according to claim 8, further comprising: a purchase rate display unit that totalizes a purchase rate, that is, the number of purchasers / the number of customers visiting the store, according to predetermined conditions based on the number of purchasers stored in the number-of-customers storage unit.
【請求項12】 人物計数手段によって得られた計数結
果、または前記計数結果記憶手段に蓄積された過去の時
刻の計数結果を、必要に応じて加工し表示を行う計数結
果表示手段 を有し、前記計数結果表示手段は、各時刻
に労働している従業員数を記憶する従業員数記憶部と、
計数結果記憶手段に記憶された単位時間あたりの来店客
数と従業員数記憶部に記憶された従業員数に基づいて、
所定の条件に従って従業員1人あたりの接客数、すなわ
ち、来店客数/従業員数を集計し、かつ、表示する、平
均接客数表示部を有する、請求項8に記載の装置。
12. A counting result display means for processing and displaying the counting result obtained by the person counting means or the counting result of the past time stored in the counting result storage means as necessary, The counting result display means, an employee number storage unit that stores the number of employees working at each time,
Based on the number of visitors per unit time stored in the counting result storage means and the number of employees stored in the number of employees storage unit,
9. The apparatus according to claim 8, further comprising an average number of customers displayed, which counts and displays the number of customers per employee, that is, the number of customers visiting the store / the number of employees according to predetermined conditions.
【請求項13】 人物計数手段によって得られた計数結
果、または前記計数結果記憶手段に蓄積された過去の時
刻の計数結果を、必要に応じて加工し表示を行う計数結
果表示手段 を有し、前記計数結果表示手段は、各時刻
に使用されているレジ数を記憶する使用レジ数記憶部
と、レジに並ぶ顧客人数から推定される最適レジ数と使
用レジ数記憶装置に記憶されたレジ数とを比較し、各時
刻毎に使用されているレジ数が必要数を上回っている
か、または下回っているかを所定の条件に従って集計し
表示するレジ数コンサルト部とを有する、請求項8に記
載の装置。
13. A counting result display means for processing and displaying, as necessary, a counting result obtained by the person counting means or a counting result of a past time stored in the counting result storage means, The counting result display means includes a used cash register number storage unit for storing the cash register number used at each time, an optimal cash register number estimated from the number of customers arranged in the cash register, and a cash register number stored in the used cash register memory device. And a register number consulting unit for counting and displaying whether the number of cash registers used at each time is greater than or less than a required number according to a predetermined condition. apparatus.
【請求項14】 人物計数手段によって得られた計数結
果、または前記計数結果記憶手段に蓄積された過去の時
刻の計数結果を、必要に応じて加工し表示を行う計数結
果表示手段 を有し、前記計数結果表示手段は、 各時刻に上記の売場に配置されている従業員数を記憶す
る売場内従業員記憶部と、特定売場内の顧客人数から推
定される最適従業員数と従業員数記憶装置に記憶された
従業員数とを比較し、各時刻毎に配置されている従業員
数が必要数を上回っているかまたは下回っているかを所
定の条件に従って集計し表示する売場内従業員数コンサ
ルト部とを有する、請求項8に記載の装置。
14. A counting result display means for processing and displaying the counting result obtained by the person counting means or the counting result of the past time accumulated in the counting result storage means as necessary, The counting result display means includes an in-store employee storage unit that stores the number of employees arranged in the counter at each time, and an optimum number of employees and a number of employees storage device estimated from the number of customers in a specific counter. Comparing with the stored number of employees, the number of employees arranged at each time has a consultation section for the number of employees in the sales floor which aggregates and displays whether the number of employees is more or less than the required number according to predetermined conditions, An apparatus according to claim 8.
【請求項15】 人物計数手段によって得られた計数結
果、または前記計数結果記憶手段に蓄積された過去の時
刻の計数結果を、必要に応じて加工し表示を行う計数結
果表示手段 を有し、前記計数結果表示手段は、各リフ
トあるいはアトラクション施設が単位時間あたりに捌く
人数を記憶する単位時間処理人数記憶部とリフトあるい
はアトラクション施設に並ぶ顧客の、記録された人数と
単位時間処理人数記憶部に記憶された各リフトまたはア
トラクション施設が単位時間あたりに捌く人数から、撮
像時刻において顧客が当該施設のサービスに対する待ち
時間、すなわち、並んでいる顧客の人数/単位時間に施
設が捌く人数を算出し、遊戯施設内外の各地点に設けた
掲示板などに算出した待ち時間を表示する待ち時間表示
部とを有する請求項8に記載の装置。
15. Counting result display means for processing and displaying the counting result obtained by the person counting means or the counting result of the past time stored in the counting result storage means as necessary, The counting result display means includes a unit time processing number storage unit that stores the number of people that each lift or attraction facility handles per unit time, and a recorded number of unit and processing time unit number of customers who line up in the lift or attraction facility. From the stored number of people that each lift or attraction facility handles per unit time, calculate the waiting time for the service of the facility at the imaging time, that is, the number of customers that the facility handles per unit time / unit time at the imaging time, A waiting time display unit for displaying the calculated waiting time on a bulletin board or the like provided at each point inside and outside the game facility. The apparatus according to.
【請求項16】 多数の人物が存在または移動する領域
を撮影するカメラによって撮影された画像フレームを取
り込んで画像処理可能な画像を作成する画像取得処理
と、人物形状モデルを保持し、前記画像処理可能な画像
から、人物形状モデルに合致する形状を有する画像を抽
出し、抽出された各画像を画像面中に撮像されている人
物として、抽出された各人物が存在する位置を代表する
点の、画像平面上における座標を出力する人物検出処理
と、人物検出手段によって得られた人物検出結果から画
像面の視界内に存在する人物数を計数する人物計数手段
と、人物計数手段によって計数された人物数を、画像を
撮像した時刻と関連付け、逐次記録する計数結果記憶処
理と、人物計数手段で計数された画像面中の人物計数結
果、または前記計数結果記憶手段に蓄積されている過去
の時刻における人物計数結果を、必要に応じて加工して
表示する計数結果表示処理を実行するための手順が記述
されている人物検出プログラムを記録している記録媒体
であって、前記人物検出プログラムは、コンピュータに
前記人物検出処理を実行させるために、 人物形状モデル上の予め設定された複数の点の位置に対
応する相対位置に配置されている1組の特徴量検出器で
なる特徴量検出器セットによって、人物形状モデル上に
おけるそれぞれの位置に対応する相対位置において、画
像取得処理によって得られた画像面の各点について画像
特徴量の検出を行い、検出された画像特徴量を画像面の
座標と対応させて出力する特徴量算出処理を実行させ、 特徴量検出器セットの各特徴量検出器が前記相対位置に
おいて検出した1組の画像特徴量でなる画像特徴量セッ
トの値に所定の演算を施して、画像特徴量セットが人物
形状モデルと適正に合致している度合いを評価し、特徴
量検出器セットの、画像面上における位置に対応して評
価値を生成し、画像面の各座標に対応する評価値を表す
評価値画像を生成する評価値演算処理を実行させ、 評価値演算処理によって算出された評価値画像に対し、
画像面の各座標の画素について、当該画素の座標に対応
する評価値が近傍の領域において最大となる評価値極大
点を探索し、得られた評価値極大点の座標を人物の存在
する点として出力する極大点探索処理を実行させるため
の手順が記述されていることを特徴とする人物検出プロ
グラムが記録されている記録媒体。
16. An image acquisition process for capturing an image frame captured by a camera for capturing an area where a large number of people are present or moving and creating an image that can be subjected to image processing. From the possible images, an image having a shape matching the human shape model is extracted, and each of the extracted images is taken as a person being imaged on the image plane, and a point representing a position where each of the extracted people is present is located. A person detection process for outputting coordinates on the image plane, a person counting means for counting the number of persons present in the field of view of the image plane from a person detection result obtained by the person detecting means, A count result storage process for sequentially recording the number of persons in association with the time at which the image was captured, and a person count result in the image plane counted by the person counting means, or the counting result. Recording a person detection program that describes a procedure for executing a counting result display process of processing and displaying, as necessary, a person counting result at a past time stored in the result storage means. A medium, wherein the person detection program is a program for causing a computer to execute the person detection process, wherein one set of relative positions corresponding to positions of a plurality of preset points on a person shape model is provided. The feature amount detector set, which is a feature amount detector, detects an image feature amount for each point on the image surface obtained by the image acquisition process at a relative position corresponding to each position on the human shape model, and performs detection. A feature value calculation process of outputting the obtained image feature values in association with the coordinates of the image plane, wherein each feature value detector of the feature value detector set has the relative position. A predetermined operation is performed on the value of the image feature amount set composed of a set of image feature amounts detected in the above, and the degree to which the image feature amount set appropriately matches the human shape model is evaluated. Generates an evaluation value corresponding to the position of the set on the image surface, and executes an evaluation value calculation process of generating an evaluation value image representing an evaluation value corresponding to each coordinate of the image surface. For the evaluation value image
For a pixel at each coordinate on the image plane, an evaluation value corresponding to the coordinates of the pixel is searched for a maximum evaluation value maximum point in a nearby area, and the coordinates of the obtained maximum evaluation value point are determined as points where a person exists. A recording medium on which a person detection program is recorded, in which a procedure for executing a maximum point search process to be output is described.
JP36487599A 1999-12-22 1999-12-22 Method and device for human detection Pending JP2001175868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36487599A JP2001175868A (en) 1999-12-22 1999-12-22 Method and device for human detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36487599A JP2001175868A (en) 1999-12-22 1999-12-22 Method and device for human detection

Publications (1)

Publication Number Publication Date
JP2001175868A true JP2001175868A (en) 2001-06-29

Family

ID=18482893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36487599A Pending JP2001175868A (en) 1999-12-22 1999-12-22 Method and device for human detection

Country Status (1)

Country Link
JP (1) JP2001175868A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037836A (en) * 2001-07-24 2003-02-07 Ntt Docomo Inc Image distribution method, image distribution system, computer-readable recording medium, and computer program
JP2004191083A (en) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp Person detection device
JP2005506740A (en) * 2001-10-09 2005-03-03 オブジェクトビデオ インコーポレイテッド Video trip wire
JP2005510159A (en) * 2001-11-15 2005-04-14 オブジェクトビデオ インコーポレイテッド Surveillance television equipment using video primitives
US7305106B2 (en) 2003-11-14 2007-12-04 Konica Minolta Holdings, Inc. Object detection apparatus, object detection method and recording medium
JP2008009498A (en) * 2006-06-27 2008-01-17 Megachips System Solutions Inc Fall detection device, program, fall detection method, and fall detection system
JP2008009576A (en) * 2006-06-28 2008-01-17 Fujifilm Corp Human body region extraction method, apparatus, and program
JP2009140307A (en) * 2007-12-07 2009-06-25 Glory Ltd Human detection device
JP2009211311A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus and method
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
US7868912B2 (en) 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
JP2011060026A (en) * 2009-09-10 2011-03-24 Dainippon Printing Co Ltd System and device for analyzing face detection result, and computer program
JP2011128816A (en) * 2009-12-16 2011-06-30 Canon Inc Image processing method and device
JP2011227679A (en) * 2010-04-19 2011-11-10 Secom Co Ltd Notification device
US8457401B2 (en) 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8649608B2 (en) 2008-11-11 2014-02-11 Panasonic Corporation Feature value extracting device, object identification device, and feature value extracting method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
JP2014176092A (en) * 2013-03-06 2014-09-22 Wirelesswerx International Inc Controlling queue in defined location
KR101467847B1 (en) * 2008-01-16 2014-12-03 삼성전자주식회사 Area Based Object Counting Device and Method
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
CN104724566A (en) * 2013-12-24 2015-06-24 株式会社日立制作所 Elevator having image recognition function
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
JP2020516883A (en) * 2017-04-17 2020-06-11 コグネックス・コーポレイション High precision calibration system and method
US11011004B2 (en) 2016-12-08 2021-05-18 Panasonic Intellectual Property Management Co., Ltd. Facility operation assistance system, facility image capture device, and facility operation assistance method

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868912B2 (en) 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
US10645350B2 (en) 2000-10-24 2020-05-05 Avigilon Fortress Corporation Video analytic rule detection system and method
US10347101B2 (en) 2000-10-24 2019-07-09 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10026285B2 (en) 2000-10-24 2018-07-17 Avigilon Fortress Corporation Video surveillance system employing video primitives
US9378632B2 (en) 2000-10-24 2016-06-28 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7932923B2 (en) 2000-10-24 2011-04-26 Objectvideo, Inc. Video surveillance system employing video primitives
US8457401B2 (en) 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
JP2003037836A (en) * 2001-07-24 2003-02-07 Ntt Docomo Inc Image distribution method, image distribution system, computer-readable recording medium, and computer program
JP2005506740A (en) * 2001-10-09 2005-03-03 オブジェクトビデオ インコーポレイテッド Video trip wire
JP2005510159A (en) * 2001-11-15 2005-04-14 オブジェクトビデオ インコーポレイテッド Surveillance television equipment using video primitives
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
JP2004191083A (en) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp Person detection device
US7305106B2 (en) 2003-11-14 2007-12-04 Konica Minolta Holdings, Inc. Object detection apparatus, object detection method and recording medium
JP2008009498A (en) * 2006-06-27 2008-01-17 Megachips System Solutions Inc Fall detection device, program, fall detection method, and fall detection system
JP2008009576A (en) * 2006-06-28 2008-01-17 Fujifilm Corp Human body region extraction method, apparatus, and program
US8041081B2 (en) * 2006-06-28 2011-10-18 Fujifilm Corporation Method, apparatus, and program for human figure region extraction
JP2009140307A (en) * 2007-12-07 2009-06-25 Glory Ltd Human detection device
KR101467847B1 (en) * 2008-01-16 2014-12-03 삼성전자주식회사 Area Based Object Counting Device and Method
JP2009211311A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus and method
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
US8649608B2 (en) 2008-11-11 2014-02-11 Panasonic Corporation Feature value extracting device, object identification device, and feature value extracting method
JP2011060026A (en) * 2009-09-10 2011-03-24 Dainippon Printing Co Ltd System and device for analyzing face detection result, and computer program
JP2011128816A (en) * 2009-12-16 2011-06-30 Canon Inc Image processing method and device
JP2011227679A (en) * 2010-04-19 2011-11-10 Secom Co Ltd Notification device
JP2014176092A (en) * 2013-03-06 2014-09-22 Wirelesswerx International Inc Controlling queue in defined location
CN104724566A (en) * 2013-12-24 2015-06-24 株式会社日立制作所 Elevator having image recognition function
US11011004B2 (en) 2016-12-08 2021-05-18 Panasonic Intellectual Property Management Co., Ltd. Facility operation assistance system, facility image capture device, and facility operation assistance method
JP2020516883A (en) * 2017-04-17 2020-06-11 コグネックス・コーポレイション High precision calibration system and method
JP7165484B2 (en) 2017-04-17 2022-11-04 コグネックス・コーポレイション High precision calibration system and method

Similar Documents

Publication Publication Date Title
JP2001175868A (en) Method and device for human detection
JP7078275B2 (en) Product detection system and product detection method based on video monitoring
TWI778030B (en) Store apparatus, store management method and program
Aghaei et al. Single image human proxemics estimation for visual social distancing
US7646887B2 (en) Optical flow for object recognition
JP4451307B2 (en) How to classify objects in a scene
JP4970195B2 (en) Person tracking system, person tracking apparatus, and person tracking program
CN110987189B (en) Method, system and device for temperature detection of target object
US20090097711A1 (en) Detecting apparatus of human component and method thereof
JPH05501184A (en) Method and apparatus for changing the content of continuous images
KR100631235B1 (en) How to chain edges in stereo images
CN105184202B (en) Scanner is dirty/and clean window detects automatically
JP2007317052A (en) System for measuring waiting time for lines
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP2016201105A (en) Information processing apparatus and information processing method
CN111489384B (en) Method, device, system and medium for evaluating shielding based on mutual viewing angle
JP3489491B2 (en) PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM
CN109840982A (en) It is lined up recommended method and device, computer readable storage medium
JP2005503731A (en) Intelligent 4-screen simultaneous display through collaborative distributed vision
JP3462754B2 (en) Monitoring device
JPH08242987A (en) Intra-shop layout estimating device
JP7015430B2 (en) Prospect information collection system and its collection method
US6894716B1 (en) Method and apparatus for identifying a position of a predetermined object in free space using a video image
US12100212B2 (en) Method, system and computer readable media for object detection coverage estimation
KR102395866B1 (en) Method and apparatus for object recognition and detection of camera images using machine learning

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040107