[go: up one dir, main page]

JP2024040800A - Passing person measuring device - Google Patents

Passing person measuring device Download PDF

Info

Publication number
JP2024040800A
JP2024040800A JP2022145386A JP2022145386A JP2024040800A JP 2024040800 A JP2024040800 A JP 2024040800A JP 2022145386 A JP2022145386 A JP 2022145386A JP 2022145386 A JP2022145386 A JP 2022145386A JP 2024040800 A JP2024040800 A JP 2024040800A
Authority
JP
Japan
Prior art keywords
tracking target
time
area
area image
identification number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022145386A
Other languages
Japanese (ja)
Inventor
航佑 若林
Kosuke Wakabayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Engineering Co Ltd
Original Assignee
Takenaka Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Engineering Co Ltd filed Critical Takenaka Engineering Co Ltd
Priority to JP2022145386A priority Critical patent/JP2024040800A/en
Publication of JP2024040800A publication Critical patent/JP2024040800A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】従来よりも誤計測が生じにくい通過人数計測装置を提供する。【解決手段】通過人数計測装置10Aは、時間Δtが経過する毎に生成されるエリア画像に基づいて追尾対象を認識する追尾対象認識部22と、認識された追尾対象の発生位置がエリア画像を構成する複数の分割領域のうちのいずれに属するのかを記憶する発生位置記憶部24と、時刻tに生成されたエリア画像である現エリア画像に含まれる追尾対象の時刻t+Δtにおける位置を予測する位置予測部25と、現エリア画像に、予測された時刻t+Δtにおける位置が発生位置が属する分割領域とは異なる分割領域の外縁領域に属する追尾対象が含まれる場合に、当該追尾対象の数だけ通過人数をカウントアップし、さらに、当該追尾対象の時刻t+Δtの位置の周辺に禁止領域を設定する通過処理部26とを備える。【選択図】図1[Problem] To provide a passing people counting device that is less likely to cause erroneous measurement than conventional devices. [Solution] A passing people counting device 10A includes a tracking target recognition unit 22 that recognizes a tracking target based on an area image generated every time Δt passes, an occurrence position memory unit 24 that stores to which of a plurality of divided areas that constitute the area image the occurrence position of the recognized tracking target belongs, a position prediction unit 25 that predicts the position at time t+Δt of a tracking target included in a current area image that is an area image generated at time t, and a passing processing unit 26 that, when a tracking target whose predicted position at time t+Δt belongs to an outer edge area of a divided area different from the divided area to which the occurrence position belongs is included in the current area image, counts up the number of passing people by the number of tracking targets and further sets a prohibited area around the position of the tracking target at time t+Δt. [Selected Figure] Figure 1

Description

本発明は、各種施設や各種乗物の出入口付近等に設けられた検知エリアを通過した人の数を計測する通過人数計測装置に関する。 The present invention relates to a passing person measuring device that measures the number of people passing through a detection area provided near the entrances and exits of various facilities and various vehicles.

従来、特許文献1に記載の入退室監視装置が知られている。この監視装置は、出入口の上方に設けられた一対の熱感知センサ(室外側サーモパイルセンサおよび室内側サーモパイルセンサ)と、各センサの出力信号の差分を増幅する増幅器と、増幅器の出力信号に基づいて人の動きを判別するCPU処理部とを備えている。この監視装置によれば、人の入室および退室だけでなく、入室しようとした人が入室することなくUターンしたことや、退室しようとした人が退室することなくUターンしたことも判別することができる。しかしながら、この監視装置は、複数の人が同時に入室または退室をした場合に、その人数を正確に特定することはできない。入室と退室とが同時に起こった場合についても同様である。 BACKGROUND ART Conventionally, a room entry/exit monitoring device described in Patent Document 1 is known. This monitoring device consists of a pair of heat sensing sensors (an outdoor thermopile sensor and an indoor thermopile sensor) installed above the entrance, an amplifier that amplifies the difference between the output signals of each sensor, and a It also includes a CPU processing unit that determines human movements. This monitoring device can detect not only when a person enters or leaves a room, but also when a person who attempts to enter the room makes a U-turn without entering the room, or when a person who attempts to leave the room makes a U-turn without leaving the room. I can do it. However, this monitoring device cannot accurately identify the number of people entering or leaving the room at the same time. The same applies when entering and exiting the room occur at the same time.

この問題を解決するために、出入口付近に設けられた検知エリアに関する熱画像を一定時間毎に生成する熱画像センサと、生成された熱画像を分析することにより検知エリアにおける人の動きを特定する画像分析部とを備えたタイプの監視装置が提案されている。この監視装置によれば、検知エリアを通過した人の通過方向と通過人数を特定することができる。例えば、この監視装置によれば、出入口から2人が入って来るとともに、出入口から3人が出て行ったことを特定することができる。 To solve this problem, we use a thermal image sensor that generates thermal images of the detection area near entrances and exits at regular intervals, and identify human movements in the detection area by analyzing the generated thermal images. A type of monitoring device equipped with an image analysis section has been proposed. According to this monitoring device, it is possible to specify the passing direction and number of people passing through the detection area. For example, with this monitoring device, it is possible to identify that two people have entered through the doorway and that three people have left the doorway.

ところで、熱画像を用いるタイプの監視装置では、予め定められた時間毎に生成される熱画像において、熱変化があったことを示す画素の集まり(クラスタ)を追尾していくことにより検知エリアにおける人の動きを特定するのが一般的である。しかしながら、この方式では、検知エリアの外縁に差し掛かった人の動きを特定することが難しく、人の動きを特定し損なった結果、通過人数に誤計測が生じてしまうことがあった。 By the way, in a type of monitoring device that uses thermal images, the detection area is detected by tracking clusters of pixels that indicate thermal changes in thermal images generated at predetermined intervals. It is common to identify people's movements. However, with this method, it is difficult to identify the movement of a person approaching the outer edge of the detection area, and as a result of failing to identify the movement of a person, the number of people passing by may be incorrectly measured.

特開平9-113355号公報Japanese Patent Application Publication No. 9-113355

本発明は、上記事情に鑑みてなされたものであり、従来よりも誤計測が生じにくい通過人数計測装置を提供することを課題とする。 The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide a passing person measuring device that is less likely to cause erroneous measurements than conventional ones.

上記課題を解決するために、本発明に係る通過人数計測装置は、所定の検知エリアを通過した人の数を計測する装置であって、時間Δtが経過する毎に生成される検知エリアに関するエリア画像に基づいて、人に相当する追尾対象を認識する追尾対象認識部と、認識された追尾対象に識別番号を付与する識別番号付与部と、認識された追尾対象の発生位置がエリア画像を構成する複数の分割領域のうちのいずれに属するのかを、当該追尾対象に付与された識別番号に対応付けて記憶する発生位置記憶部と、時刻tに生成されたエリア画像である現エリア画像に含まれる追尾対象の時刻t+Δtにおける位置を予測する位置予測部と、現エリア画像に、予測された時刻t+Δtにおける位置が発生位置が属する分割領域とは異なる分割領域の外縁領域に属する追尾対象が含まれる場合に、当該追尾対象から識別番号を消去するとともに、当該追尾対象の数だけ人の数をカウントアップし、さらに、当該追尾対象の時刻tまたは時刻t+Δtの位置の周辺に禁止領域を設定する通過処理部と、を備え、識別番号付与部は、現エリア画像に含まれる追尾対象に対応する追尾対象が時刻t-Δtに生成されたエリア画像である前エリア画像に含まれていると判定した場合は、現エリア画像に含まれる当該追尾対象に前エリア画像に含まれる当該追尾対象に付与されている識別番号と同一の識別番号を付与する一方、現エリア画像に含まれる追尾対象に対応する追尾対象が前エリア画像に含まれていないと判定した場合は、現エリア画像に含まれる当該追尾対象に新たな識別番号を付与し、また、識別番号付与部は、禁止領域に属する追尾対象については、新たな識別番号の付与を行わない、との構成を有している。 In order to solve the above problems, a passing person measuring device according to the present invention is a device that measures the number of people passing through a predetermined detection area, and includes an area related to a detection area that is generated every time Δt elapses. A tracking target recognition unit that recognizes a tracking target corresponding to a person based on the image, an identification number assigning unit that assigns an identification number to the recognized tracking target, and the location of the recognized tracking target constitute an area image. an occurrence position storage unit that stores which of a plurality of divided areas the tracking target belongs to in association with an identification number assigned to the tracking target; a position prediction unit that predicts the position of a tracking target at time t+Δt, and the current area image includes a tracking target whose position at the predicted time t+Δt belongs to an outer edge area of a divided area that is different from the divided area to which the occurrence position belongs. In this case, the identification number is deleted from the tracking target, the number of people is counted up by the number of tracking targets, and a prohibited area is set around the position of the tracking target at time t or time t + Δt. a processing unit, and the identification number assigning unit determines that a tracking target corresponding to the tracking target included in the current area image is included in a previous area image that is an area image generated at time t−Δt. In this case, the tracking target included in the current area image is given the same identification number as the tracking target included in the previous area image, while the tracking target included in the current area image is assigned the same identification number as the tracking target included in the current area image. If it is determined that the tracking target is not included in the previous area image, a new identification number is assigned to the tracking target included in the current area image, and the identification number assigning unit assigns a new identification number to the tracking target that is included in the prohibited area. has a configuration in which no new identification number is assigned.

上記通過人数計測装置の通過処理部は、禁止領域の形状、大きさ、および位置のうちの少なくとも1つを予め定めた規則に従って時間Δtが経過する毎に変化させる、との構成を有していてもよい。 The passage processing unit of the passing person measuring device is configured to change at least one of the shape, size, and position of the prohibited area every time Δt elapses according to a predetermined rule. It's okay.

上記通過人数計測装置において、時刻tに生成されたエリア画像は、例えば、時刻tに生成された熱画像、または、時刻t-Δtおよび時刻tに生成された2つの熱画像の差画像である。 In the above-mentioned passing person measuring device, the area image generated at time t is, for example, a thermal image generated at time t, or a difference image between two thermal images generated at time t-Δt and time t. .

本発明によれば、従来よりも誤計測が生じにくい通過人数計測装置を提供することができる。 According to the present invention, it is possible to provide a passing person measuring device that is less likely to cause erroneous measurements than conventional ones.

本発明の第1実施例に係る通過人数計測装置のブロック図である。FIG. 1 is a block diagram of a passing person measuring device according to a first embodiment of the present invention. 第1実施例に係る通過人数計測装置において生成されるエリア画像を示す図である。FIG. 3 is a diagram showing an area image generated by the passer-people measuring device according to the first embodiment. 第1実施例に係る通過人数計測装置の制御部が実行する追尾対象の認識および識別番号の付与に関する図である。FIG. 3 is a diagram related to recognition of a tracking target and assignment of an identification number, which is executed by the control unit of the number-of-passers-measuring device according to the first embodiment. 第1実施例に係る通過人数計測装置の制御部が実行する追尾対象の位置予測に関する図である。FIG. 3 is a diagram related to position prediction of a tracking target executed by the control unit of the passing person measuring device according to the first embodiment. 第1実施例に係る通過人数計測装置の制御部が実行する通過処理に関する図である。FIG. 3 is a diagram related to a passing process executed by a control unit of the passing person measuring device according to the first embodiment. 第1実施例に係る通過人数計測装置において、人が検知エリアの外縁に差し掛かったときに生成されるエリア画像の詳細を示す図である。FIG. 3 is a diagram showing details of an area image generated when a person approaches the outer edge of a detection area in the passing person measuring device according to the first embodiment. 禁止領域を設定しない場合に生じ得る問題に関する図である。FIG. 4 is a diagram related to a problem that may occur when a prohibited area is not set. 禁止領域を設定することにより図7に示した問題が解決され得ることを示す図である。8 is a diagram showing that the problem shown in FIG. 7 can be solved by setting a prohibited area. FIG. 第1実施例に係る通過人数計測装置の動作フロー図である。FIG. 2 is an operation flow diagram of the passing person measuring device according to the first embodiment. 本発明の第2実施例に係る通過人数計測装置のブロック図である。FIG. 2 is a block diagram of a passing person measuring device according to a second embodiment of the present invention.

以下、添付図面を参照しながら、本発明に係る通過人数計測装置の実施例について説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a passing person measuring device according to the present invention will be described with reference to the accompanying drawings.

[第1実施例]
図1に、本発明の第1実施例に係る通過人数計測装置10Aを示す。通過人数計測装置10Aは、商業施設の出入口付近の床200に設けられた検知エリアAをM1方向に通過する歩行者W1の数とM2方向に通過する歩行者W2の数とを計測するためのもので、同図に示すように、熱画像生成部11Aと、記憶部12と、制御部20Aと、設定部13と、外部インタフェース部14と、音声出力部15と、発光部16と、これらを収容する筐体とを備えている。通過人数計測装置10Aは、熱画像生成部11Aが検知エリアAを向くように、天井100に取り付けられている。
[First embodiment]
1 shows a passing number counting device 10A according to a first embodiment of the present invention. The passing number counting device 10A is for counting the number of pedestrians W1 passing in a direction M1 and the number of pedestrians W2 passing in a direction M2 through a detection area A provided on a floor 200 near an entrance of a commercial facility, and as shown in the figure, includes a thermal image generating unit 11A, a memory unit 12, a control unit 20A, a setting unit 13, an external interface unit 14, an audio output unit 15, a light emitting unit 16, and a housing that accommodates these. The passing number counting device 10A is attached to a ceiling 100 so that the thermal image generating unit 11A faces the detection area A.

本実施例では、取り付け高さHが4mである。また、本実施例の検知エリアAは、想定される通過方向M1,M2に直交する辺の長さが4m、通過方向M1,M2に平行な辺の長さが3mの長方形である。取り付け高さHが変化すると、これに応じて検知エリアAの大きさも変化する。 In this example, the mounting height H is 4 m. Furthermore, the detection area A of this embodiment is a rectangle with a length of 4 m on a side perpendicular to the assumed passing directions M1 and M2 and a length of 3 m on a side parallel to the assumed passing directions M1 and M2. When the mounting height H changes, the size of the detection area A also changes accordingly.

熱画像生成部11Aは、二次元の熱画像センサで構成されている。熱画像生成部11Aは、検知エリアA(床200)または当該エリアA内にいる歩行者W1,W2から放射される遠赤外線を検出し、検出結果に対応した60画素×45画素の熱画像(より正確には、熱画像に関するデータ)を生成する。熱画像の生成は、1/10s毎に行われる。生成された熱画像は、順次記憶部12に送られる。 The thermal image generation unit 11A is composed of a two-dimensional thermal image sensor. Thermal image generation unit 11A detects far infrared rays emitted from detection area A (floor 200) or pedestrians W1 and W2 in the area A, and generates a 60 pixel x 45 pixel thermal image ( More precisely, it generates data regarding thermal images). Generation of a thermal image is performed every 1/10 seconds. The generated thermal images are sequentially sent to the storage unit 12.

記憶部12は、揮発性または不揮発性のメモリで構成されている。記憶部12は、熱画像生成部11Aから1/10s毎に送られてきた熱画像のうち、少なくとも最新のものとその1つ前のものとを格納している。言い換えると、記憶部12には、最後に生成された熱画像(以下、「第2熱画像」という)と、その1/10s前に生成された熱画像(以下、「第1熱画像」という)とが格納されている。 The storage unit 12 is composed of volatile or nonvolatile memory. The storage unit 12 stores at least the latest thermal image and the previous thermal image among the thermal images sent every 1/10 seconds from the thermal image generating unit 11A. In other words, the storage unit 12 stores the thermal image generated last (hereinafter referred to as "second thermal image") and the thermal image generated 1/10 seconds before (hereinafter referred to as "first thermal image"). ) are stored.

制御部20Aは、マイクロプロセッサ(MPU)と当該プロセッサ上で実行されるコンピュータプログラムとで構成されている。本実施例では、コンピュータプログラムの実行により、差画像生成部21、追尾対象認識部22、識別番号付与部23、発生位置記憶部24、位置予測部25および通過処理部26が制御部20A内に形成されている。 The control unit 20A is composed of a microprocessor (MPU) and a computer program executed on the processor. In this embodiment, by executing the computer program, the difference image generation section 21, the tracking target recognition section 22, the identification number assignment section 23, the occurrence position storage section 24, the position prediction section 25, and the passage processing section 26 are installed in the control section 20A. It is formed.

差画像生成部21は、記憶部12に格納された第1熱画像および第2熱画像に基づいて、差画像P(より正確には、差画像Pに関するデータ)を生成する。例えば、差画像生成部21は、第2熱画像を構成する座標(0,0)の画素が示す温度から第1熱画像を構成する座標(0,0)の画素が示す温度を引くことにより、差画像Pを構成する座標(0,0)の画素が示すべき熱変化を求める。 The difference image generation unit 21 generates a difference image P (more precisely, data regarding the difference image P) based on the first thermal image and the second thermal image stored in the storage unit 12. For example, the difference image generation unit 21 subtracts the temperature indicated by the pixel at coordinates (0,0) constituting the first thermal image from the temperature indicated by the pixel at coordinates (0,0) constituting the second thermal image. , the thermal change that should be exhibited by the pixel at coordinates (0, 0) constituting the difference image P is determined.

図2に示すように、差画像Pは、通過方向M1,M2に隣接する2つの同じ大きさの分割領域(第1分割領域P1および第2分割領域P2)で構成され、全体では60画素×45画素の大きさを有している。なお、ハッチングを付したF1部分は第1分割領域P1の外縁領域であり、F1とは異なるハッチングを付したF2部分は第2分割領域P2の外縁領域である。本実施例では、矩形状を有する第1分割領域P1を構成する4辺のうち、第2分割領域P2に接しない3辺に接する領域が外縁領域F1となっている。同様に、本実施例では、矩形状を有する第2分割領域P2を構成する4辺のうち、第1分割領域P1に接しない3辺に接する領域が外縁領域F2となっている。 As shown in FIG. 2, the difference image P is composed of two divided regions of the same size (a first divided region P1 and a second divided region P2) adjacent to each other in the passing directions M1 and M2, and has a total of 60 pixels × It has a size of 45 pixels. Note that the hatched F1 portion is the outer edge region of the first divided region P1, and the hatched F2 portion different from F1 is the outer edge region of the second divided region P2. In this embodiment, among the four sides of the first divided region P1 having a rectangular shape, the outer edge region F1 is a region that is in contact with three sides that are not in contact with the second divided region P2. Similarly, in this embodiment, the outer edge region F2 is a region that touches three sides that do not touch the first divided region P1 among the four sides that constitute the second divided region P2 having a rectangular shape.

本実施例では、この差画像Pが「エリア画像」として使用される。エリア画像Pは、1/10sの間に検知エリアAにおいてどのような熱変化があったのかを示しているといえる。 In this embodiment, this difference image P is used as an "area image". It can be said that the area image P shows what kind of thermal change occurred in the detection area A during 1/10 seconds.

追尾対象認識部22は、1/10s毎に生成されるエリア画像Pに基づいて、検知エリアA内にいる人に相当する追尾対象を認識する。追尾対象認識部22は、エリア画像Pに対して適当なノイズ除去処理を施してから追尾対象を認識してもよい。 The tracking target recognition unit 22 recognizes a tracking target corresponding to a person within the detection area A based on the area image P generated every 1/10 seconds. The tracking target recognition unit 22 may perform appropriate noise removal processing on the area image P and then recognize the tracking target.

識別番号付与部23は、追尾対象認識部22によって認識された追尾対象に識別番号を付与する。認識された追尾対象の数が複数の場合、識別番号付与部23は、それぞれに対して識別番号を付与する。 The identification number assigning unit 23 assigns an identification number to the tracking target recognized by the tracking target recognizing unit 22. When the number of recognized tracking targets is plural, the identification number assigning unit 23 assigns an identification number to each of them.

図3を参照しながら、追尾対象認識部22が実行する追尾対象の認識および識別番号付与部23が実行する識別番号の付与について、具体的に説明する。 With reference to FIG. 3, the recognition of a tracking target performed by the tracking target recognition unit 22 and the assignment of an identification number performed by the identification number assigning unit 23 will be specifically described.

時刻t0に生成されたエリア画像Pt0(図3(A)参照)は、熱変化があったことを示す画素を含んでいない。このため、追尾対象認識部22は、検知エリアA内にいる人に相当する画素の集まり(以下、「クラスタ」という)、すなわち、追尾対象と認識すべきものはエリア画像Pt0に存在しないと判断する。追尾対象が存在しないため、識別番号付与部23による識別番号の付与は行われない。 The area image Pt0 generated at time t0 (see FIG. 3A) does not include any pixels indicating that a thermal change has occurred. Therefore, the tracking target recognition unit 22 determines that a group of pixels corresponding to a person in the detection area A (hereinafter referred to as a "cluster"), that is, anything that should be recognized as a tracking target, does not exist in the area image Pt0 . Since there is no tracking target, the identification number assignment unit 23 does not assign an identification number.

時刻t0からΔt(=1/10s)が経過した時刻t1に生成されたエリア画像Pt1(図3(B)参照)は、第1分割領域P1に位置するクラスタTG1を含んでいる。このため、追尾対象認識部22は、クラスタTG1を追尾対象と認識する。そして、識別番号付与部23は、クラスタTG1に識別番号“01”を付与するとともに、クラスタTG1の発生場所である“P1”をクラスタTG1の識別番号である“01”に対応付けて発生位置記憶部24に記憶させる。 Area image P t1 (see FIG. 3(B)) generated at time t1 when Δt (=1/10 s) has elapsed from time t0 includes cluster TG1 located in first divided region P1. Therefore, the tracking target recognition unit 22 recognizes the cluster TG1 as a tracking target. Then, the identification number assigning unit 23 assigns an identification number "01" to the cluster TG1, and stores the occurrence location by associating "P1", which is the occurrence location of the cluster TG1, with "01", which is the identification number of the cluster TG1. 24.

時刻t2に生成されたエリア画像Pt2(図3(C)参照)は、第1分割領域P1に位置するクラスタTG1と第2分割領域P2に位置するクラスタTG2とを含んでいる。このため、追尾対象認識部22は、クラスタTG1およびクラスタTG2を追尾対象と認識する。 The area image P t2 (see FIG. 3C) generated at time t2 includes a cluster TG1 located in the first divided region P1 and a cluster TG2 located in the second divided region P2. Therefore, the tracking target recognition unit 22 recognizes cluster TG1 and cluster TG2 as tracking targets.

識別番号付与部23は、クラスタTG1およびクラスタTG2に識別番号を付与する際に、時刻t1に生成されたエリア画像Pt1に含まれる全クラスタ(本具体例では、クラスタTG1のみ)の位置を参照する。そして、識別番号付与部23は、
・時刻t1のクラスタTG1と時刻t2のクラスタTG1との間の距離
・時刻t1のクラスタTG1と時刻t2のクラスタTG2との間の距離
を比較し、時刻t1におけるクラスタTG1に最も近いのは時刻t2におけるクラスタTG1であることから、時刻t2におけるクラスタTG1に時刻t1におけるクラスタTG1に付与されている識別番号、すなわち識別番号“01”を付与する。一方、識別番号付与部23は、クラスタTG2に新たな識別番号“02”を付与するとともに、クラスタTG2の発生場所である“P2”をクラスタTG2の識別番号である“02”に対応付けて発生位置記憶部24に記憶させる。
When assigning identification numbers to cluster TG1 and cluster TG2, identification number assigning unit 23 refers to the positions of all clusters (in this specific example, only cluster TG1) included in area image P t1 generated at time t1. do. Then, the identification number assigning unit 23
・Distance between cluster TG1 at time t1 and cluster TG1 at time t2 ・Distance between cluster TG1 at time t1 and cluster TG2 at time t2 is compared, and the one closest to cluster TG1 at time t1 is time t2 Since the cluster TG1 is at the time t2, the identification number assigned to the cluster TG1 at the time t1, that is, the identification number "01" is assigned to the cluster TG1 at the time t2. On the other hand, the identification number assigning unit 23 assigns a new identification number "02" to cluster TG2, and associates "P2", which is the location of occurrence of cluster TG2, with "02", which is the identification number of cluster TG2. It is stored in the position storage section 24.

時刻t3に生成されたエリア画像Pt3(図3(D)参照)は、第2分割領域P2に位置するクラスタTG1およびクラスタTG2を含んでいる。このため、追尾対象認識部22は、クラスタTG1およびクラスタTG2を追尾対象と認識する。 Area image P t3 (see FIG. 3D) generated at time t3 includes cluster TG1 and cluster TG2 located in second divided region P2. Therefore, the tracking target recognition unit 22 recognizes cluster TG1 and cluster TG2 as tracking targets.

識別番号付与部23は、クラスタTG1およびクラスタTG2に識別番号を付与する際に、時刻t2に生成されたエリア画像Pt2に含まれる全クラスタ(本具体例では、クラスタTG1およびクラスタTG2)の位置を参照する。そして、識別番号付与部23は、
・時刻t2のクラスタTG1と時刻t3のクラスタTG1との間の距離
・時刻t2のクラスタTG1と時刻t3のクラスタTG2との間の距離
・時刻t2のクラスタTG2と時刻t3のクラスタTG1との間の距離
・時刻t2のクラスタTG2と時刻t3のクラスタTG2との間の距離
を比較し、時刻t2におけるクラスタTG1に最も近いのは時刻t3におけるクラスタTG1であり、かつ時刻t2におけるクラスタTG2に最も近いのは時刻t3におけるクラスタTG2であることから、時刻t3におけるクラスタTG1に時刻t2におけるクラスタTG1に付与されている識別番号、すなわち識別番号“01”を付与するとともに、時刻t3におけるクラスタTG2に時刻t2におけるクラスタTG2に付与されている識別番号、すなわち識別番号“02”を付与する。
When assigning identification numbers to cluster TG1 and cluster TG2, identification number assigning unit 23 calculates the positions of all clusters (cluster TG1 and cluster TG2 in this specific example) included in area image P t2 generated at time t2. See. Then, the identification number assigning unit 23
- Distance between cluster TG1 at time t2 and cluster TG1 at time t3 - Distance between cluster TG1 at time t2 and cluster TG2 at time t3 - Distance between cluster TG2 at time t2 and cluster TG1 at time t3 Distance - Compare the distance between cluster TG2 at time t2 and cluster TG2 at time t3, and find that cluster TG1 at time t3 is closest to cluster TG1 at time t2, and cluster TG1 at time t2 is closest to cluster TG2 at time t2. Since is cluster TG2 at time t3, the identification number assigned to cluster TG1 at time t2, that is, the identification number "01" is assigned to cluster TG1 at time t3, and the cluster TG2 at time t3 is assigned the identification number "01" at time t2. The identification number assigned to cluster TG2, that is, the identification number "02" is assigned.

このように、識別番号付与部23は、時刻tに生成されたエリア画像Pである現エリア画像に含まれる追尾対象に対応する追尾対象が時刻t-Δtに生成されたエリア画像Pである前エリア画像に含まれていると判定した場合は、現エリア画像に含まれる当該追尾対象に前エリア画像に含まれる当該追尾対象に付与されている識別番号と同一の識別番号を付与する一方、現エリア画像に含まれる追尾対象に対応する追尾対象が前エリア画像に含まれていないと判定した場合は、現エリア画像に含まれる当該追尾対象に新たな識別番号を付与する。 In this way, the identification number assigning unit 23 identifies whether the tracking target corresponding to the tracking target included in the current area image, which is the area image P generated at time t, is the area image P generated at time t-Δt. If it is determined that the tracking target is included in the area image, the tracking target included in the current area image is given the same identification number as the tracking target included in the previous area image, and the current If it is determined that the tracking target corresponding to the tracking target included in the area image is not included in the previous area image, a new identification number is given to the tracking target included in the current area image.

位置予測部25は、時刻tに生成されたエリア画像Pである現エリア画像に含まれる追尾対象(クラスタ)の時刻t+Δtにおける位置を予測する。 The position prediction unit 25 predicts the position at time t+Δt of the tracking target (cluster) included in the current area image, which is the area image P generated at time t.

通過処理部26は、時刻tに生成されたエリア画像Pである現エリア画像に、予測された時刻t+Δtにおける位置が発生位置が属する分割領域とは異なる分割領域の外縁領域に属する追尾対象が含まれている場合に、当該追尾対象から識別番号を消去するとともに、当該追尾対象の数だけ通過人数をカウントアップし、さらに、当該追尾対象の時刻t+Δtの位置の周辺に禁止領域を設定する。 The passage processing unit 26 determines that the current area image, which is the area image P generated at time t, includes a tracking target whose position at the predicted time t+Δt belongs to an outer edge area of a divided area that is different from the divided area to which the occurrence position belongs. If so, the identification number is deleted from the tracking target, the number of people passing by is counted up by the number of tracking targets, and a prohibited area is set around the position of the tracking target at time t+Δt.

図4および図5を参照しながら、位置予測部25が実行する位置予測および通過処理部26が実行する通過処理について、具体的に説明する。 The position prediction performed by the position prediction unit 25 and the passing process performed by the passage processing unit 26 will be specifically described with reference to FIGS. 4 and 5.

時刻t3において、クラスタTG1およびクラスタTG2のそれぞれに識別番号が付与されると、位置予測部25は、識別番号“01”が付与されたクラスタTG1の時刻t2-t3の間の移動距離および移動方向、すなわち直前の移動距離および移動方向に基づいて、時刻t4におけるクラスタTG1の位置を予測する。同様に、位置予測部25は、識別番号“02”が付与されたクラスタTG2の直前の移動距離および移動方向に基づいて、時刻t4におけるクラスタTG2の位置を予測する。図4(B)中のTG1’およびTG2’は、予測された位置を示す。 At time t3, when an identification number is assigned to each of cluster TG1 and cluster TG2, the position prediction unit 25 calculates the moving distance and moving direction between time t2 and t3 of cluster TG1 assigned identification number "01". That is, the position of cluster TG1 at time t4 is predicted based on the previous movement distance and movement direction. Similarly, the position prediction unit 25 predicts the position of the cluster TG2 at time t4 based on the previous movement distance and movement direction of the cluster TG2 assigned the identification number "02." TG1' and TG2' in FIG. 4(B) indicate predicted positions.

予測されたクラスタTG1の位置TG1’は、第2分割領域P2の外縁領域F2に属している。また、発生位置記憶部24によれば、クラスタTG1に付与された識別番号“01”に対応する発生位置は“P1”である。このため、通過処理部26は、クラスタTG1から識別番号“01”を消去するとともに(図4(A)および図5(A)参照)、第1分割領域P1から第2分割領域P2に向かう方向(すなわち、M1方向)に検知エリアAを通過した人(歩行者W1)の数をカウントアップする。その後、通過処理部26は、時刻t4における実際のクラスタTG1の周辺に楕円形状の禁止領域NGを設定する(図5(B)参照)。 The predicted position TG1' of the cluster TG1 belongs to the outer edge area F2 of the second divided area P2. Furthermore, according to the occurrence position storage unit 24, the occurrence position corresponding to the identification number "01" assigned to cluster TG1 is "P1". Therefore, the passage processing unit 26 deletes the identification number "01" from the cluster TG1 (see FIGS. 4(A) and 5(A)), and also deletes the identification number "01" from the cluster TG1 (see FIG. 4(A) and FIG. 5(A)) and The number of people (pedestrians W1) who passed through the detection area A in the M1 direction (that is, in the M1 direction) is counted up. Thereafter, the passage processing unit 26 sets an elliptical prohibited region NG around the actual cluster TG1 at time t4 (see FIG. 5(B)).

一方、予測されたクラスタTG2の位置TG2’は、第1分割領域P1の外縁領域F1および第2分割領域P2の外縁領域F2のいずれにも属していない。このため、通過処理部26は、クラスタTG2に関しては識別番号の消去、カウントアップおよび禁止領域NGの設定を行わない。 On the other hand, the predicted position TG2' of the cluster TG2 does not belong to either the outer edge area F1 of the first divided area P1 or the outer edge area F2 of the second divided area P2. Therefore, the passage processing unit 26 does not erase the identification number, count up, or set a prohibited area NG for cluster TG2.

なお、仮に予測されたクラスタTG2の位置TG2’が第2分割領域P2の外縁領域F2に属していたとしても、クラスタTG2に付与された識別番号“02”に対応する発生位置は“P2”なので、通過処理部26は、クラスタTG2に関しては識別番号の消去、カウントアップおよび禁止領域NGの設定を行わない。このような場合は、クラスタTG2に相当する人が検知エリアAを通過したとはいえないからである。 Furthermore, even if the predicted position TG2' of the cluster TG2 belongs to the outer edge area F2 of the second divided area P2, the occurrence position corresponding to the identification number "02" given to the cluster TG2 is "P2". , the passage processing unit 26 does not erase the identification number, count up, or set a prohibited area NG for cluster TG2. This is because in such a case, it cannot be said that a person corresponding to cluster TG2 has passed through detection area A.

前述した通り、識別番号付与部23は、追尾対象認識部22によって認識された追尾対象に識別番号を付与する。ただし、識別番号付与部23は、禁止領域NGに属する追尾対象については、既存の識別番号の付与は行うが、新たな識別番号の付与は行わない。このような処理の意義については、後で詳細に説明する。 As described above, the identification number assigning unit 23 assigns an identification number to the tracking target recognized by the tracking target recognizing unit 22. However, the identification number assigning unit 23 assigns an existing identification number to a tracking target belonging to the prohibited area NG, but does not assign a new identification number. The significance of such processing will be explained in detail later.

外部インタフェース部14は、適当な外部機器に接続されている。外部インタフェース部14は、通過処理部26による計測の結果、すなわち、検知エリアAをM1方向に通過した歩行者W1の数とM2方向に通過した歩行者W2の数とを予め定めたタイミングおよび形式で当該外部機器に送信することができる。 The external interface unit 14 is connected to appropriate external equipment. The external interface unit 14 transmits the measurement results by the passage processing unit 26, that is, the number of pedestrians W1 passing through the detection area A in the M1 direction and the number of pedestrians W2 passing in the M2 direction, at a predetermined timing and format. can be sent to the relevant external device.

音声出力部15は、ブザーまたはスピーカーで構成されている。音声出力部15は、通過処理部26による計測の結果に対応した音声を出力することにより、計測結果を周辺にいる者に知らせることができる。 The audio output unit 15 includes a buzzer or a speaker. The audio output unit 15 can notify people in the vicinity of the measurement results by outputting audio corresponding to the measurement results by the passage processing unit 26.

発光部16は、少なくとも1つの発光ダイオードで構成されている。発光部16は、通過処理部26による計測の結果に対応した態様(色、明るさ等)で点灯または点滅することにより、計測結果を周辺にいる者に知らせることができる。 The light emitting section 16 is composed of at least one light emitting diode. The light emitting unit 16 can inform people in the vicinity of the measurement result by lighting or blinking in a manner (color, brightness, etc.) corresponding to the measurement result by the passage processing unit 26.

設定部13は、ディップスイッチで構成されている。ユーザは、設定部13を介して各種の設定を行うことができる。また、ユーザは、設定部13を介して、外部インタフェース部14、音声出力部15および発光部16のオン/オフを個別に切り替えることもできる。 The setting section 13 is composed of dip switches. The user can perform various settings via the setting section 13. Further, the user can also individually turn on/off the external interface section 14, the audio output section 15, and the light emitting section 16 via the setting section 13.

続いて、禁止領域NGを設定する意義について説明する。 Next, the significance of setting the prohibited area NG will be explained.

図3~図5および後で参照する図7および図8ではクラスタを小さな円で表したが、実際のクラスタは、図6に例示するクラスタTG1のように、刻一刻と変化する不規則に拡がった形状を有している。また、多くの場合、クラスタの位置は、重心を計算することにより求められる。このため、M1方向に検知エリアAを通過しようとする人(TG1)が検知エリアAの外縁(第2分割領域P2の外縁領域F2)に差し掛かると、図6(A)~(C)に示すように、クラスタTG1が外縁領域F2に留まり続けているかのように見えることがある。禁止領域NGを設定するのは、これにより生じる誤計測を防ぐためである。 Although clusters are represented by small circles in FIGS. 3 to 5 and FIGS. 7 and 8, which will be referred to later, actual clusters are irregularly spread out that change every moment, like cluster TG1 illustrated in FIG. It has a similar shape. Further, in many cases, the location of the cluster is determined by calculating the center of gravity. Therefore, when a person (TG1) attempting to pass through detection area A in the M1 direction approaches the outer edge of detection area A (outer edge area F2 of second divided area P2), the As shown, the cluster TG1 may appear to remain in the outer edge region F2. The reason for setting the prohibited area NG is to prevent erroneous measurements caused by this.

図7および図8を参照しながら、禁止領域NGを設定することにより誤計測が防がれることを具体的に説明する。なお、この具体例では、第1分割領域P1から第2分割領域P2に向かう方向にクラスタTG1が移動し、それを追いかけるようにクラスタTG2が移動するものとする。 With reference to FIGS. 7 and 8, it will be specifically explained that erroneous measurements are prevented by setting the prohibited area NG. In this specific example, it is assumed that the cluster TG1 moves in the direction from the first divided area P1 to the second divided area P2, and the cluster TG2 moves to follow it.

禁止領域NGを設定しない場合は、図7に示すように、時刻tdに識別番号“01”が消去されたクラスタTG1に、Δt後の時刻teに新たな識別番号“03”が付与される。そして、さらにΔt後の時刻tfに、
・時刻teのクラスタTG1と時刻tfのクラスタTG2との間の距離
・時刻teのクラスタTG2と時刻tfのクラスタTG2との間の距離
が比較され、前者の方が小さければ、これまで識別番号“02”が付与されていたクラスタTG2に別の識別番号“03”が付与される。識別番号“03”は、時刻teにおいて第2分割領域P2に属するクラスタTG1に新たに付与されたものであり、発生位置記憶部24に記憶された識別番号“03”に対応する発生位置は“P2”である。このため、クラスタTG2に相当する人がこのままM1方向に進んで検知エリアAから出たとしても、通過人数はカウントアップされない。すなわち、誤計測が生じる。
If the prohibited area NG is not set, as shown in FIG. 7, the cluster TG1 from which the identification number "01" was deleted at time td is given a new identification number "03" at time te after Δt. Then, at time tf further after Δt,
- The distance between cluster TG1 at time te and cluster TG2 at time tf - The distance between cluster TG2 at time te and cluster TG2 at time tf is compared, and if the former is smaller, the identification number " Another identification number "03" is assigned to the cluster TG2 which had been assigned "02". The identification number "03" is newly assigned to the cluster TG1 belonging to the second divided area P2 at time te, and the occurrence position corresponding to the identification number "03" stored in the occurrence position storage unit 24 is "P2''. Therefore, even if people corresponding to cluster TG2 continue in the M1 direction and exit detection area A, the number of people passing through will not be counted up. In other words, erroneous measurements occur.

これに対して、禁止領域NGを設定する場合は、図8に示すように、時刻tgに識別番号“01”が消去されたクラスタTG1の周辺に禁止領域NGが設定されるので、Δt後の時刻thに、クラスタTG1に新たな識別番号“03”が付与されることはない。さらにΔt後の時刻tiに、これまで識別番号“02”が付与されていたクラスタTG2に別の識別番号“03”が付与されてしまうこともなく、その結果、上記の誤計測が防がれる。 On the other hand, when setting a prohibited area NG, as shown in FIG. A new identification number "03" is not assigned to cluster TG1 at time th. Furthermore, at time ti after Δt, cluster TG2, which had been given identification number "02", will not be given another identification number "03", and as a result, the above-mentioned erroneous measurement can be prevented. .

図9は、これまでに述べてきた各部の動きを時系列に記述した、本実施例に係る通過人数計測装置10Aの動作フロー図である。 FIG. 9 is an operation flow diagram of the passer-people measuring device 10A according to this embodiment, in which the movements of each part described above are described in chronological order.

ステップS1では、熱画像生成部11Aが生成した第1熱画像を記憶部12が格納する。 In step S1, the storage unit 12 stores the first thermal image generated by the thermal image generation unit 11A.

ステップS1の1/10s後に実行されるステップS2では、熱画像生成部11Aが生成した第2熱画像を記憶部12が格納する。 In step S2, which is executed 1/10 seconds after step S1, the storage section 12 stores the second thermal image generated by the thermal image generation section 11A.

ステップS2の後に実行されるステップS3では、差画像生成部21が第1熱画像および第2熱画像から差画像(エリア画像)Pを生成する。 In step S3 executed after step S2, the difference image generation unit 21 generates a difference image (area image) P from the first thermal image and the second thermal image.

ステップS3の後に実行されるステップS4では、追尾対象認識部22がエリア画像Pに含まれる追尾対象を認識する。 In step S4 executed after step S3, the tracking target recognition unit 22 recognizes the tracking target included in the area image P.

ステップS4の後に実行されるステップS5では、識別番号付与部23が認識された追尾対象に識別番号を付与する。 In step S5 executed after step S4, the identification number assigning unit 23 assigns an identification number to the recognized tracking target.

ステップS5の後に実行されるステップS6では、位置予測部25が認識された追尾対象の1/10s後の位置を予測する。 In step S6 executed after step S5, the position prediction unit 25 predicts the position of the recognized tracking target 1/10 seconds later.

ステップS6の後に実行されるステップS7では、予測された追尾対象の位置に基づいて通過処理部26が所定の通過処理を実行する。通過処理には、予測された追尾対象の位置が外縁領域F1,F2に属しているかどうかの判定、識別番号の消去、通過人数のカウントアップ、禁止領域NGの設定が含まれる。 In step S7, which is executed after step S6, the passage processing unit 26 executes a predetermined passage process based on the predicted position of the tracking target. The passing process includes determining whether the predicted position of the tracking target belongs to the outer edge areas F1, F2, erasing the identification number, counting up the number of people passing through, and setting a prohibited area NG.

本実施例に係る通過人数計測装置10Aは、1/10s毎にこの動作フローに従って繰り返し動作する。なお、2巡目のフローでは、1巡目で生成・格納された第2熱画像が第1熱画像となる。3巡目以降についても同様である。 The passing person measuring device 10A according to this embodiment repeatedly operates according to this operation flow every 1/10 seconds. In addition, in the flow of the second round, the second thermal image generated and stored in the first round becomes the first thermal image. The same applies to the third and subsequent rounds.

以上のように、本実施例に係る通過人数計測装置10Aによれば、検知エリアAの外縁に差し掛かった人に相当する追尾対象の周辺に禁止領域NGを設定し、新たな識別番号の付与を禁止することにより、後続の追尾対象に誤った識別番号が付与されて誤計測が生じるのを防ぐことができる。 As described above, according to the passing person measuring device 10A according to the present embodiment, a prohibited area NG is set around a tracking target corresponding to a person approaching the outer edge of the detection area A, and a new identification number is assigned. By prohibiting this, it is possible to prevent incorrect measurements from being given to subsequent tracking targets.

[第2実施例]
図10に、本発明の第2実施例に係る通過人数計測装置10Bを示す。通過人数計測装置10Bは、熱画像生成部11Aの代わりに熱画像生成部11Bを備えている点と、制御部20Aの代わりに制御部20Bを備えている点と、記憶部12を備えていない点とにおいて通過人数計測装置10Aと相違しているが、他の点においては通過人数計測装置10Aと共通している。
[Second example]
FIG. 10 shows a passing person measuring device 10B according to a second embodiment of the present invention. The number-of-passers counting device 10B includes a thermal image generation section 11B instead of the thermal image generation section 11A, a control section 20B instead of the control section 20A, and does not include the storage section 12. Although it is different from the passer-by person measuring device 10A in this respect, it is common to the passer-by person measuring device 10A in other respects.

熱画像生成部11Bは、予め定めた時間(例えば、1/10s)の間に生じた検知エリアAの熱変化に関する画像、すなわち、第1実施例の差画像に相当する画像を生成することができるタイプの二次元の熱画像センサで構成されている。本実施例では、熱画像生成部11Bによって生成された画像が「エリア画像」Pとなる。 The thermal image generation unit 11B is capable of generating an image related to a thermal change in the detection area A that occurred during a predetermined time (for example, 1/10 s), that is, an image corresponding to the difference image of the first embodiment. It consists of a two-dimensional thermal image sensor of the type that can be used. In this embodiment, the image generated by the thermal image generation unit 11B is the "area image" P.

制御部20Bは、制御部20Aと同様、マイクロプロセッサと当該プロセッサ上で実行されるコンピュータプログラムとで構成されている。本実施例では、コンピュータプログラムの実行により、追尾対象認識部22、識別番号付与部23、発生位置記憶部24、位置予測部25および通過処理部26が制御部20B内に形成されている。 The control unit 20B, like the control unit 20A, is composed of a microprocessor and a computer program executed on the processor. In this embodiment, a tracking object recognition section 22, an identification number assignment section 23, an occurrence position storage section 24, a position prediction section 25, and a passage processing section 26 are formed in the control section 20B by executing a computer program.

第2実施例に係る通過人数計測装置10Bによれば、第1実施例に係る通過人数計測装置10Aと同じ作用効果が得られる。 According to the passer person measuring device 10B according to the second embodiment, the same effects as those of the passer person measuring device 10A according to the first embodiment can be obtained.

[変形例]
以上、本発明に係る人数計測装置の第1実施例および第2実施例について説明してきたが、本発明の構成はこれらに限定されるものではない。
[Modified example]
Although the first and second embodiments of the people counting device according to the present invention have been described above, the configuration of the present invention is not limited thereto.

例えば、通過人数計測装置10A,10Bは、商業施設以外の各種施設や各種乗物の出入口付近等に設けられた検知エリアAを通過する人を計測してもよい。 For example, the passing person measuring devices 10A and 10B may measure the number of people passing through a detection area A provided near the entrances and exits of various facilities other than commercial facilities and various vehicles.

また、通過人数計測装置10A,10Bの取り付け場所は、壁面であってもよい。 Moreover, the mounting location of the passing person measuring devices 10A and 10B may be a wall surface.

また、通過人数計測装置10A,10Bは、設定部13、外部インタフェース部14、音声出力部15および発光部16の全部または一部を備えていなくてもよい。 Furthermore, the passing person measuring devices 10A and 10B do not need to include all or part of the setting section 13, the external interface section 14, the audio output section 15, and the light emitting section 16.

また、通過人数計測装置10Aは、差画像生成部21(および記憶部12)を備えていなくてもよい。この場合、制御部20Aは、熱画像生成部11Aが生成した熱画像自体をエリア画像Pとして使用することができる。 Further, the number-of-passers counting device 10A does not need to include the difference image generation section 21 (and the storage section 12). In this case, the control unit 20A can use the thermal image itself generated by the thermal image generation unit 11A as the area image P.

また、通過人数計測装置10A,10Bは、熱画像生成部11A,11B、記憶部12および差画像生成部21の代わりに、検知エリアAにおける人の動き示すエリア画像Pを生成することが可能な任意のエリア画像生成手段を備えていてもよい。このような手段としては、例えば、距離画像センサを挙げることができる。距離画像センサを使用した場合は、床200よりも高いことを示している画素の集まりがクラスタ(追尾対象)となる。 Furthermore, the passing person measurement devices 10A and 10B can generate an area image P showing the movement of people in the detection area A instead of the thermal image generation units 11A and 11B, the storage unit 12, and the difference image generation unit 21. An arbitrary area image generation means may be provided. Such means include, for example, a distance image sensor. When a distance image sensor is used, a collection of pixels indicating that the object is higher than the floor 200 becomes a cluster (tracking target).

また、検知エリアAは、互いに形状が異なる2つ以上の分割領域で構成されていてもよい。 Further, the detection area A may be composed of two or more divided regions having mutually different shapes.

また、エリア画像Pを構成する各分割領域の外縁領域は、他の分割領域に接しない全ての辺に接するように設けられていなくてもよい。逆に言うと、各分割領域の外縁領域は、他の分割領域に接しない1つ以上の辺に接するように設けられていればよい。 Further, the outer edge region of each divided region constituting the area image P does not have to be provided so as to touch all sides that do not touch other divided regions. In other words, the outer edge area of each divided area may be provided so as to be in contact with one or more sides that are not in contact with other divided areas.

また、図4および図5に示した状況で通過処理部26が設定する禁止領域NGについては、次のような変形例が考えられる。なお、これらの変形例は、適宜組み合わせることが可能である。
・禁止領域NGの形状を円形状または正多角形状とする。
・時刻t4におけるクラスタTG1の周辺ではなく時刻t3におけるクラスタTG1の周辺に禁止領域NGを設定する。
・時刻t3に予測された位置TG1’の周辺に禁止領域NGを設定する。
・予め定めた条件を満たすまで禁止領域NGを設定し続ける。例えば、Δt×3が経過するまで禁止領域NGを設定し続ける。あるいは、クラスタTG1が存在しなくなるまで禁止領域NGを設定し続ける。
・予め定めた規則に従って、Δtが経過する毎に禁止領域NGの形状、大きさおよび位置のうちの少なくとも1つを変化させていく。例えば、クラスタTG1の大きさに応じて禁止領域NGの大きさを変化させていく。
Furthermore, the following modification examples are possible regarding the prohibited area NG set by the passage processing unit 26 in the situations shown in FIGS. 4 and 5. Note that these modifications can be combined as appropriate.
- Set the shape of the prohibited area NG to be circular or regular polygonal.
- A prohibited area NG is set around cluster TG1 at time t3 instead of around cluster TG1 at time t4.
- A prohibited area NG is set around the predicted position TG1' at time t3.
・Continue setting prohibited areas NG until predetermined conditions are met. For example, the prohibited area NG continues to be set until Δt×3 has elapsed. Alternatively, the prohibited area NG continues to be set until cluster TG1 no longer exists.
- At least one of the shape, size, and position of the prohibited area NG is changed every time Δt elapses according to a predetermined rule. For example, the size of the prohibited area NG is changed depending on the size of the cluster TG1.

10A,10B 通過人数計測装置
11A,11B 熱画像生成部
12 記憶部
13 設定部
14 外部インタフェース部
15 音声出力部
16 発光部
20A,20B 制御部
21 差画像生成部
22 追尾対象認識部
23 識別番号付与部
24 発生位置記憶部
25 位置予測部
26 通過処理部
100 天井
200 床
P エリア画像
P1 第1分割領域
P2 第2分割領域
TG1,TG2 追尾対象(クラスタ)
W1,W2 歩行者
10A, 10B Passing person measuring device 11A, 11B Thermal image generation section 12 Storage section 13 Setting section 14 External interface section 15 Audio output section 16 Light emitting section 20A, 20B Control section 21 Difference image generation section 22 Tracking target recognition section 23 Identification number assignment Section 24 Occurrence position storage section 25 Position prediction section 26 Passage processing section 100 Ceiling 200 Floor P Area image P1 First divided region P2 Second divided region TG1, TG2 Tracking target (cluster)
W1, W2 pedestrian

Claims (4)

所定の検知エリアを通過した人の数を計測する通過人数計測装置であって、
時間Δtが経過する毎に生成される前記検知エリアに関するエリア画像に基づいて、前記人に相当する追尾対象を認識する追尾対象認識部と、
認識された追尾対象に識別番号を付与する識別番号付与部と、
認識された追尾対象の発生位置が前記エリア画像を構成する複数の分割領域のうちのいずれに属するのかを、当該追尾対象に付与された識別番号に対応付けて記憶する発生位置記憶部と、
時刻tに生成されたエリア画像である現エリア画像に含まれる追尾対象の時刻t+Δtにおける位置を予測する位置予測部と、
前記現エリア画像に、予測された時刻t+Δtにおける位置が前記発生位置が属する分割領域とは異なる分割領域の外縁領域に属する追尾対象が含まれる場合に、当該追尾対象から前記識別番号を消去するとともに、当該追尾対象の数だけ前記人の数をカウントアップし、さらに、当該追尾対象の時刻tまたは時刻t+Δtの位置の周辺に禁止領域を設定する通過処理部と、
を備え、
前記識別番号付与部は、前記現エリア画像に含まれる追尾対象に対応する追尾対象が時刻t-Δtに生成されたエリア画像である前エリア画像に含まれていると判定した場合は、前記現エリア画像に含まれる当該追尾対象に前記前エリア画像に含まれる当該追尾対象に付与されている識別番号と同一の識別番号を付与する一方、前記現エリア画像に含まれる追尾対象に対応する追尾対象が前記前エリア画像に含まれていないと判定した場合は、前記現エリア画像に含まれる当該追尾対象に新たな識別番号を付与し、
また、前記識別番号付与部は、前記禁止領域に属する追尾対象については、新たな識別番号の付与を行わない
ことを特徴とする通過人数計測装置。
A passing person measuring device that measures the number of people passing through a predetermined detection area,
a tracking object recognition unit that recognizes a tracking object corresponding to the person based on an area image related to the detection area that is generated every time Δt elapses;
an identification number assigning unit that assigns an identification number to the recognized tracking target;
an occurrence position storage unit that stores to which of a plurality of divided regions constituting the area image the recognized occurrence position of the tracking target belongs in association with an identification number assigned to the tracking target;
a position prediction unit that predicts the position at time t+Δt of a tracking target included in a current area image that is an area image generated at time t;
When the current area image includes a tracking target whose position at the predicted time t+Δt belongs to an outer edge area of a divided area different from the divided area to which the occurrence position belongs, erasing the identification number from the tracking target and , a passage processing unit that counts up the number of people by the number of tracking targets, and further sets a prohibited area around the position of the tracking target at time t or time t+Δt;
Equipped with
When determining that the tracking target corresponding to the tracking target included in the current area image is included in the previous area image that is the area image generated at time t-Δt, the identification number assigning unit The tracking target included in the area image is given the same identification number as the tracking target included in the previous area image, while the tracking target corresponding to the tracking target included in the current area image is assigned. is not included in the previous area image, assigning a new identification number to the tracking target included in the current area image,
Further, in the passing person measuring device, the identification number assigning unit does not assign a new identification number to a tracking target belonging to the prohibited area.
前記通過処理部は、前記禁止領域の形状、大きさ、および位置のうちの少なくとも1つを予め定めた規則に従って時間Δtが経過する毎に変化させることができる
ことを特徴とする請求項1に記載の通過人数計測装置。
2. The passage processing unit is capable of changing at least one of the shape, size, and position of the prohibited area every time Δt elapses according to a predetermined rule. A device to measure the number of people passing by.
時刻tに生成された前記エリア画像は、時刻tに生成された熱画像である
ことを特徴とする請求項1または請求項2に記載の通過人数計測装置。
3. The device for measuring the number of people passing by according to claim 1, wherein the area image generated at time t is a thermal image generated at time t.
時刻tに生成された前記エリア画像は、時刻t-Δtおよび時刻tに生成された2つの熱画像の差画像である
ことを特徴とする請求項1または請求項2に記載の通過人数計測装置。
The device for measuring the number of people passing by according to claim 1 or 2, wherein the area image generated at time t is a difference image between two thermal images generated at time t-Δt and time t. .
JP2022145386A 2022-09-13 2022-09-13 Passing person measuring device Pending JP2024040800A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022145386A JP2024040800A (en) 2022-09-13 2022-09-13 Passing person measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022145386A JP2024040800A (en) 2022-09-13 2022-09-13 Passing person measuring device

Publications (1)

Publication Number Publication Date
JP2024040800A true JP2024040800A (en) 2024-03-26

Family

ID=90368973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022145386A Pending JP2024040800A (en) 2022-09-13 2022-09-13 Passing person measuring device

Country Status (1)

Country Link
JP (1) JP2024040800A (en)

Similar Documents

Publication Publication Date Title
CN104828664B (en) Automatic debugging system and method
CN106144798B (en) Sensor fusion for passenger transport control
US11037067B2 (en) Apparatus and method for occupancy detection
CN106144862B (en) Depth sensor based passenger sensing for passenger transport door control
CN106144861B (en) Depth sensor based passenger sensing for passenger transport control
JP5603403B2 (en) Object counting method, object counting apparatus, and object counting program
KR101961891B1 (en) Automatic counting method and appratus for human among the human and stuffs entering into automatic immigration check point
CN112850406A (en) Traffic list generation for passenger transport
KR102074857B1 (en) Proximity sensor and proximity sensing method using design vision sensor
JP7533646B2 (en) Evaluation device, evaluation method, and program
WO2019220589A1 (en) Video analysis device, video analysis method, and program
JP5300694B2 (en) Detection device
JP6995245B2 (en) Passenger guidance device and passenger guidance method
WO2003030550A1 (en) Optimal multi-camera setup for computer-based visual surveillance
JP2008217289A (en) People counting system
WO2017135310A1 (en) Passing number count device, passing number count method, program, and storage medium
JP2013068599A (en) Stay degree detection apparatus and passenger conveyor
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof
CN109670391B (en) Intelligent lighting device based on machine vision and dynamic identification data processing method
JP2010262527A (en) Passer counting device, passer counting method, and passer counting program
JP2024040800A (en) Passing person measuring device
JPH08161453A (en) People counting device
JP6331566B2 (en) Human head detection device and posture estimation device
JP5694834B2 (en) Object recognition method and object recognition apparatus
JP2024039744A (en) Passing person measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250417