JP4408355B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP4408355B2 JP4408355B2 JP2003290003A JP2003290003A JP4408355B2 JP 4408355 B2 JP4408355 B2 JP 4408355B2 JP 2003290003 A JP2003290003 A JP 2003290003A JP 2003290003 A JP2003290003 A JP 2003290003A JP 4408355 B2 JP4408355 B2 JP 4408355B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image information
- person
- area
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 163
- 238000000605 extraction Methods 0.000 claims description 79
- 210000000746 body region Anatomy 0.000 claims description 8
- 230000007717 exclusion Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 84
- 238000000034 method Methods 0.000 description 83
- 238000012937 correction Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000003796 beauty Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 235000003913 Coccoloba uvifera Nutrition 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 240000008976 Pterocarpus marsupium Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法及び画像処理プログラムに係り、より詳しくは、所定領域に対する人の入出状況を把握するための画像処理を行う画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, it relates to an image processing method and image processing program, and more particularly, to an image processing instrumentation 置及 beauty image processing program for performing image processing for grasping the input and the status of the human for a given area.
病院、図書館、役所、劇場等の各種施設の稼働状況を評価することは当該施設を良好に機能させる上で非常に重要であり、当該稼働状況を評価するためには、施設内における利用者の移動状況を把握する必要がある。 It is very important to evaluate the operational status of various facilities such as hospitals, libraries, government offices, and theaters in order for the facility to function well. It is necessary to grasp the movement situation.
この方法として、施設利用者にRFID(Radio Frequency Identification)タグ等の非接触型で無線の発信機を配布して所持させると共に、施設内の必要箇所に当該発信機からの発信電波を受信する受信機を予め設置しておき、各受信機による受信結果に基づいて利用者の移動状況を把握する方法が考えられる。 In this method, facility users receive non-contact wireless transmitters such as RFID (Radio Frequency Identification) tags and receive them, and receive the radio waves from the transmitters at the necessary locations in the facility. A method is conceivable in which a machine is installed in advance and the movement status of the user is grasped based on the reception result of each receiver.
しかしながら、この方法は、各施設利用者に対する発信機の配布や回収に手間がかかると共に、受信機の設置や回収にも時間と費用がかかるため現実的ではない。 However, this method is not practical because it takes time and effort to distribute and collect transmitters to each facility user, and it also takes time and cost to install and collect receivers.
そこで、簡易かつ低コストに施設利用者の移動状況を把握するために適用できる技術として、特許文献1には、人間が通行する通路を撮影するためのカメラを設けると共に、当該通路に沿って複数の監視エリアを設定し、上記カメラによる撮影によって得られた画像データにおける各監視エリア毎に単位時間内にエリアを横切る人数をカウントし、当該人数累計値の各エリア間でのばらつきが一定範囲内であれば全監視エリアの人数累計値の平均値を真の人数累計値とし、ばらつきが一定範囲を超えた監視エリアがあれば当該エリアの画面内に内乱が発生したものと判断して当該エリアを除く監視エリアの人数累計値に基づいて真の人数累計値を算出する技術が開示されている。
Therefore, as a technique that can be applied to grasp the movement status of facility users simply and at low cost,
この技術によれば、施設内の所定通路における通過人数を把握することができるので、当該技術を施設内の複数の通路に対して実施することにより、施設利用者の全体的な移動状況を把握することができる。
ところで、施設利用者による施設内の移動状況を把握するための一環として、当該施設内の所定室に対する利用者の入・退室状況を把握したい、という要望がある。例えば、当該施設が病院である場合、上記所定室として、内科、外科等の各診察室を例示することができる。この場合、当該診察室に対する患者の入室人数や退室人数を把握したり、各患者の当該診察室における滞在期間(診察期間)を把握することは、当該診察室の稼働状況を評価する上で非常に重要である。 By the way, as a part of grasping the movement situation in the facility by the facility user, there is a demand for grasping the user entry / exit situation with respect to a predetermined room in the facility. For example, when the facility is a hospital, the examination rooms such as internal medicine and surgery can be exemplified as the predetermined room. In this case, grasping the number of patients entering and leaving the examination room and knowing the stay period (examination period) of each patient in the examination room is very important in evaluating the operating status of the examination room. Is important to.
しかしながら、上記特許文献1の技術では、上記入室人数や退室人数を把握することはできるものの、上記滞在期間を把握することはできず、施設利用者の移動状況を充分には把握することができない、という問題点があった。
However, with the technique of
すなわち、上記特許文献1の技術では、画像の変化に基づいて監視エリアを横切る人数をカウントするものとされており、当該横切った人を特定することができないため、当該人の上記滞在期間を把握することはできない。
That is, in the technique of
本発明は上記問題点を解消するためになされたものであり、施設利用者の移動状況を高いレベルで把握することのできる画像処理装置及び画像処理プログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and an object thereof is to provide an image processing instrumentation 置及 beauty image processing program that can recognize the moving condition of the facility users at a high level.
上記目的を達成するために、請求項1記載の画像処理装置は、所定領域に対する人の入出状況を把握するための画像処理を行う画像処理装置であって、前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得手段と、前記画像取得手段により取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得手段により取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出手段と、前記第1抽出手段により抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出手段により抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出手段により抽出された前記第1画像情報と前記第1抽出手段により抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出手段と、前記第2抽出手段により抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を記憶する記憶手段と、を備えている。
In order to achieve the above object, an image processing apparatus according to
請求項1記載の画像処理装置によれば、画像取得手段により、所定領域に入る際と前記所定領域から出る際に人が通過する通過領域が所定期間毎に撮影されて複数の画像情報が取得される。
According to the image processing apparatus of
なお、上記通過領域は、1つの領域の場合もあるし、所定領域に入る際に人が通過する領域と所定領域から出る際に人が通過する領域とが異なる場合や、これらの領域の少なくとも1つが複数存在する場合等、複数の領域の場合もある。通過領域が1つの領域である場合は画像取得手段は1つのみ設ければよく、複数の領域である場合でも、各領域が比較的近くに位置する場合には画像取得手段は1つのみ設ければよい。これらの場合には、画像取得手段を複数設ける場合に比較して低コスト化することができると共に、処理を簡易化することができる。また、上記画像取得手段には、撮影によって被写体像のデジタル画像情報を取得するデジタル電子スチルカメラやデジタルビデオカメラ等のデジタルカメラが含まれる。 The passing area may be a single area, or the area through which a person passes when entering a predetermined area is different from the area through which a person passes when exiting the predetermined area, or at least of these areas There may be a plurality of regions, such as a case where a plurality of ones exist. If the passage area is a single area, only one image acquisition unit needs to be provided. Even in the case of a plurality of areas, only one image acquisition unit is provided if each area is located relatively close. Just do it. In these cases, the cost can be reduced as compared with the case where a plurality of image acquisition means are provided, and the processing can be simplified. The image acquisition means includes a digital camera such as a digital electronic still camera or a digital video camera that acquires digital image information of a subject image by photographing.
ここで、本発明では、第1抽出手段によって、前記画像取得手段により取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得手段により取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報が前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出されると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報が前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出され、第2抽出手段によって、前記第1抽出手段により抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出手段により抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出手段により抽出された前記第1画像情報と前記第1抽出手段により抽出された前記第2画像情報とが照合されて同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報が抽出される。 In the present invention, the first extraction unit Thus, as image information a person the passage region and a plurality of image information acquired is acquired by the image acquisition means in a state that has not passed by the image acquisition unit Compared with the predetermined background image information, and from the plurality of image information , the moving area in the time series order of the difference area on the image with the background image information enters the predetermined area, The image information substantially coincident with the passing direction when the person passes is extracted as first image information acquired by photographing when the person is passing through the passing area in order to enter the predetermined area , the image information passing substantially coincides with the direction the person the passage region to exit from the predetermined area is passing through when the moving direction passes person the passage region to exit from the predetermined area It is extracted as the second image information obtained by Kino shooting, to thus in a direction toward the oldest first image information from the most recent said first image information extracted by the first extracting means second extracting means The first image information extracted by the first extraction means and the first extraction means in order of the oldest second image information from the newest second image information extracted by the first extraction means. wherein the second image information and first image information representing an image including the extracted second image information and GaTeru engaged is by the same person are extracted.
更に、本発明では、第2抽出手段により抽出された第1画像情報及び第2画像情報の各々の画像取得手段による取得時間が記憶手段によって記憶される。なお、上記記憶手段には、RAM(Random Access Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュEEPROM(Flash EEPROM)等の半導体記憶素子、フロッピィディスク、CD−R(Compact Disc-Recordable)、CD−RW(Compact Disc-ReWritable)、光磁気ディスク等の可搬記録媒体やハードディスク等の固定記録媒体、或いはネットワークに接続されたサーバ・コンピュータ等に設けられた外部記憶装置が含まれる。 Further, in the present invention, the acquisition time by the image acquisition means of each of the first image information and the second image information extracted by the second extraction means is stored by the storage means. The storage means includes a RAM (Random Access Memory), an EEPROM (Electrically Erasable and Programmable Read Only Memory), a semiconductor storage element such as a flash EEPROM (Flash EEPROM), a floppy disk, and a CD-R (Compact Disc-Recordable). , A portable recording medium such as a CD-RW (Compact Disc-ReWritable), a magneto-optical disk, a fixed recording medium such as a hard disk, or an external storage device provided in a server computer connected to a network.
すなわち、本発明では、所定領域に入る際と当該所定領域から出る際に人が通過する領域を通過領域として規定し、当該通過領域を所定期間毎に撮影することによって、上記所定領域に対する人の入出を確実に捉えることができるようにしている。 That is, in the present invention, a region through which a person passes when entering and exiting a predetermined region is defined as a passing region, and the passing region is photographed every predetermined period, thereby allowing the human to pass the predetermined region. We are trying to capture the entry and exit with certainty.
従って、第1抽出手段により抽出された第1画像情報により示される画像と第2画像情報により示される画像には、互いに上記所定領域での滞在期間を隔てた時間間隔で、同一人物が高い確率で含まれることになる。 Therefore, in the image indicated by the first image information and the image indicated by the second image information extracted by the first extracting means, the same person has a high probability at a time interval separating the stay period in the predetermined area. Will be included.
そして、本発明では、以上のような第1画像情報と第2画像情報とによって示される各画像に含まれる人、すなわち、所定領域に入る人と所定領域から出る人とを照合して、同一人物が含まれる画像を示す第1画像情報及び第2画像情報を第2抽出手段により抽出し、当該抽出した第1、第2画像情報の各々の取得時間(各々の撮影時間であり、入場時間及び退場時間)を記憶するようにしているので、同一人物の所定領域に対する入場時間及び退場時間を正確に得ることができ、この結果として、当該人物の所定領域での滞在期間を正確に把握することができる。 And in this invention, the person contained in each image shown by the above 1st image information and 2nd image information, ie, the person who enters into a predetermined area, and the person who leaves a predetermined area, are collated, and it is the same First image information and second image information indicating an image including a person are extracted by the second extracting means, and each of the extracted first and second image information acquisition times (each shooting time, entrance time) And the exit time) can be stored accurately, so that the entrance time and the exit time for the predetermined area of the same person can be accurately obtained, and as a result, the stay period of the person in the predetermined area can be accurately grasped. be able to.
このように、請求項1に記載の画像処理装置によれば、所定領域に入る際と当該所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得し、取得された複数の画像情報と通過領域を人が通過していない状態で取得された画像情報として予め定められた背景画像情報とを比較し、複数の画像情報から、背景画像情報との画像上の差異領域の時系列順での移動方向が所定領域に入るために通過領域を人が通過するときの通過方向に略一致する画像情報を所定領域に入るために上記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、移動方向が所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する画像情報を上記所定領域から出るために上記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出し、抽出された最も新しい第1画像情報から最も古い第1画像情報に向かう方向に、抽出された最も新しい第2画像情報から最も古い第2画像情報の順で、抽出された第1画像情報と抽出された第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出し、抽出した第1画像情報及び第2画像情報の各々の取得時間を記憶しているので、所定領域での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる。 As described above, according to the image processing apparatus of the first aspect, a plurality of pieces of image information are obtained by photographing a passing area through which a person passes when entering and exiting the predetermined area for each predetermined period. And comparing the acquired plurality of image information with the background image information predetermined as the image information acquired in a state where the person does not pass through the passage area . Since the moving direction of the difference area on the image in time series order enters the predetermined area, the person passes the passing area to enter the predetermined area with the image information substantially matching the passing direction when the person passes the passing area. Extracted as first image information acquired by shooting when passing, and image information that substantially matches the passing direction when a person passes through the passing region in order for the moving direction to leave the predetermined region. To get out of the area Most serial passage region extracted as the second image information obtained by photographing when the person is passing, in the direction toward the oldest first image information from the most recent first image information extracted, the extracted in order of the oldest second image information from the new second image information, the first image information and second image information indicating an image including the irradiation combined and the same person that is extracted from the first image information extracted And the second image information is extracted, and the respective acquisition times of the extracted first image information and second image information are stored, so that it is possible to accurately grasp the stay period of the person in the predetermined area, As a result, the movement status of the facility user can be grasped at a high level.
なお、本発明は、請求項2に記載の発明のように、前記第1抽出手段が、前記画像取得手段によって取得された複数の画像情報の各々の前記通過領域に対応する全ての画素データと対応する前記背景画像情報の画素データとの差の絶対値を前記複数の画像情報毎に積算し、該積算結果が所定値以上の前記画像情報を抽出対象とするものである。
According to the present invention, as in the invention described in
また、前記第1抽出手段は、請求項3に記載の発明のように、前記画像取得手段によって取得された複数の画像情報の各々と前記背景画像情報とを比較し、該背景画像情報との画像上の差異領域の幅が所定幅以下の差異領域を抽出対象とすることが好ましい。
また、前記第1抽出手段は、請求項4に記載の発明のように、前記画像取得手段により取得された複数の画像情報によって示される画像の輝度レベルが前記背景画像情報によって示される画像の輝度レベルに応じたレベルとなるように前記複数の画像情報を調整した後に前記第1画像情報及び前記第2画像情報を抽出することが好ましい。これによって、より高精度に第1画像情報及び第2画像情報を抽出することができる。
Further, as in the invention described in
Further, as in a fourth aspect of the present invention, the first extraction unit is configured such that the luminance level of the image indicated by the plurality of pieces of image information acquired by the image acquisition unit is the luminance of the image indicated by the background image information. It is preferable to extract the first image information and the second image information after adjusting the plurality of pieces of image information so that the level is in accordance with the level. Thereby, the first image information and the second image information can be extracted with higher accuracy.
一方、本発明の前記第2抽出手段は、請求項5に記載の発明のように、前記第1画像情報及び前記第2画像情報により示される各画像に含まれる人の画像領域を上半身領域及び下半身領域に分割し、当該上半身領域及び下半身領域の双方の一致度が所定度合より高い前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。これによって、より高精度に同一人物の含まれる画像を示す第1画像情報及び第2画像情報を抽出することができる。
特に、この場合、請求項6に記載の発明のように、前記画像取得手段を、前記画像情報をカラーで取得するものとし、前記第2抽出手段が、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分との分布状態の一致度が所定度合より高く、かつ前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分との分布状態の一致度が所定度合より高い場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。
また、前記第2抽出手段は、請求項7に記載の発明のように、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲との重なり量の積算値、及び前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲との重なり量の積算値の双方が予め定められた積算値以上である場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。
また、前記第2抽出手段は、請求項8に記載の発明のように、前記第1画像情報により示される画像に含まれる人の着衣の柄と前記第2画像情報により示される画像に含まれる人の着衣の柄との一致度が所定度合いより高い前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。
On the other hand, the second extraction means of the present invention, like the invention according to claim 5 , converts an image area of a person included in each image indicated by the first image information and the second image information into an upper body area and It is preferable to divide into lower body areas and extract the first image information and the second image information in which the degree of coincidence of both the upper body area and the lower body area is higher than a predetermined degree as indicating an image including the same person. Thereby, the first image information and the second image information indicating the image including the same person can be extracted with higher accuracy.
In particular, in this case, as in the invention described in
Further, as in the invention described in claim 7 , the second extracting means is predetermined in a histogram of luminance values for each color component of the upper body region of the person included in the image indicated by the first image information. The amount of overlap between the luminance region range that is equal to or greater than the value and the luminance region range that is equal to or greater than the predetermined value in the histogram of luminance values for each color component of the upper body region of the person included in the image indicated by the second image information Indicated by the second image information and the luminance region range that is greater than or equal to a predetermined value in a histogram of luminance values for each color component of the lower body region of the person included in the image indicated by the first image information. Integrated value of the amount of overlap with the brightness area range that is equal to or greater than a predetermined value in the histogram of brightness values for each color component of the lower body area of the person included in the image It is preferable to extract both the first image information and the second image information in the case where the predetermined cumulative value or more as an indication of the image including the same person.
Further, as in the invention according to
なお、この場合、前記第2抽出手段は、請求項9に記載の発明のように、前記第1画像情報により示される画像と前記第2画像情報により示される画像の同一画像領域における輝度レベルが等しくなるように前記第1画像情報及び前記第2画像情報の少なくとも一方を調整した後に前記抽出を行うことが好ましい。これによって、より高精度に同一人物の含まれる画像を示す第1画像情報及び第2画像情報を抽出することができる。 In this case, as in the invention according to claim 9 , the second extraction means has a luminance level in the same image area of the image indicated by the first image information and the image indicated by the second image information. The extraction is preferably performed after adjusting at least one of the first image information and the second image information so as to be equal. Thereby, the first image information and the second image information indicating the image including the same person can be extracted with higher accuracy.
また、本発明は、請求項10に記載の発明のように、前記記憶手段は、前記入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報を予め記憶すると共に、前記第1画像情報及び前記第2画像情報により示される人の画像の前記特徴量を示す特徴量情報と前記除外特徴量情報とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定する判定手段と、前記判定手段により前記除外したい人であると判定された前記第1画像情報及び前記第2画像情報を処理対象から除外する除外手段と、を更に備える形態とすることができる。 Further, according to the present invention, as in the invention described in claim 10 , the storage means stores in advance excluded feature amount information indicating a predetermined feature amount of an image of a person who is to be excluded from the grasping target of the entry / exit status. And storing the feature amount information indicating the feature amount of the person's image indicated by the first image information and the second image information against the excluded feature amount information, so as to match the first image information and the first image information. Determining means for determining whether the person indicated by the two-image information is the person to be excluded, and the first image information and the second image information determined by the determining means to be the person to be excluded. An exclusion means for excluding from the processing target can be provided.
本発明によれば、入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報が記憶手段によって予め記憶される。なお、当該特徴量としては、上記除外したい人が定常的に身につけている着衣(例えば、本発明の所定領域において働いている従業員のユニフォーム)の色を示す物理量や、当該着衣の模様を示す物理量等を例示することができる。 According to the present invention, the excluded feature amount information indicating the predetermined feature amount of the image of the person who is to be excluded from the entry / exit status grasp target is stored in advance by the storage unit. In addition, as the feature quantity, a physical quantity indicating the color of clothing (for example, a uniform of an employee working in a predetermined area of the present invention) worn by a person who wants to be excluded, or a pattern of the clothing. The physical quantity to show etc. can be illustrated.
そして、本発明では、判定手段により、第1画像情報及び第2画像情報により示される人の画像の上記特徴量を示す特徴量情報と、上記除外特徴量情報とが照合されて、第1画像情報及び第2画像情報により示される人が上記除外したい人であるか否かが判定され、除外手段により、判定手段によって除外したい人であると判定された第1画像情報及び第2画像情報が処理対象から除外される。 In the present invention, the determination means collates the feature amount information indicating the feature amount of the human image indicated by the first image information and the second image information with the excluded feature amount information, and the first image is checked. It is determined whether or not the person indicated by the information and the second image information is the person who wants to be excluded, and the first image information and the second image information that are determined by the determining means to be excluded by the determining means. Excluded from processing.
このように、本発明によれば、入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報を予め記憶しておき、第1画像情報及び第2画像情報により示される人の画像の上記特徴量を示す特徴量情報と除外特徴量情報とを照合して、第1画像情報及び第2画像情報により示される人が除外したい人であるか否かを判定し、除外したい人であると判定された第1画像情報及び第2画像情報を処理対象から除外しているので、所定領域に対する入出状況を把握したい人のみを対象とすることができ、本発明の有用性を向上させることができる。
特に、この場合、請求項11に記載の発明のように、前記記憶手段が、前記除外特徴量情報として前記除外したい人の着衣の特徴を示す着衣特徴情報を予め記憶し、前記判定手段が、前記第1画像情報及び前記第2画像情報により示される人の着衣の特徴と前記着衣特徴情報により示される着衣の特徴とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定することが好ましい。
As described above, according to the present invention, the excluded feature amount information indicating the predetermined feature amount of the image of the person who is to be excluded from the entry / exit status grasp target is stored in advance, and the first image information and the second image information are stored. The feature amount information indicating the feature amount of the person's image indicated by the above and the excluded feature amount information are collated to determine whether the person indicated by the first image information and the second image information is a person to be excluded. Since the first image information and the second image information that are determined to be excluded are excluded from the processing target, only the person who wants to grasp the entry / exit status with respect to the predetermined area can be targeted. The usefulness of can be improved.
Particularly, in this case, as in the invention described in claim 11 , the storage unit stores in advance the clothing feature information indicating the feature of the clothing of the person desired to be excluded as the excluded feature amount information, and the determination unit includes: The first image information and the second image information indicate the characteristics of the person's clothing indicated by the first image information and the second image information and the characteristics of the clothing indicated by the clothing characteristic information. It is preferable to determine whether or not a person is the person who wants to be excluded.
ところで、本発明における第1抽出手段及び第2抽出手段による抽出は自動で行われるため、抽出漏れが発生する場合も考えられる。 By the way, since the extraction by the first extraction means and the second extraction means in the present invention is performed automatically, there may be a case where an extraction omission occurs.
そこで、本発明は、請求項12に記載の発明のように、前記第1抽出手段により抽出されなかった前記第1画像情報及び前記第2画像情報により示される各画像、及び前記第2抽出手段により抽出されなかった前記第1画像情報及び前記第2画像情報により示される各画像を表示するための表示手段と、前記表示手段により表示された画像において、前記所定領域に入るために前記通過領域を人が通過しているときの画像を指定する第1指定、及び前記所定領域から出るために前記通過領域を人が通過しているときの画像を指定する第2指定の少なくとも1つの指定を入力する指定入力手段と、各々同一人物を含む前記第1指定により指定された画像と前記第2指定により指定された画像とを対応付ける対応付け指示を入力する対応付け指示入力手段と、前記対応付け指示入力手段によって入力された対応付け指示により対応付けられた前記第1指定により指定された画像及び前記第2指定により指定された画像を示す前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を前記記憶手段に記憶するように制御を行う制御手段と、を更に備えることが好ましい。 Therefore, as in the invention described in claim 12 , the present invention provides each image indicated by the first image information and the second image information that has not been extracted by the first extraction means, and the second extraction means. Display means for displaying each image indicated by the first image information and the second image information not extracted by the display means, and in the image displayed by the display means, the passage area for entering the predetermined area A first designation for designating an image when a person is passing through and a second designation for designating an image when a person is passing through the passing area to exit the predetermined area. A designation instruction for inputting, a designation instruction for associating the image designated by the first designation and the image designated by the second designation, each including the same person. The first image information indicating the image specified by the first specification and the image specified by the second specification, and the image specified by the second specification, which are associated by the association instruction input by the association instruction input unit. It is preferable to further comprise control means for performing control so that the acquisition time of each of the second image information by the image acquisition means is stored in the storage means.
本発明によれば、第1抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像、及び第2抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像が表示手段によって表示される。なお、このとき、表示手段により表示する画像は、第1抽出手段及び第2抽出手段により抽出されなかった全ての画像情報により示される画像としてもよいし、一部の画像情報により示される画像のみとしてもよい。また、上記表示手段には、液晶ディスプレイ、CRTディスプレイ、プラズマ・ディスプレイ、有機ELディスプレイ等のディスプレイが含まれる。 According to the present invention, each image indicated by the first image information and the second image information not extracted by the first extraction means, and the first image information and the second image information not extracted by the second extraction means. Each image shown is displayed by the display means. At this time, the image displayed by the display means may be an image indicated by all image information not extracted by the first extraction means and the second extraction means, or only an image indicated by a part of the image information. It is good. The display means includes a display such as a liquid crystal display, a CRT display, a plasma display, and an organic EL display.
そして、本発明では、表示手段により表示された画像において、上記所定領域に入るために上記通過領域を人が通過しているときの画像を指定する第1指定、上記所定領域から出るために上記通過領域を人が通過しているときの画像を指定する第2指定の少なくとも1つの指定が指定入力手段によって入力される。
また、本発明では、各々同一人物を含む第1指定により指定された画像と第2指定により指定された画像とを対応付ける対応付け指示が対応付け指示入力手段によって入力される。
なお、上記指定入力手段及び対応付け指示入力手段には、第1指定、第2指定、及び対応付け指示を入力するために操作されるマウス、トラック・ボール、タブレット等のポインティング・デバイスや、キーボード、各種スイッチ類が含まれる。
In the present invention, in the image displayed by the display means, a first designation for designating an image when a person is passing through the passing area to enter the predetermined area, and the above-mentioned for exiting from the predetermined area. At least one of the specified second specified is inputted by the specification input means for designating an image when the passage region people are passing through.
In the present invention, the association instruction input unit inputs an association instruction for associating the image designated by the first designation including the same person with the image designated by the second designation.
The designation input unit and the association instruction input unit include a pointing device such as a mouse, a track ball, and a tablet operated to input the first designation, the second designation, and the association instruction , and a keyboard. Various switches are included.
すなわち、本発明では、本発明の第1抽出手段及び第2抽出手段により抽出されなかった画像情報、すなわち、各抽出手段による抽出対象から漏れた可能性のある画像情報による画像を表示手段により表示すると共に、これらの中から第1抽出手段により抽出対象とされている画像情報を指定した上で、第2抽出手段により抽出対象とされている画像情報を指定できるようにしており、これによって第1、第2抽出手段による抽出対象から漏れた画像情報を、表示手段に表示された画像に対する人による視覚的な判断によって抽出することを可能としている。 That is, in the present invention, the display means displays the image information that has not been extracted by the first extraction means and the second extraction means of the present invention, that is, the image based on the image information that may have been leaked from the extraction target by each extraction means. while, after designating the image information being subject to extraction by the first extraction means from among these, has been to specify the image information which is the extraction target by the second extraction means, whereby Image information leaked from the extraction target by the first and second extraction means can be extracted by visual judgment by a person with respect to the image displayed on the display means.
このように、本発明によれば、第1抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像、及び第2抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像を表示手段により表示し、当該表示した画像において、上記所定領域に入るために上記通過領域を人が通過しているときの画像を指定する第1指定、上記所定領域から出るために上記通過領域を人が通過しているときの画像を指定する第2指定、及び各々同一人物を含む第1指定により指定された画像と第2指定により指定された画像とを対応付ける対応付け指示を入力することができるので、本発明の第1抽出手段及び第2抽出手段による抽出漏れを補うことができる。 Thus, according to the present invention, each image indicated by the first image information and the second image information that has not been extracted by the first extraction means, and the first image information and the first image information that have not been extracted by the second extraction means. Each image indicated by the two-image information is displayed on the display means, and in the displayed image, a first designation for designating an image when a person passes through the passage area to enter the predetermined area, the predetermined designation A second designation for designating an image when a person is passing through the passing area to exit the area, and an image designated by the first designation and the image designated by the second designation, each including the same person. Since the association instruction to be associated can be input, the extraction omission by the first extraction unit and the second extraction unit of the present invention can be compensated.
また、上記目的を達成するために、請求項13記載の画像処理プログラムは、所定領域に対する人の入出状況を把握するための画像処理を行う画像処理プログラムであって、前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得ステップと、前記画像取得ステップにより取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得ステップにより取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出ステップと、前記第1抽出ステップにより抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出ステップにより抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出ステップにより抽出された前記第1画像情報と前記第1抽出ステップにより抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出ステップと、前記第2抽出ステップにより抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得ステップによる取得時間を記憶手段に記憶する記憶ステップと、をコンピュータに実行させるものである。 In order to achieve the above object, an image processing program according to claim 13 is an image processing program for performing image processing for grasping a person's entering / exiting status with respect to a predetermined area, when entering the predetermined area; An image acquisition step of acquiring a plurality of pieces of image information by photographing a passage region through which a person passes when exiting the predetermined region, and a plurality of pieces of image information acquired by the image acquisition step and the passage region. Compared with the background image information predetermined as the image information acquired by the image acquisition step in a state where no person has passed, and from the plurality of image information, the difference area on the image with the background image information before to enter the image information substantially coincides with the passage direction when the moving direction in chronological order to the passage region human pass to enter the predetermined region in the predetermined region Substantially with the passage region human is extracted as first image information obtained by photographing it passes through, in the passing direction when the moving direction is the passage region human pass to exit from the predetermined area A first extraction step of extracting the matching image information as second image information acquired by photographing when a person is passing through the passage region in order to exit the predetermined region, and extraction by the first extraction step In the direction from the newest first image information to the oldest first image information, in the order of the oldest second image information from the newest second image information extracted by the first extraction step, It includes irradiation combined and the same person and the extracted second image information by the the extracted first image information first extraction step by the first extraction step A second extraction step for extracting the first image information indicating the image and the second image information; and the image acquisition step for each of the first image information and the second image information extracted by the second extraction step. And a storage step of storing the acquisition time in the storage means.
従って、請求項13に記載の画像処理プログラムによれば、コンピュータに対して請求項1記載の発明と同様に作用させることができるので、請求項1記載の発明と同様に、所定領域での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる。 Therefore, according to the image processing program of the thirteenth aspect , the computer can be operated in the same manner as the first aspect of the invention. As a result, it is possible to grasp the movement status of the facility user at a high level.
本発明によれば、所定領域に入る際と当該所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得し、取得された複数の画像情報と通過領域を人が通過していない状態で取得された画像情報として予め定められた背景画像情報とを比較し、複数の画像情報から、背景画像情報との画像上の差異領域の時系列順での移動方向が所定領域に入るために通過領域を人が通過するときの通過方向に略一致する画像情報を所定領域に入るために上記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、移動方向が所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する画像情報を上記所定領域から出るために上記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出し、抽出された最も新しい第1画像情報から最も古い第1画像情報に向かう方向に、抽出された最も新しい第2画像情報から最も古い第2画像情報の順で、抽出された第1画像情報と抽出された第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出し、抽出した第1画像情報及び第2画像情報の各々の取得時間を記憶しているので、所定領域での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる、という効果が得られる。 According to the present invention, a plurality of pieces of acquired image information and passages are acquired by photographing a passing region through which a person passes when entering a predetermined region and exiting from the predetermined region for each predetermined period. Compared with background image information predetermined as image information acquired in a state where no person has passed through the region, from a plurality of image information in the time-series order of the difference region on the image with the background image information Image information that substantially matches the passing direction when a person passes through the passing area because the moving direction enters the predetermined area was acquired by photographing when the person was passing the passing area to enter the predetermined area. The first image information is extracted, and the person passes through the passage area in order to exit the predetermined area of image information that substantially matches the passage direction when the person passes through the passage area in order to move out of the predetermined area. When passing Extracted as second image information obtained by photographing, in the direction towards the oldest first image information from the most recent first image information extracted, the oldest second image information from the most recent second image information extracted successively with a, and a second image information extracted from the first image information extracted irradiation combined extracts said second image data and the first image information representing an image including the same person, extracted Since the acquisition time of each of the first image information and the second image information is stored, it is possible to accurately grasp the staying period of the person in the predetermined area, and as a result, the movement situation of the facility user is high. The effect of being able to grasp by level is obtained.
以下、図面を参照して、本発明を実施するための最良の形態について詳細に説明する。なお、ここでは、本発明を、病院の診察室に対する患者の移動状況を把握する用途に適用した場合の形態について説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the drawings. In addition, the form at the time of applying this invention to the use which grasps | ascertains the movement state of the patient with respect to the examination room of a hospital is demonstrated here.
〔第1の実施の形態〕
まず、図1を参照して、本発明が適用された施設利用者計測システム10の構成を説明する。
[First Embodiment]
First, the configuration of a facility user measurement system 10 to which the present invention is applied will be described with reference to FIG.
同図に示すように、本形態に係る施設利用者計測システム10には、施設利用者計測装置20が備えられている。この施設利用者計測装置20には、本装置の全体的な動作を制御する制御部36、操作者からの各種情報等の入力に使用するキーボード30及びマウス32、本装置による処理結果や各種メニュー画面、メッセージ等を表示するディスプレイ34が備えられている。すなわち、本実施の形態に係る施設利用者計測装置20は、汎用のパーソナル・コンピュータで構成されている。
As shown in the figure, the facility user measurement system 10 according to this embodiment includes a facility
一方、施設利用者計測システム10には、予め設定された期間毎にカラー静止画像を撮影するデジタル電子スチルカメラ(以下、「カメラ」という。)50が備えられており、当該カメラ50は施設利用者計測装置20に電気的に接続されている。なお、カメラ50と施設利用者計測装置20の接続形態には特に限定はないが、本実施の形態では、ネットワークを介して接続している。これにより、カメラ50と施設利用者計測装置20との間が比較的離れていても容易に接続することができ、施設利用者計測システム10を柔軟に構築することができる。
On the other hand, the facility user measurement system 10 includes a digital electronic still camera (hereinafter referred to as “camera”) 50 that captures a color still image for each preset period. It is electrically connected to the
次に、図2を参照して、施設利用者計測システム10の電気系の構成を説明する。 Next, the configuration of the electrical system of the facility user measurement system 10 will be described with reference to FIG.
同図に示すように、施設利用者計測装置20は、施設利用者計測装置20全体の動作を司るCPU(中央処理装置)22と、CPU22による各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)24と、各種処理プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)26と、各種情報を記憶するために用いられるハードディスク28と、前述のキーボード30、マウス32、及びディスプレイ34と、外部に接続された装置との間の各種情報の授受を司る外部インタフェース36と、がシステムバスBUSにより相互に接続されて構成されている。なお、外部インタフェース36には、前述のカメラ50の、撮影によって得られたカラー静止画像を示すデジタル画像データを出力する出力端子が接続されている。
As shown in the figure, the facility
従って、CPU22は、RAM24、ROM26、及びハードディスク28に対するアクセス、キーボード30及びマウス32を介した各種入力情報の取得、ディスプレイ34に対する各種情報の表示、及び外部インタフェース36を介したカメラ50からのデジタル画像データの取得、を各々行うことができる。
Therefore, the
なお、カメラ50は、撮影によって得られたデジタル画像データを所定の圧縮形式(ここでは、JPEG形式)で圧縮した後に施設利用者計測装置20に出力するように設定されており、これによってデジタル画像データの高速な転送を実現している。
The
また、図3に示すように、カメラ50は、病院60の待合室64における天井面及び壁面の境界位置近傍で、患者の移動状況の把握対象とされた診察室62の入退室口66が撮影できる位置に設置されている。
In addition, as shown in FIG. 3, the
図4には、当該カメラ50による撮影によって得られた画像70の一例が示されている。なお、同図では、便宜上、当該画像70が線画で表現されているが、実際には所定解像度とされたカラー画像となっていることは言うまでもない。
FIG. 4 shows an example of an image 70 obtained by photographing with the
同図に示すように、この画像70は、診察室62の入退室口66が含まれると共に、待合室64の内部が含まれたものとされている。
As shown in the figure, this image 70 includes the entrance /
ところで、本実施の形態に係る施設利用者計測システム10では、図5に示すように、カメラ50による撮影エリアにおける入退室口66を含む所定面積とされた矩形領域が判定エリアA1として予め定められている。また、施設利用者計測システム10では、当該撮影エリアにおける人が存在する可能性の著しく低い壁面に対応する矩形領域が輝度補正エリアA2として予め定められている。なお、同図に示した判定エリアA1及び輝度補正エリアA2の位置は一例であり、適宜変更することができる。
By the way, in the facility user measurement system 10 according to the present embodiment, as shown in FIG. 5, a rectangular area having a predetermined area including the entrance /
そして、本形態に係る施設利用者計測システム10では、判定エリアA1に人が存在しないときのカメラ50による撮影によって得られたデジタル画像データの、当該判定エリアA1に対応するデジタル画像データを背景画像情報として施設利用者計測装置20のハードディスク28の所定領域に予め記憶している。同様に、施設利用者計測システム10では、輝度補正エリアA2に人が存在しないときのカメラ50による撮影によって得られたデジタル画像データの、当該輝度補正エリアA2に対応するデジタル画像データを輝度補正画像情報としてハードディスク28の所定領域に予め記憶している。
In the facility user measurement system 10 according to the present embodiment, the digital image data corresponding to the determination area A1 of the digital image data obtained by photographing with the
なお、本実施の形態に係る施設利用者計測システム10には、病院60で働く医師、看護士、放射線技師等の従業員と患者とを、着衣の特徴に基づいて判別する機能が備えられている。そして、ハードディスク28の所定領域には、上記従業員の着衣(本実施の形態では、白衣)の色成分(以下、「除外色成分」という。)を示す情報が予め記憶されている。
The facility user measurement system 10 according to the present embodiment has a function of discriminating employees and patients such as doctors, nurses, and radiographers working at the hospital 60 based on the characteristics of clothing. Yes. In a predetermined area of the
次に、本実施の形態に係る施設利用者計測システム10の作用を説明する。まず、図6を参照して、施設利用者計測装置20において予め定められた計測期間(本実施の形態では、午前9時から午後4時30分までの期間)内に実行される施設利用者計測処理について説明する。なお、図6は、上記計測期間に施設利用者計測装置20のCPU22によって実行される施設利用者計測処理プログラムの処理の流れを示すフローチャートであり、該プログラムはROM26の所定領域に予め記憶されている。また、ここでは、カメラ50による撮影間隔(ここでは、0.2秒)が予め設定されている場合について説明する。すなわち、本実施の形態では、カメラ50から施設利用者計測装置20に対して、毎秒5枚のカラー静止画像を示すデジタル画像データが送信されるように設定されている。
Next, the operation of the facility user measurement system 10 according to the present embodiment will be described. First, referring to FIG. 6, the facility user that is executed within a predetermined measurement period (in this embodiment, a period from 9:00 am to 4:30 pm) in facility
まず、ステップ100では、カメラ50からのカラー静止画像1枚分のデジタル画像データの受信待ちを行い、次のステップ102では、受信したデジタル画像データをハードディスク28の所定領域に記憶する。なお、このとき、当該デジタル画像データを電子化ファイル(画像ファイル)として記憶しており、当該画像ファイルにはデジタル画像データを取得した時刻を示す情報(所謂タイム・スタンプ)が自動的に記憶されることになる。
First, in
次のステップ104では、カメラ50から受信してハードディスク28に記憶したデジタル画像データが所定数(本実施の形態では、2秒間の撮影により得られるデジタル画像データの数)に達したか否かを判定し、否定判定の場合は上記ステップ100に戻り、肯定判定となった時点でステップ106に移行する。
In the
なお、上記ステップ100〜ステップ104の繰り返し処理は、ステップ106以降の処理を上記所定数のデジタル画像データが記憶される毎に行うようにするためのものであり、上記ステップ104では、それまでにステップ106以降の処理の対象とされなかったデジタル画像データの数が上記所定数との比較対象とされる。以下の説明では、当該所定数の処理対象とするデジタル画像データを「処理対象画像データ」という。本実施の形態では、2秒間の撮影により得られるデジタル画像データの数に相当する10枚分の画像を示すデジタル画像データが処理対象画像データとなる。
The repetitive processing from
ステップ106では、処理対象画像データにより示される画像の判定エリアA1における輝度レベルが上記背景画像情報により示される画像の輝度レベルに応じたレベルとなるように処理対象画像データを調整する。なお、当該調整は、上記所定数の処理対象画像データの各々を圧縮形式に応じた形式で伸張した後に行う。
In
本実施の形態では、当該輝度レベルの調整を、一例として次のように行う。 In the present embodiment, the luminance level is adjusted as follows as an example.
まず、判定エリアA1における人が通過する可能性の低い一部領域(例えば、判定エリアA1の上端部近傍の領域)に対応する背景画像情報の画素データのR(赤)、G(緑)、B(青)毎の平均値BR、BG、BBを算出すると共に、当該一部領域に対応する各処理対象画像データの画素データのR、G、B毎の平均値TR、TG、TBを算出する。 First, the pixel data R (red), G (green) of the background image information corresponding to a partial region (for example, a region near the upper end of the determination area A1) that is unlikely to pass through in the determination area A1. The average values BR, BG, and BB for each B (blue) are calculated, and the average values TR, TG, and TB for the pixel data of each processing target image data corresponding to the partial area are calculated for each R, G, and B. To do.
次に、平均値BRに対する平均値TRの割合を示す係数CR(=BR/TR)と、平均値BGに対する平均値TGの割合を示す係数CG(=BG/TG)と、平均値BBに対する平均値TBの割合を示す係数CB(=BB/TB)と、を各処理対象画像データ毎に算出する。 Next, a coefficient CR (= BR / TR) indicating a ratio of the average value TR to the average value BR, a coefficient CG (= BG / TG) indicating a ratio of the average value TG to the average value BG, and an average with respect to the average value BB A coefficient CB (= BB / TB) indicating the ratio of the value TB is calculated for each processing target image data.
最後に、各処理対象画像データ毎に、処理対象画像データの判定エリアA1におけるRの各画素データに対して当該処理対象画像データにおける係数CRを、処理対象画像データの判定エリアA1におけるGの各画素データに対して当該処理対象画像データにおける係数CGを、処理対象画像データの判定エリアA1におけるBの各画素データに対して当該処理対象画像データにおける係数CBを、各々乗算する。 Finally, for each piece of processing target image data, a coefficient CR in the processing target image data for each pixel data of R in the processing target image data determination area A1, and each of G in the processing target image data determination area A1. The pixel data is multiplied by the coefficient CG in the processing target image data, and the pixel data of B in the processing target image data determination area A1 is multiplied by the coefficient CB in the processing target image data.
なお、処理対象画像データの輝度レベルの調整方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号を適用することにより処理対象画像データの判定エリアA1における輝度レベルの調整を行うことができる。また、例えば、上記のようにR、G、Bの全てについて係数を算出するのではなく、R、G、Bの何れか1つの色成分のみについて係数を算出し、当該係数を全ての色成分の輝度レベルの調整に適用することもできる。
Note that the method of adjusting the luminance level of the processing target image data is not limited to the above method. For example, when the digital image data obtained by the
処理対象画像データの判定エリアA1における輝度レベルの調整が終了すると、次のステップ108では、各処理対象画像データ毎に、処理対象画像データと背景画像情報との差分値Dを算出する。
When the adjustment of the luminance level in the determination area A1 of the processing target image data is completed, in the
なお、本実施の形態では、当該差分値Dを、一例として次のように算出する。 In the present embodiment, the difference value D is calculated as follows as an example.
まず、処理対象画像データの判定エリアA1における全ての画素データと背景画像情報の対応する画素データとの差の絶対値を、R、G、B毎で、かつ各処理対象画像データ毎に算出する。 First, the absolute value of the difference between all the pixel data in the determination area A1 of the processing target image data and the corresponding pixel data of the background image information is calculated for each processing target image data for each of R, G, and B. .
次に、算出した全ての上記絶対値を各処理対象画像データ毎に積算することにより差分値Dを算出する。 Next, the difference value D is calculated by integrating all the calculated absolute values for each processing target image data.
なお、差分値Dの算出方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号及び色差信号の少なくとも一方を適用することにより処理対象画像データと背景画像情報との差分値Dを算出することができる。
Note that the method of calculating the difference value D is not limited to the above method. For example, when the digital image data obtained by the
なお、当該差分値Dの算出時において、各処理対象画像データ毎に、処理対象画像データによって示される画像の背景画像情報により示される画像から変化している領域(以下、「画像変化領域」という。)を抽出し、当該画像変化領域を示す情報を対応する処理対象画像データに関連付けた状態でハードディスク28の所定領域に記憶しておく。
Note that, at the time of calculating the difference value D, for each processing target image data, an area changed from the image indicated by the background image information of the image indicated by the processing target image data (hereinafter referred to as “image change area”). .) Is extracted, and information indicating the image change area is stored in a predetermined area of the
ここで、本実施の形態では、当該画像変化領域の抽出を、R、G、Bの少なくとも1つについて上記絶対値が所定値(例えば、画素データの最大値(画素データが8ビット構成である場合では‘255’)の半分の値。)以上となった画素群を当該画像変化領域として抽出することにより行っているが、他の方法として、例えば、R、G、Bの全てについて上記絶対値が上記所定値以上となった画素群を当該画像変化領域として抽出することにより行う形態等、処理対象画像データと背景画像情報との間の変化領域(差異領域)を抽出することのできるあらゆる方法を適用することができる。 Here, in the present embodiment, the extraction of the image change area is performed by extracting the absolute value of at least one of R, G, and B with a predetermined value (for example, the maximum value of pixel data (pixel data has an 8-bit configuration). In some cases, the value is half of “255”).) The above pixel group is extracted as the image change region. However, as another method, for example, the absolute value of all of R, G, and B is used. Any area that can extract a change area (difference area) between image data to be processed and background image information, such as a mode in which a pixel group having a value equal to or greater than the predetermined value is extracted as the image change area The method can be applied.
各処理対象画像データ毎の差分値Dの算出が終了すると、次のステップ110では、各差分値Dの中に所定値以上となるものが存在するか否かを判定し、否定判定となった場合は処理対象画像データに人の画像が含まれるものはなかったものと判断して上記ステップ100に戻り、肯定判定となった場合にはステップ112に移行する。なお、ここで適用する所定値は、差分値Dが当該値以上となった場合に、当該差分値Dに対応する処理対象画像データにより示される画像の判定エリアA1に人の画像が含まれる可能性が高いものと見なせる値として、実験により統計的に予め得られた値や、コンピュータ・シミュレーションで予め得られた値等を適用することができる。
When the calculation of the difference value D for each processing target image data is completed, in the
ステップ112では、上記ステップ110において肯定判定となった差分値Dに対応する全ての処理対象画像データにおける画像変化領域の幅Wを算出し、次のステップ114では、算出した幅Wが所定幅(ここでは、標準的な人の幅の2倍に相当する幅)以下となる処理対象画像データが存在するか否かを判定し、否定判定の場合は処理対象画像データに一人のみの画像が含まれるものはなかったものと判断して上記ステップ100に戻り、肯定判定となった場合にはステップ116に移行する。なお、ここで、ステップ116に移行する際には、幅Wが所定幅以下となった処理対象画像データを、所定フラグを立てる等の処理により、以降の処理の対象となる画像データ(以下、「実処理対象画像データ」という。)であるものとして識別可能としておく。
In
ステップ116では、各実処理対象画像データ毎に、画像変化領域における色成分を示す情報と上記除外色成分を示す情報との間の一致度Cを算出する。なお、ここでは、画像変化領域における全画素数に対する、除外色成分と略同一の色成分となる画素数の占める割合(%)を当該一致度Cとしているが、これに限るものではない。
In
次のステップ118では、算出した一致度Cが所定値(ここでは、90%)以上であるか否かを各実処理対象画像データ毎に判定し、肯定判定となった実処理対象画像データに対してはステップ120において従業員であることを示す属性を付与し、否定判定となった実処理対象画像データに対してはステップ122において非従業員であることを示す属性を付与した後にステップ124に移行する。
In the
ステップ124では、実処理対象画像データにより示される画像における画像変化領域の変化方向を検出する。本実施の形態では、一例として図7に示すように、判定エリアA1における診察室62への入室時の人の移動方向は左から右へ向かう方向(以下、「入室方向」という。)とされ、診察室62からの退室時の人の移動方向は右から左へ向かう方向(以下、「退室方向」という。)とされているため、ここでは、入室方向及び退室方向の何れか一方が検出されることになる。
In
なお、本実施の形態では、当該変化方向として、実処理対象画像データが複数ある場合には、各実処理対象画像データによって示される画像変化領域の時系列順の変化方向を検出する。また、実処理対象画像データが1つのみである場合には、当該実処理対象画像データによって示される画像変化領域の判定エリアA1における位置が左端寄りであるときは入室方向であるものとし、同様に右端寄りであるときには退室方向であるものとする。 In the present embodiment, when there are a plurality of actual process target image data, the change direction in the time series order of the image change area indicated by each actual process target image data is detected as the change direction. In addition, when there is only one actual processing target image data, when the position in the determination area A1 of the image change area indicated by the actual processing target image data is closer to the left end, it is assumed that the direction is the entrance direction. When it is closer to the right end, it is assumed that the direction is to leave the room.
次のステップ126では、検出した変化方向が入室方向であるか否かを各実処理対象画像データ毎に判定し、肯定判定となった実処理対象画像データに対してはステップ128において入室時の撮影画像であることを示す属性を付与し、否定判定となった実処理対象画像データに対してはステップ130において退室時の撮影画像であることを示す属性を付与した後にステップ132に移行する。
In the
ステップ132では、以上の処理によって得られた実処理対象画像データに関する情報(以下、「計測情報」という。)をハードディスク28の所定領域に記憶する。なお、ここで、実処理対象画像データが複数ある場合には、画像変化領域の占める割合が一番大きな実処理対象画像データに関する情報のみ記憶する。
In
次のステップ134では、予め定められた計測期間(本実施の形態では、午前9時から午後4時30分までの期間)が終了したか否かを判定し、否定判定となった場合は上記ステップ100に戻り、肯定判定となった時点で本施設利用者計測処理プログラムを終了する。
In the
図8には、本施設利用者計測処理プログラムによってハードディスク28に記憶された計測情報の一例が示されている。同図に示すように、本実施の形態に係る施設利用者計測システム10では、上記計測情報として、ハードディスク28に記憶された全てのデジタル画像データについてハードディスク28に記憶された時系列順に付与されたイベント番号と、画像ファイル名と、撮影日時(ここでは、画像ファイルに付与されたタイム・スタンプ)と、上記ステップ128又はステップ130で付与された入室又は退室の別を示す入・退室属性と、上記ステップ120又はステップ122で付与された従業員又は非従業員の別を示す従業員属性と、の各情報が、実処理対象画像データ毎にハードディスク28に記憶される。なお、同図における‘IN’は入室を、‘OUT’は退室を、各々示す。また、同図における‘P’は非従業員(患者)を、‘S’は従業員を、各々示す。以下では、計測情報が図8に示すものである場合について説明する。
FIG. 8 shows an example of measurement information stored in the
次に、図9を参照して、施設利用者計測装置20において上記施設利用者計測処理の実行終了後に実行される個別識別処理について説明する。なお、図9は、当該個別識別処理の実行時に施設利用者計測装置20のCPU22によって実行される個別識別処理プログラムの処理の流れを示すフローチャートであり、該プログラムもROM26の所定領域に予め記憶されている。
Next, with reference to FIG. 9, the individual identification process performed after completion | finish of execution of the said facility user measurement process in the facility
まず、ステップ200では、上記施設利用者計測処理によって記憶された計測情報(図8も参照。)をハードディスク28から読み出し、当該計測情報に記録された画像ファイル名に対応する実処理対象画像データを、写っている人の種類(ここでは、患者と従業員)別で、かつ入・退室別に、当該計測情報に含まれる属性情報に基づいて分類し、当該分類結果を示す情報(以下、「分類情報」という。)をハードディスク28の所定領域に記憶する。
First, in
図10には、本ステップ200の処理によって得られた分類情報の一例が示されている。同図に示すように、本実施の形態に係る施設利用者計測システム10では、上記分類情報として、計測情報に記録された画像ファイル名が、写っている人の種類別で、かつ入・退室別の4つの分類領域毎に分類されてハードディスク28に記憶される。なお、同図に示すように、このとき各分類領域内では、撮影日時の時系列順に画像ファイル名が並ぶように記憶する。以下では、分類情報が図10に示すものである場合について説明する。また、以下では、患者が写っており、かつ入室時の実処理対象画像データの分類領域を「入室画像データ領域」といい、患者が写っており、かつ退室時の実処理対象画像データの分類領域を「退室画像データ領域」という。
FIG. 10 shows an example of the classification information obtained by the processing of
次のステップ202では、入室画像データ領域における、以降の処理を行っていない、最も撮影日時の新しい画像ファイル名を分類情報から読み出し、当該画像ファイルのデジタル画像データ(以下、「処理対象入室画像データ」という。)をハードディスク28から読み出す。
In the
次のステップ204では、処理対象入室画像データにより示される画像の輝度補正エリアA2における輝度レベルがハードディスク28に予め記憶されている輝度補正画像情報により示される画像の輝度レベルに応じたレベルとなるように当該処理対象入室画像データを調整する。なお、当該調整は、当該処理対象入室画像データを圧縮形式に応じた形式で伸張した後に行う。
In the
本実施の形態では、当該輝度レベルの調整を、一例として次のように行う。 In the present embodiment, the luminance level is adjusted as follows as an example.
まず、輝度補正画像情報の各画素データのR、G、B毎の平均値MR、MG、MBを算出すると共に、処理対象入室画像データの輝度補正エリアA2における各画素データのR、G、B毎の平均値NR、NG、NBを算出する。 First, the average values MR, MG, and MB for each pixel data of the luminance correction image information for each of R, G, and B are calculated, and the R, G, and B of each pixel data in the luminance correction area A2 of the processing target room entrance image data are calculated. Average values NR, NG, and NB are calculated for each.
次に、平均値MRに対する平均値NRの割合を示す係数DR(=MR/NR)と、平均値MGに対する平均値NGの割合を示す係数DG(=MG/NG)と、平均値MBに対する平均値NBの割合を示す係数DB(=MB/NB)と、を算出する。 Next, a coefficient DR (= MR / NR) indicating the ratio of the average value NR to the average value MR, a coefficient DG (= MG / NG) indicating the ratio of the average value NG to the average value MG, and an average for the average value MB A coefficient DB (= MB / NB) indicating the ratio of the value NB is calculated.
最後に、処理対象入室画像データにおけるRの各画素データに対して係数DRを、Gの各画素データに対して係数DGを、Bの各画素データに対して係数DBを、各々乗算する。 Finally, the coefficient DR is multiplied for each R pixel data in the processing target room entrance image data, the coefficient DG is multiplied for each G pixel data, and the coefficient DB is multiplied for each B pixel data.
なお、処理対象入室画像データの輝度レベルの調整方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号を適用することにより処理対象入室画像データの輝度レベルの調整を行うことができる。また、例えば、上記のようにR、G、Bの全てについて係数を算出するのではなく、R、G、Bの何れか1つの色成分のみについて係数を算出し、当該係数を全ての色成分の輝度レベルの調整に適用することもできる。
Note that the method for adjusting the luminance level of the processing target entry image data is not limited to the above method. For example, when the digital image data obtained by the
次のステップ206では、輝度レベルの補正後の処理対象入室画像データから予め定められた特徴データを抽出する。なお、本実施の形態に係る施設利用者計測システム10では、当該特徴データを次のように抽出する。
In the
まず、処理対象入室画像データにより示される画像に対する、上記施設利用者計測処理プログラムのステップ108の処理においてハードディスク28に記憶しておいた画像変化領域を示す情報を読み出す。
First, information indicating the image change area stored in the
次に、読み出した情報により示される画像変化領域が人を示す領域であるものと仮定し、図11に示すように、当該領域を頭部の領域と、上半身の領域と、下半身の領域と、に分割する。なお、ここでは、当該分割を、標準的な人における頭部、上半身、下半身の各領域の比率に応じて分割するものとしているが、これに限らず、例えば、頭部、上半身、下半身の各領域の形状に応じて分割するものとしてもよい。 Next, assuming that the image change area indicated by the read information is an area indicating a person, as shown in FIG. 11, the area includes a head area, an upper body area, a lower body area, Divide into Note that here, the division is performed according to the ratio of each area of the head, upper body, and lower body in a standard person, but is not limited thereto, for example, each of the head, upper body, and lower body It is good also as what divides | segments according to the shape of an area | region.
次に、上半身及び下半身の各領域毎に、処理対象入室画像データにおける各色成分毎の輝度値のヒストグラムを上記特徴データとして導出する。 Next, for each region of the upper body and the lower body, a histogram of luminance values for each color component in the processing target entry image data is derived as the feature data.
なお、当該導出方法に限らず、例えば、上半身及び下半身の各領域毎で、かつ各色成分毎の輝度値の平均値を上記特徴データとして導出してもよい。 Note that the present invention is not limited to this derivation method, and for example, an average value of luminance values for each region of the upper body and lower body and for each color component may be derived as the feature data.
次のステップ208では、退室画像データ領域における、以降の処理を行っていない、最も撮影日時の新しい画像ファイル名を分類情報(図10も参照。)から読み出し、当該画像ファイルのデジタル画像データ(以下、「処理対象退室画像データ」という。)をハードディスク28から読み出す。
In the
次のステップ210では、処理対象退室画像データにより示される画像の輝度補正エリアA2における輝度レベルがハードディスク28に予め記憶されている輝度補正画像情報により示される画像の輝度レベルに応じたレベルとなるように当該処理対象退室画像データを調整する。なお、当該調整は、当該処理対象退室画像データを圧縮形式に応じた形式で伸張した後に行う。
In the next step 210, the brightness level in the brightness correction area A2 of the image indicated by the processing target leaving image data becomes a level corresponding to the brightness level of the image indicated by the brightness correction image information stored in the
本実施の形態では、当該輝度レベルの調整を、一例として次のように行う。 In the present embodiment, the luminance level is adjusted as follows as an example.
まず、輝度補正画像情報の各画素データのR、G、B毎の平均値MR、MG、MBを算出すると共に、処理対象退室画像データの輝度補正エリアA2における各画素データのR、G、B毎の平均値OR、OG、OBを算出する。 First, average values MR, MG, MB for each R, G, B of each pixel data of the brightness correction image information are calculated, and R, G, B of each pixel data in the brightness correction area A2 of the processing target leaving image data. Average values OR, OG, and OB are calculated for each.
次に、平均値MRに対する平均値ORの割合を示す係数ER(=MR/OR)と、平均値MGに対する平均値OGの割合を示す係数EG(=MG/OG)と、平均値MBに対する平均値OBの割合を示す係数EB(=MB/OB)と、を算出する。 Next, a coefficient ER (= MR / OR) indicating a ratio of the average value OR to the average value MR, a coefficient EG (= MG / OG) indicating a ratio of the average value OG to the average value MG, and an average with respect to the average value MB A coefficient EB (= MB / OB) indicating the ratio of the value OB is calculated.
最後に、処理対象退室画像データにおけるRの各画素データに対して係数ERを、Gの各画素データに対して係数EGを、Bの各画素データに対して係数EBを、各々乗算する。 Finally, the coefficient ER is multiplied by the R pixel data in the processing target leaving image data, the coefficient EG is multiplied by the G pixel data, and the coefficient EB is multiplied by the B pixel data.
なお、処理対象退室画像データの輝度レベルの調整方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号を適用することにより処理対象退室画像データの輝度レベルの調整を行うことができる。また、例えば、上記のようにR、G、Bの全てについて係数を算出するのではなく、R、G、Bの何れか1つの色成分のみについて係数を算出し、当該係数を全ての色成分の輝度レベルの調整に適用することもできる。
Note that the method of adjusting the luminance level of the processing target leaving image data is not limited to the above method. For example, when the digital image data obtained by the
次のステップ212では、輝度レベルの補正後の処理対象退室画像データから予め定められた特徴データを抽出する。なお、本実施の形態に係る施設利用者計測システム10では、当該特徴データを次のように抽出する。
In the
まず、処理対象退室画像データにより示される画像に対する、上記施設利用者計測処理プログラムのステップ108の処理においてハードディスク28に記憶しておいた画像変化領域を示す情報を読み出す。
First, information indicating the image change area stored in the
次に、読み出した情報により示される画像変化領域が人を示す領域であるものと仮定し、図11に示すように、当該領域を頭部の領域と、上半身の領域と、下半身の領域と、に分割する。なお、ここでは、当該分割を、標準的な人における頭部、上半身、下半身の各領域の比率に応じて分割するものとしているが、これに限らず、例えば、頭部、上半身、下半身の各領域の形状に応じて分割するものとしてもよい。 Next, assuming that the image change area indicated by the read information is an area indicating a person, as shown in FIG. 11, the area includes a head area, an upper body area, a lower body area, Divide into Note that here, the division is performed according to the ratio of each area of the head, upper body, and lower body in a standard person, but is not limited thereto, for example, each of the head, upper body, and lower body It is good also as what divides | segments according to the shape of an area | region.
次に、上半身及び下半身の各領域毎に、処理対象退室画像データにおける各色成分毎の輝度値のヒストグラムを上記特徴データとして導出する。 Next, for each region of the upper body and the lower body, a histogram of luminance values for each color component in the processing target leaving image data is derived as the feature data.
なお、当該導出方法に限らず、例えば、上半身及び下半身の各領域毎で、かつ各色成分毎の輝度値の平均値を上記特徴データとして導出してもよい。 Note that the present invention is not limited to this derivation method, and for example, an average value of luminance values for each region of the upper body and lower body and for each color component may be derived as the feature data.
次のステップ214では、上記ステップ206において抽出した上半身の特徴データと上記ステップ212において抽出した上半身の特徴データとの間の一致度JCと、上記ステップ206において抽出した下半身の特徴データと上記ステップ212において抽出した下半身の特徴データとの間の一致度KCと、を算出する。
In the
なお、図11に示すように、本実施の形態に係る施設利用者計測システム10では、上記一致度JCとして、上記ステップ206において上半身の特徴データとして導出したヒストグラムにおける所定閾値以上となる輝度領域範囲と、上記ステップ212において上半身の特徴データとして導出したヒストグラムにおける上記所定閾値以上となる輝度領域範囲と、の各色成分毎の重なり量の積算値を導出する。
As shown in FIG. 11, in the facility user measurement system 10 according to the present embodiment, the luminance region range that is equal to or greater than a predetermined threshold in the histogram derived as the upper body feature data in
また、施設利用者計測システム10では、上記一致度KCとして、上記ステップ206において下半身の特徴データとして導出したヒストグラムにおける所定閾値以上となる輝度領域範囲と、上記ステップ212において下半身の特徴データとして導出したヒストグラムにおける上記所定閾値以上となる輝度領域範囲と、の各色成分毎の重なり量の積算値を導出する。
Further, the facility user measurement system 10 derives the degree of coincidence KC as a luminance region range that is equal to or greater than a predetermined threshold in the histogram derived as the lower body feature data in
なお、一致度JCと一致度KCの算出方法は以上の方法に限らず、例えば、上半身及び下半身の各々の特徴データとして導出した各ヒストグラムの形状に対する各色成分毎のパターン・マッチングにより導出することもできる。 The method of calculating the degree of coincidence JC and the degree of coincidence KC is not limited to the above method. For example, the degree of coincidence JC and the degree of coincidence KC may be derived by pattern matching for each color component with respect to the shape of each histogram derived as feature data of the upper body and lower body. it can.
次のステップ216では、上記ステップ214において導出した一致度JC及び一致度KCの双方が所定値以上であるか否かを判定し、肯定判定となった場合は処理対象入室画像データにより示される画像に含まれる人と、処理対象退室画像データにより示される画像に含まれる人とが同一人物であるものと判断してステップ218に移行し、処理対象入室画像データと処理対象退室画像データとを対応付ける情報(以下、「対応付情報」という。)を記録した後にステップ226に移行する。なお、上記ステップ216で適用する所定値は、一致度JC及び一致度KCが当該値以上となった場合に、当該一致度に対応する2つの処理対象画像データに同一の着衣を身につけた人の画像が含まれる可能性が高いものと見なせる値として、実験により統計的に予め得られた値や、コンピュータ・シミュレーションで予め得られた値等を適用することができる。
In the
図12には、本実施の形態に係る対応付情報の一例が示されている。同図に示すように、ここでは、対応付ける処理対象入室画像データのイベント番号、当該処理対象入室画像データの撮影日時により示される入室時間、対応付ける処理対象退室画像データのイベント番号、当該処理対象退室画像データの撮影日時により示される退室時間、及び上記入室時間と上記退室時間の差分として求められる滞在期間の各情報が対応付情報として記録される。 FIG. 12 shows an example of association information according to the present embodiment. As shown in the figure, here, the event number of the processing target entry image data to be associated, the entry time indicated by the shooting date and time of the processing target entry image data, the event number of the processing target exit image data to be associated, the processing target exit image Each information of the exit time indicated by the shooting date and time of the data and the stay period obtained as the difference between the entrance time and the exit time is recorded as association information.
一方、上記ステップ216において否定判定となった場合はステップ220に移行し、一致度JC及び一致度KCの何れか一方のみが上記所定値以上であるか否かを判定し、肯定判定となった場合はステップ222に移行する。
On the other hand, if a negative determination is made in
ステップ222では、次の(1)式により重み付け一致度WCを算出する。
In
WC=JC×WJ+KC×WK (1)
ここで、WJは上半身における一致度JCに対する重み値を、WKは下半身における一致度KCに対する重み値を、各々示すものである。
WC = JC × WJ + KC × WK (1)
Here, WJ represents a weight value for the degree of coincidence JC in the upper body, and WK represents a weight value for the degree of coincidence KC in the lower body.
診察室に入室する患者は、当該診察室内にて上半身に身につけた上着を脱いだ状態で退室することがある。この場合、一致度JCは同一人物を特定するための値としては適当ではない。これに対し、下半身における着衣を脱いだ状態で退室する患者は殆どいないため、一致度KCは一致度JCに比較して、同一人物を特定するための値として信頼性が高い。 A patient who enters the examination room may leave the room with his / her upper coat taken off in the examination room. In this case, the degree of coincidence JC is not appropriate as a value for specifying the same person. On the other hand, since there are few patients who leave the room with their clothes on the lower body, the coincidence degree KC is more reliable as a value for identifying the same person than the coincidence degree JC.
以上の点を考慮し、本実施の形態に係る施設利用者計測システム10では、重み値WKを重み値WJより大きな値とするようにしており、これによって、より高精度な一致度を導出するようにしている。なお、これに限らず、簡易に一致度WCを導出する場合等には、一致度KCのみを一致度WCとして直接適用したり、重み付けをせずに一致度JCと一致度KCの加算のみにより一致度WCを導出することもできる。 Considering the above points, in the facility user measurement system 10 according to the present embodiment, the weight value WK is set to a value larger than the weight value WJ, and thereby, a higher degree of coincidence is derived. I am doing so. However, the present invention is not limited to this. For example, when the degree of coincidence WC is simply derived, only the degree of coincidence KC is directly applied as the degree of coincidence WC, or only by adding the degree of coincidence JC and the degree of coincidence KC without weighting. The degree of coincidence WC can also be derived.
次のステップ224では、導出した重み付け一致度WCを処理対象入室画像データ及び処理対象退室画像データと関連付けた状態でハードディスク28の所定領域に記憶し、その後にステップ226に移行する。
In the
ステップ226では、処理対象入室画像データ及び処理対象退室画像データに対応する不図示の処理済みフラグを立てることにより、これらの画像データが処理済みであることを記録した後にステップ228に移行して、分類情報(図10も参照。)の入室画像データ領域に記憶されている全ての画像ファイル名のデジタル画像データについて以上の処理が終了したか否かを判定し、否定判定となった場合は上記ステップ202に戻り、肯定判定となった時点で本個別認識処理プログラムを終了する。
In
一方、上記ステップ220において否定判定となった場合はステップ230に移行し、処理対象退室画像データが分類情報の退室画像データ領域に記憶されている最も古いものであるか否かを判定し、肯定判定となった場合は上記ステップ202に戻り、否定判定となった場合にはステップ232に移行して、分類情報の退室画像データ領域に記憶されている、次に撮影日時の新しい画像ファイル名を分類情報から読み出し、当該画像ファイル名のデジタル画像データを処理対象退室画像データとしてハードディスク28から読み出し、その後に上記ステップ210に戻る。
On the other hand, if a negative determination is made in
本個別認識処理プログラムにより、最も新しい処理対象入室画像データから最も古い処理対象入室画像データに向かう方向に、最も新しい処理対象退室画像データから最も古い処理対象退室画像データの順で処理対象入室画像データと処理対象退室画像データの照合を行い、当該照合によって一致度の高い画像データが検出されたときに当該画像データを対応付けると共に以後の照合対象から外すようにしている。 With this individual recognition processing program, the target entry image data is processed in the order from the newest processing target exit image data to the oldest processing target exit image data in the direction from the newest processing target entrance image data to the oldest processing target entrance image data. And the processing target leaving image data are collated, and when image data having a high degree of coincidence is detected by the collation, the image data is associated and excluded from the subsequent collation targets.
通常、診察室への最終入室者は最終退室者と一致する可能性が高いため、以上のような照合手順とすることにより、高速な処理を実現している。 Usually, the last person entering the examination room has a high possibility of matching with the person who left the room, and therefore, high-speed processing is realized by using the above collation procedure.
以上詳細に説明したように、本実施の形態では、診察室62に入る際と当該診察室62から出る際に人が通過する判定エリアA1を所定期間(本実施の形態では、0.2秒間)毎に撮影して複数のデジタル画像データを取得し、当該複数のデジタル画像データから、診察室62に入るために判定エリアA1を人が通過しているときの撮影によって取得された入室時のデジタル画像データと診察室62から出るために判定エリアA1を人が通過しているときの撮影によって取得された退室時のデジタル画像データを抽出し、入室時のデジタル画像データにより示される画像に含まれる人と退室時のデジタル画像データにより示される画像に含まれる人とを照合して同一人物が含まれる画像を示すデジタル画像データを抽出し、これらのデジタル画像データの各々の取得時間(入室時間及び退室時間)を対応付けて記憶しているので、診察室62での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる。 As described above in detail, in the present embodiment, the determination area A1 through which a person passes when entering the examination room 62 and exiting the examination room 62 is set for a predetermined period (in this embodiment, 0.2 seconds). ) To obtain a plurality of digital image data, and from the plurality of digital image data, when entering a room obtained by photographing when a person passes through the determination area A1 to enter the examination room 62 The digital image data and the digital image data at the time of leaving obtained by photographing when a person passes through the judgment area A1 to exit the examination room 62 are extracted and included in the image indicated by the digital image data at the time of entering the room Digital image data indicating images containing the same person is extracted by comparing the person included in the image indicated by the digital image data at the time of leaving and Since each acquisition time (entry time and leaving time) of the image data is stored in association with each other, it is possible to accurately grasp the stay period of the person in the examination room 62. As a result, the facility user The movement status can be grasped at a high level.
また、本実施の形態では、判定エリアA1を人が通過していない状態でカメラ50により取得されたデジタル画像データを背景画像情報として予め記憶しておき、カメラ50により取得された複数のデジタル画像データと上記背景画像情報との比較によって、判定エリアA1を人が通過しているときの撮影によって取得されたデジタル画像データを抽出しているので、簡易に当該デジタル画像データを抽出することができる。
In the present embodiment, digital image data acquired by the
また、本実施の形態では、カメラ50により取得された複数のデジタル画像データによって示される画像の輝度レベルが上記背景画像情報によって示される画像の輝度レベルに応じたレベルとなるように当該複数のデジタル画像データを調整しているので、当該調整を行わない場合に比較して、より高精度に判定エリアA1を人が通過しているときの撮影によって取得されたデジタル画像データを抽出することができる。
In the present embodiment, the plurality of digital images are set such that the brightness level of the image indicated by the plurality of digital image data acquired by the
また、本実施の形態では、カメラ50により取得された複数のデジタル画像データと上記背景画像情報とを比較し、当該背景画像情報との画像上の差異領域(本実施の形態では、画像変化領域)の時系列順での移動方向が診察室62に入るために判定エリアA1を人が通過するときの通過方向に略一致するデジタル画像データを入室時のデジタル画像データとして抽出し、当該移動方向が診察室62から出るために判定エリアA1を人が通過するときの通過方向に略一致するデジタル画像データを退室時のデジタル画像データとして抽出しているので、より高精度に、これらの画像データを抽出することができる。
In the present embodiment, a plurality of digital image data acquired by the
また、本実施の形態では、処理対象入室画像データ及び処理対象退室画像データにより示される各画像に含まれる人の画像領域を上半身領域及び下半身領域に分割し、当該上半身領域及び下半身領域の双方の一致度が所定度合より高い処理対象入室画像データ及び処理対象退室画像データを同一人物が含まれる画像を示すものとして抽出しているので、上半身領域及び下半身領域に分割せずに照合する場合に比較して、より高精度に同一人物の含まれる画像を示す画像データを抽出することができる。 Further, in the present embodiment, the human image area included in each image indicated by the processing target entry image data and the processing target exit image data is divided into an upper body area and a lower body area, and both the upper body area and the lower body area are divided. Since the processing target entry image data and processing target exit image data whose degree of coincidence is higher than a predetermined degree are extracted as indicating images containing the same person, it is compared when collating without dividing into upper body area and lower body area Thus, image data indicating an image including the same person can be extracted with higher accuracy.
また、本実施の形態では、処理対象入室画像データにより示される画像と処理対象退室画像データにより示される画像の同一画像領域(本実施の形態では、輝度補正エリアA2)における輝度レベルが等しくなるように各画像データを調整しているので、当該調整を行わない場合に比較して、より高精度に同一人物の含まれる画像を示す画像データを抽出することができる。 Further, in the present embodiment, the luminance level in the same image area (in the present embodiment, the luminance correction area A2) of the image indicated by the processing target entry image data and the image indicated by the processing target leaving image data is equal. Since each image data is adjusted, image data indicating an image including the same person can be extracted with higher accuracy than in the case where the adjustment is not performed.
また、本実施の形態では、入出状況の把握対象から除外したい人(本実施の形態では、従業員)の画像の予め定められた特徴量を示す除外特徴量情報(本実施の形態では、除外色成分)を予め記憶しておき、実処理対象画像データにより示される人の画像の上記特徴量を示す特徴量情報と除外特徴量情報とを照合して、当該人が除外したい人であるか否かを判定し、除外したい人であると判定された実処理対象画像データを処理対象から除外しているので、診察室62に対する入出状況を把握したい人(本実施の形態では、患者)のみを対象とすることができ、施設利用者計測システム10の有用性を向上させることができる。 Further, in the present embodiment, excluded feature amount information (excluded in the present embodiment) that indicates a predetermined feature amount of an image of a person (employee in the present embodiment) that is desired to be excluded from the grasp status of the entry / exit status. Color component) is stored in advance, the feature amount information indicating the feature amount of the person image indicated by the actual processing target image data is compared with the excluded feature amount information, and the person is to be excluded Since the actual processing target image data determined to be excluded is excluded from the processing target, only the person who wants to grasp the entrance / exit status of the examination room 62 (patient in the present embodiment) The utility of the facility user measurement system 10 can be improved.
更に、本実施の形態では、デジタル画像データをカラーで取得するものとしているので、人の含まれる画像を示すデジタル画像データや同一人物の含まれる画像を示すデジタル画像データの抽出の際に、カラーの色成分(R(赤)、G(緑)、B(青)や、輝度信号及び色差信号)を利用することができ、モノクロの画像情報を取得する場合に比較して、各々の抽出精度を向上させることができる。 Furthermore, in this embodiment, digital image data is acquired in color. Therefore, when digital image data indicating an image including a person or digital image data indicating an image including the same person is extracted, color image data is extracted. Color components (R (red), G (green), B (blue), luminance signal and color difference signal) can be used, and each extraction accuracy is higher than when acquiring monochrome image information. Can be improved.
〔第2の実施の形態〕
上記第1の実施の形態における施設利用者計測処理(図6参照。)では、差分値Dと所定値との比較によって診察室62への入室者及び診察室62からの退室者を検出するようにしているため、全ての入室者及び退室者を検出できるとは限らない。同様に、上記第1の実施の形態における個別認識処理(図9参照。)においても、一致度JC及び一致度KCと所定値との比較によって同一人物を検出するようにしているため、全ての同一人物を検出できるとは限らない。しかしながら、できるだけ多くの検出対象を検出することが患者の移動状況を把握する上で好ましいことは言うまでもない。
[Second Embodiment]
In the facility user measurement process (see FIG. 6) in the first embodiment, a person who enters the examination room 62 and a person who leaves the examination room 62 are detected by comparing the difference value D with a predetermined value. Therefore, it is not always possible to detect all persons entering and leaving the room. Similarly, in the individual recognition process (see FIG. 9) in the first embodiment, the same person is detected by comparing the coincidence degree JC and the coincidence degree KC with a predetermined value. It is not always possible to detect the same person. However, it goes without saying that detecting as many detection targets as possible is preferable for grasping the movement status of the patient.
そこで、本第2の実施の形態では、施設利用者計測処理及び個別認識処理により自動では検出できなかったものを、人を介在させることによって極力検出するようにした場合の形態について説明する。なお、本第2の実施の形態に係る施設利用者計測システム10の構成は上記第1の実施の形態と同様であるので、ここでの説明は省略し、以下、本第2の実施の形態に係る施設利用者計測システム10の作用を説明する。 Therefore, in the second embodiment, a description will be given of a case in which what cannot be automatically detected by the facility user measurement process and the individual recognition process is detected as much as possible by interposing a person. Since the configuration of the facility user measurement system 10 according to the second embodiment is the same as that of the first embodiment, description thereof is omitted, and hereinafter, the second embodiment. The operation of the facility user measurement system 10 according to will be described.
まず、本第2の実施の形態に係る施設利用者計測装置20において実行される施設利用者計測処理について説明する。本形態に係る施設利用者計測装置20では、図6に示した施設利用者計測処理プログラムと略同様の処理が実行されるが、同図におけるステップ108において算出された差分値Dと、ステップ112において導出された幅Wの各値が、対応するデジタル画像データに関連付けられた状態でハードディスク28の所定領域に記憶される点のみが、上記第1の実施の形態と異なっている。
First, the facility user measurement process executed in the facility
従って、本第2の実施の形態に係る施設利用者計測処理プログラムの実行後には、全てのデジタル画像データについての差分値Dと、当該差分値Dが所定値以上であったデジタル画像データについての幅Wがハードディスク28に記憶されることになる。
Therefore, after execution of the facility user measurement processing program according to the second embodiment, the difference value D for all digital image data and the digital image data for which the difference value D is equal to or greater than a predetermined value. The width W is stored in the
当該施設利用者計測処理の実行後に、本第2の実施の形態に係る施設利用者計測装置20では、計測補正処理が実行される。以下、図13を参照して、当該計測補正処理について説明する。なお、図13は、当該計測補正処理の実行時に施設利用者計測装置20のCPU22によって実行される計測補正処理プログラムの処理の流れを示すフローチャートであり、該プログラムもROM26の所定領域に予め記憶されている。
After the facility user measurement process is executed, the facility
まず、ステップ300では、施設利用者計測処理によって記憶された全ての差分値D及び幅Wをハードディスク28から読み出す。
First, in
次のステップ302〜ステップ308では、差分値Dが所定値以上であるか、又は幅Wが所定値以下であるデジタル画像データを検出して当該デジタル画像データに対する不図示のフラグを立てることにより、以降の処理対象とする旨を記録する。
In the
なお、ここで、上記所定値は図6のステップ110で適用した所定値より小さな値とすると共に、上記所定幅は図6のステップ114で適用した所定幅より大きな値とする。これによって、施設利用者計測処理では検出できなかった人の含まれた可能性の高いデジタル画像データを以降の処理対象としている。
Here, it is assumed that the predetermined value is smaller than the predetermined value applied in
次のステップ310では、以上の処理によってフラグの立てられたデジタル画像データに基づいて、計測補正画面をディスプレイ34に表示する。
In the
図14には、ディスプレイ34に表示された計測補正画面の一例が示されている。同図に示すように、本実施の形態に係る計測補正画面では、当該画面の左側領域にステップ306の処理によってフラグが立てられたデジタル画像データの各々毎に、判定エリアA1の画像とイベント番号が、図14上下方向にスクロール可能に表示される。
FIG. 14 shows an example of the measurement correction screen displayed on the
また、当該計測補正画面では、当該画面の右側領域に、施設利用者計測装置20の操作者によって指定されたデジタル画像データにより示される画像全体が表示されると共に、当該表示の下部に、人の種類(ここでは、‘不明’、‘患者’、‘付き添い’、‘従業員’の4種類)の指定を入力するための領域と、診察室62への入室を指定する際に指定される「IN」ボタンと、診察室62からの退室を指定する際に指定される「OUT」ボタンと、本計測補正処理プログラムの終了を指定する際に指定される「終了」ボタンと、が各々表示される。
In the measurement correction screen, the entire image indicated by the digital image data designated by the operator of the facility
当該計測補正画面がディスプレイ34に表示されると操作者は、表示されている判定エリアA1の画像を参照して、当該画像に診察室62に入室する人や診察室62から退室する人が含まれている場合には当該画像か、又は当該画像に対応するイベント番号の表示領域をマウス32によりポインティング指定する。これに応じてディスプレイ34の右側領域には、指定された画像の全体像が表示される。なお、図14では、イベント番号12の画像が指定された場合の表示状態が示されている。
When the measurement correction screen is displayed on the
次に操作者は、指定した画像に含まれている人の種類を示す表示位置をマウス32によりポインティング指定すると共に、当該人が診察室62へ入室しようとしている場合には「IN」ボタンを、診察室62から退室しようとしている場合には「OUT」ボタンを、マウス32によりポインティング指定する。
Next, the operator designates the display position indicating the type of person included in the designated image with the
なお、操作者は、ディスプレイ34の左側領域に表示された判定エリアA1の画像及びイベント番号を、必要に応じて、キーボード30の矢印キーやマウス32による操作によりスクロールさせる。また、操作者は、本計測補正処理プログラムを終了させる場合に「終了」ボタンをマウス32によりポインティング指定する。なお、上記スクロールのための処理は、CPU22により割り込み処理として実行される。
The operator scrolls the image of the determination area A1 and the event number displayed in the left area of the
そこで、次のステップ312では、操作者による以上のような各種指定入力や操作が行われるまで待機し、次のステップ314では、操作者によって指定された画像に対する人の種類の指定入力又は入・退室の指定入力が行われたか否かを判定し、肯定判定となった場合はステップ316に移行して、操作者によって指定された情報を、上記施設利用者計測処理によってハードディスク28に記憶された計測情報(図8も参照。)に追加記憶した後に上記ステップ312に戻り、否定判定となった場合にはステップ318に移行する。
Therefore, in the next step 312, the process waits until various designation inputs and operations as described above are performed by the operator, and in the
ステップ318では、操作者によって本計測補正処理プログラムの終了が指定されたか否かを判定し、否定判定となった場合は上記ステップ312に戻り、肯定判定となった場合には本計測補正処理プログラムを終了する。
In
本計測補正処理プログラムにより、上記施設利用者計測処理プログラムでは検出できなかった入室者及び退室者の含まれるデジタル画像データを、相当数検出することができるようになる。 With this measurement correction processing program, it is possible to detect a considerable number of digital image data including people entering and leaving the room that could not be detected by the facility user measurement processing program.
当該計測補正処理の実行後に、本第2の実施の形態に係る施設利用者計測装置20では、上記第1の実施の形態と同様の個別認識処理(図9参照。)が実行され、その後に、個別認識補正処理が実行される。以下、図15を参照して、当該個別認識補正処理について説明する。なお、図15は、当該個別認識補正処理の実行時に施設利用者計測装置20のCPU22によって実行される個別認識補正処理プログラムの処理の流れを示すフローチャートであり、該プログラムもROM26の所定領域に予め記憶されている。
After the execution of the measurement correction process, the facility
まず、ステップ400では、個別認識処理によって記憶された全ての重み付け一致度WCをハードディスク28から読み出す。
First, in step 400, all weighted coincidences WC stored by the individual recognition process are read from the
次のステップ402〜ステップ406では、一致度WCが所定値以上であるデジタル画像データを検出して当該デジタル画像データに対する不図示のフラグを立てることにより、以降の処理対象とする旨を記録する。
In the
次のステップ408では、以上の処理によってフラグの立てられたデジタル画像データに基づいて、個別認識補正画面をディスプレイ34に表示する。
In the
図16には、ディスプレイ34に表示された個別認識補正画面の一例が示されている。同図に示すように、本実施の形態に係る個別認識補正画面では、当該画面の左側領域に、ステップ404の処理によってフラグが立てられたデジタル画像データのうちの入・退室属性として入室する属性が付与された画像が図16上下方向にスクロール可能に表示される。
FIG. 16 shows an example of the individual recognition correction screen displayed on the
また、当該個別認識補正画面では、当該画面の中央領域に、ステップ404の処理によってフラグが立てられたデジタル画像データのうちの入・退室属性として退室する属性が付与された画像が図16上下方向にスクロール可能に表示される。
Further, in the individual recognition correction screen, an image in which the attribute of leaving the room as the entry / exit attribute of the digital image data flagged by the processing of
更に、当該個別認識補正画面では、当該画面の右側領域に、指定したデジタル画像データを対応付ける際に指定される「対応付け」ボタンと、本個別認識補正処理プログラムの終了を指定する際に指定される「終了」ボタンと、が各々表示される。 Further, in the individual recognition correction screen, the “association” button specified when the specified digital image data is associated with the right area of the screen and the end of the individual recognition correction processing program are specified. And an “END” button.
当該個別認識補正画面がディスプレイ34に表示されると操作者は、左側領域に表示されている画像群(入室時の画像)と、中央領域に表示されている画像群(退室時の画像)とを参照し、同一人物が含まれた2つの画像をマウス32によりポインティング指定する。なお、図16では、入室時の画像として上側の画像が、退室時の画像として中央の画像が、各々指定された場合の表示状態が示されている。
When the individual recognition correction screen is displayed on the
そして、操作者は、指定した2つの画像を示す各デジタル画像データを対応付ける際には「対応付け」ボタンをマウス32によりポインティング指定する。
Then, the operator designates the “association” button by pointing with the
なお、操作者は、必要に応じて、表示画像をキーボード30の矢印キーやマウス32による操作によってスクロールさせる。また、操作者は、本個別認識補正処理プログラムを終了させる場合に「終了」ボタンをマウス32によりポインティング指定する。なお、上記スクロールのための処理は、CPU22によって割り込み処理として実行される。
Note that the operator scrolls the display image by an operation with an arrow key of the
そこで、次のステップ410では、操作者による「対応付け」ボタン又は「終了」ボタンの指定待ちを行い、次のステップ412では、「対応付け」ボタンが指定されたか否かを判定し、肯定判定となった場合はステップ414に移行して、操作者によって指定された2つの画像を示す各デジタル画像データを対応付ける情報を、上記個別認識処理によってハードディスク28に記憶された対応付情報(図12も参照。)に追加記憶した後に上記ステップ410に戻り、否定判定となった場合にはステップ416に移行する。
Therefore, in the
ステップ416では、操作者によって「終了」ボタンが指定されたか否かを判定し、否定判定となった場合は上記ステップ410に戻り、肯定判定となった場合には本個別認識補正処理プログラムを終了する。
In
本個別認識補正処理プログラムにより、上記個別認識処理プログラムでは検出できなかった同一人物の含まれたデジタル画像データを、相当数検出することができるようになる。 The individual recognition correction processing program can detect a considerable number of digital image data including the same person that could not be detected by the individual recognition processing program.
以上詳細に説明したように、本実施の形態では、上記第1の実施の形態と同様の効果を奏することができることに加え、施設利用者計測処理及び個別認識処理により抽出されなかったデジタル画像データにより示される画像をディスプレイ34により表示し、当該表示した画像において、診察室62に入るために判定エリアA1を人が通過しているときの画像を指定する第1指定、診察室62から出るために判定エリアA1を人が通過しているときの画像を指定する第2指定、及び同一人物が含まれる画像を指定する第3指定、の各指定を入力することができるので、施設利用者計測処理及び個別認識処理による抽出漏れを補うことができる。
As described above in detail, in the present embodiment, in addition to being able to achieve the same effects as in the first embodiment, digital image data not extracted by the facility user measurement process and the individual recognition process In order to exit the examination room 62, the first designation that designates an image when a person is passing through the determination area A1 to enter the examination room 62 in the displayed image is displayed on the
なお、上記各実施の形態では、本発明の「通過領域」が単一の領域(判定エリアA1)である場合について説明したが、本発明はこれに限定されるものではなく、例えば、診察室62に入室用のドア及び退室用のドアが各々個別に設けられている場合に、これらのドアに対する人の各通過領域を本発明の「通過領域」として適用する形態とすることもできる。また、診察室62に入室用のドア及び退室用のドアの少なくとも一方が複数設けられている場合に、これらのドアに対する人の各通過領域を本発明の「通過領域」として適用する形態とすることもできる。 In each of the above embodiments, the case where the “passing region” of the present invention is a single region (determination area A1) has been described, but the present invention is not limited to this, and for example, an examination room In the case where the entrance door and the exit door are individually provided in 62, it is also possible to adopt a form in which each passing area of a person with respect to these doors is applied as the “passing area” of the present invention. Further, when at least one of the entrance door and the exit door is provided in the examination room 62, each passing area of the person with respect to these doors is applied as the “passing area” of the present invention. You can also.
これらの場合、全ての通過領域を1台のカメラで撮影するようにすることが、施設利用者計測システムの構築のためのコストの面で有利であるが、これに限らず、各通過領域が比較的離間して存在する場合や、異なる壁面に存在する場合等、1台のカメラで撮影することができない場合には、複数台のカメラにより撮影する形態とすることもできる。これらの場合、各通過領域を本実施の形態と同様の判定エリアとして予め設定しておき、施設利用者計測処理プログラム(図6参照。)において、各判定エリアに対して判定エリアA1に行っていた処理を行うようにする。この場合も、本実施の形態と同様の効果を奏することができる。 In these cases, it is advantageous in terms of the cost for constructing the facility user measurement system that all the passing areas are photographed by one camera, but the present invention is not limited to this. When it is impossible to photograph with one camera, such as when they are relatively separated from each other or when they are on different wall surfaces, it is possible to adopt a form in which photographing is performed with a plurality of cameras. In these cases, each passing area is set in advance as a determination area similar to the present embodiment, and in the facility user measurement processing program (see FIG. 6), the determination area A1 is performed for each determination area. Process. Also in this case, the same effects as in the present embodiment can be obtained.
また、上記各実施の形態では、判定エリアA1として診察室62の入退室口66が含まれた領域を適用した場合について説明したが、本発明はこれに限定されるものではなく、例えば、入退室口66近傍で入退室口66が含まれず、かつ診察室62に対して入退室する際に患者が通過する領域を判定エリアA1とする形態とすることもできる。この場合も、本実施の形態と同様の効果を奏することができる。
In each of the above embodiments, the case where the area including the entrance /
また、上記各実施の形態では、個別認識処理(図9参照。)において、処理対象入室画像データと処理対象退室画像データにおける各色成分の分布状態の一致度に基づいて同一人物であるか否かの判定を行う場合について説明したが、本発明はこれに限定されるものではなく、例えば、処理対象入室画像データと処理対象退室画像データにより示される各画像に含まれる人の着衣の柄の一致度に基づいて判定を行う形態や、当該人の身長の一致度に基づいて判定を行う形態等とすることもできる。なお、上記着衣の柄の一致度を適用する場合には、デジタル画像データを必ずしもカラーで取得する必要はなく、モノクロで取得する形態とすることもできる。この場合、カメラ50を低価格のものとすることができると共に、デジタル画像データの記憶に要する記憶容量を低容量化することができる。
In each of the above embodiments, in the individual recognition process (see FIG. 9), whether or not they are the same person based on the degree of coincidence of the distribution states of the respective color components in the processing target entry image data and the processing target exit image data. However, the present invention is not limited to this. For example, the pattern of the person's clothes included in each image indicated by the processing target entry image data and the processing target exit image data matches. It is also possible to adopt a form in which the determination is made based on the degree or a form in which the determination is made based on the matching degree of the person's height. In addition, when applying the pattern matching degree of the clothes, the digital image data does not necessarily have to be acquired in color, and can be acquired in monochrome. In this case, the
また、上記各実施の形態で示した施設利用者計測システム10(図1〜図3参照。)の構成は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。 Moreover, it is needless to say that the configuration of the facility user measurement system 10 (see FIGS. 1 to 3) shown in each of the above embodiments is an example, and can be appropriately changed without departing from the gist of the present invention. Yes.
例えば、上記各実施の形態では、カメラ50として、予め設定された期間毎にカラー静止画像を撮影するデジタル電子スチルカメラを適用したが、カラー動画像を撮影するデジタルカメラを適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。
For example, in each of the above embodiments, a digital electronic still camera that captures a color still image for each preset period is applied as the
更に、上記各実施の形態で示した各種処理プログラム(図6、図9、図13、図15参照。)の各処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。 Furthermore, the flow of each process of the various processing programs (see FIGS. 6, 9, 13, and 15) shown in the above embodiments is also an example, and can be changed as appropriate without departing from the gist of the present invention. It goes without saying that it is possible.
10 施設利用者計測システム
20 施設利用者計測装置
22 CPU(第1抽出手段、第2抽出手段、判定手段、除外手段)
28 ハードディスク(記憶手段)
32 マウス(指定入力手段)
34 ディスプレイ(表示手段)
50 カメラ(画像取得手段)
A1 判定エリア(通過領域)
A2 輝度補正エリア
DESCRIPTION OF SYMBOLS 10 Facility
28 Hard disk (storage means)
32 mouse (designated input means)
34 Display (display means)
50 Camera (Image acquisition means)
A1 judgment area (passing area)
A2 Brightness correction area
Claims (13)
前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得手段と、
前記画像取得手段により取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得手段により取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出手段と、
前記第1抽出手段により抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出手段により抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出手段により抽出された前記第1画像情報と前記第1抽出手段により抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出手段と、
前記第2抽出手段により抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を記憶する記憶手段と、
を備えた画像処理装置。 An image processing apparatus that performs image processing for grasping a person's entry / exit status with respect to a predetermined area,
Image acquisition means for capturing a plurality of pieces of image information by photographing a passing region through which a person passes when entering and exiting the predetermined region at predetermined intervals;
Comparing the plurality of image information acquired by the image acquisition means with background image information predetermined as image information acquired by the image acquisition means in a state where a person does not pass through the passage area; The image in which the moving direction in the time series order of the difference area on the image with respect to the background image information substantially matches the passing direction when a person passes through the passing area in order to enter the predetermined area. The information is extracted as first image information acquired by photographing when a person is passing through the passing area to enter the predetermined area, and the passing area is extracted so that the moving direction exits the predetermined area. the second image information person the passage region of the image information in order to exit from the predetermined area in the passing direction substantially coincides is acquired by shooting it passes through when a person passes A first extracting means for extracting,
In the direction from the newest first image information extracted by the first extracting means to the oldest first image information, the oldest first image information from the newest second image information extracted by the first extracting means. in order 2 image information indicating an image including the irradiation combined and the same person and the extracted second image information by the extracted first image information said first extraction means by said first extracting means Second extraction means for extracting the first image information and the second image information;
Storage means for storing acquisition times by the image acquisition means for each of the first image information and the second image information extracted by the second extraction means;
An image processing apparatus.
請求項1記載の画像処理装置。 The image processing apparatus according to claim 1.
請求項1または請求項2記載の画像処理装置。 The image processing apparatus according to claim 1.
請求項1〜請求項3の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3.
請求項1〜請求項4の何れか1項記載の画像処理装置。 The image processing apparatus according to claim 1.
前記第2抽出手段は、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分との分布状態の一致度が所定度合より高く、かつ前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分との分布状態の一致度が所定度合より高い場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出する The second extraction means includes each color component of the upper body region of the person included in the image indicated by the first image information and each color component of the upper body region of the person included in the image indicated by the second image information. The degree of coincidence of the distribution state is higher than a predetermined degree, and the lower body region of the person included in the image indicated by the second image information and each color component of the lower body region of the person included in the image indicated by the first image information When the degree of coincidence of the distribution state with each color component is higher than a predetermined degree, the first image information and the second image information are extracted as indicating images containing the same person.
請求項5記載の画像処理装置。 The image processing apparatus according to claim 5.
請求項6記載の画像処理装置。 The image processing apparatus according to claim 6.
請求項1〜請求項4の何れか1項記載の画像処理装置。 The image processing apparatus according to claim 1.
請求項1〜請求項8の何れか1項記載の画像処理装置。 The image processing apparatus according to claim 1.
前記第1画像情報及び前記第2画像情報により示される人の画像の前記特徴量を示す特徴量情報と前記除外特徴量情報とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定する判定手段と、 The feature amount information indicating the feature amount of the human image indicated by the first image information and the second image information is collated with the excluded feature amount information, and the first image information and the second image information are used. Determining means for determining whether or not the person indicated is the person to be excluded;
前記判定手段により前記除外したい人であると判定された前記第1画像情報及び前記第2画像情報を処理対象から除外する除外手段と、 Exclusion means for excluding the first image information and the second image information determined to be excluded by the determination means from the processing target;
を更に備えた請求項1〜請求項9の何れか1項記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising:
前記判定手段は、前記第1画像情報及び前記第2画像情報により示される人の着衣の特徴と前記着衣特徴情報により示される着衣の特徴とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定する The determination means collates the characteristics of the person's clothes indicated by the first image information and the second image information with the characteristics of the clothes indicated by the clothes characteristic information, and determines the first image information and the second image information. Determine whether the person indicated by the image information is the person who wants to exclude
請求項10記載の画像処理装置。 The image processing apparatus according to claim 10.
前記表示手段により表示された画像において、前記所定領域に入るために前記通過領域を人が通過しているときの画像を指定する第1指定、及び前記所定領域から出るために前記通過領域を人が通過しているときの画像を指定する第2指定の少なくとも1つの指定を入力する指定入力手段と、 In the image displayed by the display means, a first designation that designates an image when a person is passing through the passing area to enter the predetermined area, and a person passing the passing area to exit the predetermined area. Designation input means for inputting at least one designation of a second designation for designating an image when
各々同一人物を含む前記第1指定により指定された画像と前記第2指定により指定された画像とを対応付ける対応付け指示を入力する対応付け指示入力手段と、 Association instruction input means for inputting an association instruction for associating the image designated by the first designation and the image designated by the second designation, each including the same person;
前記対応付け指示入力手段によって入力された対応付け指示により対応付けられた前記第1指定により指定された画像及び前記第2指定により指定された画像を示す前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を前記記憶手段に記憶するように制御を行う制御手段と、を更に備えた請求項1〜請求項11の何れか1項記載の画像処理装置。 The first image information and the second image information indicating the image designated by the first designation and the image designated by the second designation associated by the association instruction input by the association instruction input means. The image processing apparatus according to claim 1, further comprising a control unit that performs control so as to store an acquisition time of each of the image acquisition units in the storage unit.
前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得ステップと、 An image acquisition step of capturing a plurality of pieces of image information by photographing a passing region through which a person passes when entering the predetermined region and exiting the predetermined region for each predetermined period;
前記画像取得ステップにより取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得ステップにより取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出ステップと、 The plurality of image information acquired by the image acquisition step is compared with the background image information predetermined as the image information acquired by the image acquisition step in a state where no person passes through the passage area, The image in which the moving direction in the time series order of the difference area on the image with respect to the background image information substantially matches the passing direction when a person passes through the passing area in order to enter the predetermined area. The information is extracted as first image information acquired by photographing when a person is passing through the passing area to enter the predetermined area, and the passing area is extracted so that the moving direction exits the predetermined area. A second image acquired by photographing when a person is passing through the passing area in order to leave the image information that substantially matches the passing direction when the person passes through the predetermined area. A first extraction step of extracting as a broadcast,
前記第1抽出ステップにより抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出ステップにより抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出ステップにより抽出された前記第1画像情報と前記第1抽出ステップにより抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出ステップと、 In the direction from the newest first image information extracted by the first extraction step to the oldest first image information, the oldest second image information extracted from the newest second image information extracted by the first extraction step. In the order of two image information, the first image information extracted by the first extraction step and the second image information extracted by the first extraction step are collated to indicate an image including the same person A second extraction step for extracting the first image information and the second image information;
前記第2抽出ステップにより抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得ステップによる取得時間を記憶手段に記憶する記憶ステップと、 A storage step of storing, in a storage unit, an acquisition time of each of the first image information and the second image information extracted by the second extraction step by the image acquisition step;
をコンピュータに実行させるための画像処理プログラム。 An image processing program for causing a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003290003A JP4408355B2 (en) | 2003-08-08 | 2003-08-08 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003290003A JP4408355B2 (en) | 2003-08-08 | 2003-08-08 | Image processing apparatus and image processing program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2005063010A JP2005063010A (en) | 2005-03-10 |
| JP4408355B2 true JP4408355B2 (en) | 2010-02-03 |
Family
ID=34368157
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003290003A Expired - Fee Related JP4408355B2 (en) | 2003-08-08 | 2003-08-08 | Image processing apparatus and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4408355B2 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4843297B2 (en) * | 2005-11-24 | 2011-12-21 | 良次 大塲 | Subject monitoring method, subject monitoring device, and subject monitoring program |
| JP5683176B2 (en) * | 2010-09-02 | 2015-03-11 | 株式会社ホギメディカル | Notification device and notification program |
| JP6347125B2 (en) * | 2014-03-24 | 2018-06-27 | 大日本印刷株式会社 | Attribute discrimination device, attribute discrimination system, attribute discrimination method, and attribute discrimination program |
| JP6473308B2 (en) * | 2014-09-29 | 2019-02-20 | アズビル株式会社 | Control system |
-
2003
- 2003-08-08 JP JP2003290003A patent/JP4408355B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2005063010A (en) | 2005-03-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9141184B2 (en) | Person detection system | |
| JP5175852B2 (en) | Video analysis device, method for calculating evaluation value between persons by video analysis | |
| US11625949B2 (en) | Face authentication apparatus | |
| KR101337060B1 (en) | Imaging processing device and imaging processing method | |
| JP6172551B1 (en) | Image search device, image search system, and image search method | |
| JP5669082B2 (en) | Verification device | |
| CN115499586A (en) | Image masking method for monitoring system | |
| US11620728B2 (en) | Information processing device, information processing system, information processing method, and program | |
| US20110063441A1 (en) | Imager and surveillance system | |
| US20190147251A1 (en) | Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium | |
| CN111209446A (en) | Method and device for presenting personnel retrieval information and electronic equipment | |
| JP2020187531A (en) | Information processing equipment, information processing methods and programs | |
| JP4408355B2 (en) | Image processing apparatus and image processing program | |
| US10783365B2 (en) | Image processing device and image processing system | |
| WO2023284307A1 (en) | Image processing method and apparatus, and electronic device, storage medium and computer program product | |
| US12400482B2 (en) | Image processing device, image processing method, and non-transitory computer readable medium | |
| JP2020095651A (en) | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program | |
| CN117437673A (en) | Image processing method, device, computer equipment and storage medium | |
| JP2007312271A (en) | Surveillance system | |
| JP2022058833A (en) | Information processing system, information processing apparatus, information processing method, and program | |
| JP2009042879A (en) | Person search device and person search method | |
| EP3814989B1 (en) | Method and apparatus for facilitating identification | |
| JP2020078025A (en) | Object authentication system, object registration device, object authentication method, and object authentication program | |
| JP2025087476A (en) | Information collection system and information collection method | |
| CN116823302A (en) | Supermarket people stream monitoring and commodity setting method based on big data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060630 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090518 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090724 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091008 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091104 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091109 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121120 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |